为什么要使用Cookie呢?
Cookie,指某些网站为了辨别用户身份、进行session跟踪而储存在用户本地终端上的数据(通常经过加密)
比如说有些网站需要登录后才能访问某个页面,在登录之前,你想抓取某个页面内容是不允许的。那么我们可以利用Urllib2库保存我们登录的Cookie,然后再抓取其他页面就达到目的了。
在此之前呢,我们必须先介绍一个opener的概念。
1.Opener
当你获取一个URL你使用一个opener(一个urllib2.OpenerDirector的实例)。在前面,我们都是使用的默认的opener,也就是urlopen。它是一个特殊的opener,可以理解成opener的一个特殊实例,传入的参数仅仅是url,data,timeout。
如果我们需要用到Cookie,只用这个opener是不能达到目的的,所以我们需要创建更一般的opener来实现对Cookie的设置。
2.Cookielib
cookielib模块的主要作用是提供可存储cookie的对象,以便于与urllib2模块配合使用来访问Internet资源。Cookielib模块非常强大,我们可以利用本模块的CookieJar类的对象来捕获cookie并在后续连接请求时重新发送,比如可以实现模拟登录功能。该模块主要的对象有CookieJar、FileCookieJar、MozillaCookieJar、LWPCookieJar。
它们的关系:CookieJar —-派生—->FileCookieJar —-派生—–>MozillaCookieJar和LWPCookieJar
1)获取Cookie保存到变量
首先,我们先利用CookieJar对象实现获取cookie的功能,存储到变量中,先来感受一下
1
2
3
4
5
6
7
8
9
10
11
12
13
|
import urllib2
import cookielib
#声明一个CookieJar对象实例来保存cookie
cookie=cookielib.CookieJar()
#利用urllib2库的HTTPCookieProcessor对象来创建cookie处理器
handler=urllib2.HTTPCookieProcessor(cookie)
#通过handler来构建opener
opener=urllib2.build_opener(handler)
#此处的open方法同urllib2的urlopen方法,也可以传入request
response=opener.open('http://www.baidu.com')
foritem incookie:
print'Name = '+item.name
print'Value = '+item.value
|
我们使用以上方法将cookie保存到变量中,然后打印出了cookie中的值,运行结果如下
|
Name=BAIDUID
Value=B07B663B645729F11F659C02AAE65B4C:FG=1
Name=BAIDUPSID
Value=B07B663B645729F11F659C02AAE65B4C
Name=H_PS_PSSID
Value=12527_11076_1438_10633
Name=BDSVRTM
Value=0
Name=BD_HOME
Value=0
|
2)保存Cookie到文件
在上面的方法中,我们将cookie保存到了cookie这个变量中,如果我们想将cookie保存到文件中该怎么做呢?这时,我们就要用到
FileCookieJar这个对象了,在这里我们使用它的子类MozillaCookieJar来实现Cookie的保存
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
import cookielib
import urllib2
#设置保存cookie的文件,同级目录下的cookie.txt
filename='cookie.txt'
#声明一个MozillaCookieJar对象实例来保存cookie,之后写入文件
cookie=cookielib.MozillaCookieJar(filename)
#利用urllib2库的HTTPCookieProcessor对象来创建cookie处理器
handler=urllib2.HTTPCookieProcessor(cookie)
#通过handler来构建opener
opener=urllib2.build_opener(handler)
#创建一个请求,原理同urllib2的urlopen
response=opener.open("http://www.baidu.com")
#保存cookie到文件
cookie.save(ignore_discard=True,ignore_expires=True)
|
关于最后save方法的两个参数在此说明一下:
官方解释如下:
ignore_discard: save even cookies set to be discarded.
ignore_expires: save even cookies that have expiredThe file is overwritten if it already exists
由此可见,ignore_discard的意思是即使cookies将被丢弃也将它保存下来,ignore_expires的意思是如果在该文件中cookies已经存在,则覆盖原文件写入,在这里,我们将这两个全部设置为True。运行之后,cookies将被保存到cookie.txt文件中,我们查看一下内容,附图如下
3)从文件中获取Cookie并访问
那么我们已经做到把Cookie保存到文件中了,如果以后想使用,可以利用下面的方法来读取cookie并访问网站,感受一下
1
2
3
4
5
6
7
8
9
10
11
12
13
|
import cookielib
import urllib2
#创建MozillaCookieJar实例对象
cookie=cookielib.MozillaCookieJar()
#从文件中读取cookie内容到变量
cookie.load('cookie.txt',ignore_discard=True,ignore_expires=True)
#创建请求的request
req=urllib2.Request("http://www.baidu.com")
#利用urllib2的build_opener方法创建一个opener
opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))
response=opener.open(req)
print response.read()
|
设想,如果我们的 cookie.txt 文件中保存的是某个人登录百度的cookie,那么我们提取出这个cookie文件内容,就可以用以上方法模拟这个人的账号登录百度。
4)利用cookie模拟网站登录
下面我们以我们学校的教育系统为例,利用cookie实现模拟登录,并将cookie信息保存到文本文件中,来感受一下cookie大法吧!
注意:密码我改了啊,别偷偷登录本宫的选课系统 o(╯□╰)o
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
|
import urllib
import urllib2
import cookielib
filename='cookie.txt'
#声明一个MozillaCookieJar对象实例来保存cookie,之后写入文件
cookie=cookielib.MozillaCookieJar(filename)
opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))
postdata=urllib.urlencode({
'stuid':'201200131012',
'pwd':'23342321'
})
#登录教务系统的URL
loginUrl='http://jwxt.sdu.edu.cn:7890/pls/wwwbks/bks_login2.login'
#模拟登录,并把cookie保存到变量
result=opener.open(loginUrl,postdata)
#保存cookie到cookie.txt中
cookie.save(ignore_discard=True,ignore_expires=True)
#利用cookie请求访问另一个网址,此网址是成绩查询网址
gradeUrl='http://jwxt.sdu.edu.cn:7890/pls/wwwbks/bkscjcx.curscopre'
#请求访问成绩查询网址
result=opener.open(gradeUrl)
print result.read()
|
以上程序的原理如下
创建一个带有cookie的opener,在访问登录的URL时,将登录后的cookie保存下来,然后利用这个cookie来访问其他网址。
相关推荐
标题“flask-session-cookie-manager”指的是一个Python应用,它专门针对Flask框架,用于管理和操作session cookie。在Web开发中,session cookie是服务器用来跟踪用户状态的一种方式,特别是在无状态的HTTP协议上...
在这个项目中,我们将深入探讨Python-jws库的使用方法以及它在Python开发中的应用。 1. **JWS概述** JSON Web签名定义了一种方法,通过使用非对称加密算法(如RSA或ECDSA)对JSON对象进行签名,确保数据的完整性和...
本项目“flask-session-cookie-manager-master.zip”显然是一款针对Flask Web框架的session管理工具,它专注于session的加密与解密。Flask是一个轻量级的Python Web服务器网关接口(WSGI)应用框架,广泛用于快速...
`pycookiecheat`是一个方便的Python库,它允许我们从已经验证的浏览器会话中提取Cookie,然后在Python脚本中使用这些Cookie来模拟登录状态。 首先,让我们深入了解一下什么是Cookie。Cookie是服务器发送到用户...
这个文件名可能表示在使用Python-Secure库时遇到了TypeError错误。在实际开发中,这可能是由于传入的参数类型不正确或者使用方法不符合库的要求。为了解决这个问题,你需要查看具体的错误信息,理解错误原因,并根据...
标题中的“PyPI 官网下载 | flask-session-cookie-manager-1.2.1.tar.gz”表明这是一个在Python Package Index(PyPI)上发布的开源软件包,名为“flask-session-cookie-manager”,版本为1.2.1,其源代码以tar.gz...
实现微博爬虫通常需要处理登录、反爬虫策略(如User-Agent、Cookie、验证码)等问题,可能需要用到Selenium、MechanicalSoup等工具。 3. **自如爬虫**:自如是中国的一家租房平台,其房源信息是许多用户关注的数据...
下面我们将深入探讨`python-jwt`的使用、原理以及如何在实际的Python开发中应用。 首先,我们要理解JWT的基本结构。一个JWT由三部分组成,分别是头部(Header)、载荷(Payload)和签名(Signature)。头部通常包含...
《Python库emencia-cookie-law-0.2.3:理解并应用Cookie法规》 在现代互联网环境中,数据隐私和安全成为越来越重要的议题。欧洲联盟(EU)为了保护用户隐私,提出了“Cookie法”(ePrivacy Directive),这使得网站...
同时,需要考虑如何模拟浏览器行为,如设置User-Agent,处理Cookie和Session,以避免被网站检测到是爬虫。 6. 防反爬策略:知乎等网站可能会采用滑动验证码、动态加载、IP限制等反爬策略。因此,了解这些策略并设计...
第21周-第14章节-Python3.5-Cookie是什么鬼.avi
虽然 Python 主要用于后端开发,但可以通过一些工具和技术来辅助前端工作流,例如使用 Python 来处理静态资源。 ### Django 框架概述 #### Django 的用途 Django 是一个高度模块化和可扩展的框架,广泛应用于各种...
在Python中,我们可以使用`http.cookies`模块来处理Cookie。`Python的cookie处理分享.docx`可能包含了如何在Python中创建、读取和管理Cookie的详细步骤。 例如,创建一个新的Cookie: ```python import ...
本文将深入探讨如何使用Python来实现微信网页授权的扫码登录功能。这个过程涉及到的主要知识点包括OAuth2.0授权框架、微信开放平台API以及Python的请求库。 微信网页授权是微信提供的一种服务,允许第三方网站通过...
这个版本的SDK是Python开发者使用腾讯云CLB服务的基础工具,允许他们在后端开发中轻松地管理和操作负载均衡器。 Tencent Cloud SDK for Python 是腾讯云官方提供的Python客户端开发工具包,它封装了腾讯云的各项API...
在本项目中,我们将探索如何使用Python来模拟开发一个简单的新浪微博平台。这涉及到的主要知识点包括Python编程基础、Web开发框架的使用以及CMS(内容管理系统)的设计原则。首先,让我们从Python编程基础开始。 ...
python爬虫之selenium--cookie操作。 在做自动化的时候,遇到难处理的验证码,我们可以手动登录,然后获取登录到的cookie,添加到浏览器中,就可以实现登录。具体操作看图片信息。以下只是提纲式列举一二,希望对你...
在Python的Web开发领域,Django是一个非常流行的高级框架,它提供了一系列强大的工具来帮助开发者构建安全、高效的应用。在这个教程中,我们将深入探讨Django中的两个关键概念:CSRF(跨站请求伪造)和Cookie及...
在这个名为"python-使用python开发的爬虫项目.zip"的压缩包中,我们可以找到一个完整的Python爬虫项目实例,这将为我们提供一个学习和实践Python爬虫的宝贵资源。 爬虫项目通常包括以下几个关键部分: 1. **数据...
网站可能通过检查User-Agent、IP地址或Cookie来阻止爬虫。为了解决这些问题,我们可以设置自定义的User-Agent,使用代理IP,以及使用session保持登录状态。 至于机器学习部分,爬取的数据常常需要预处理,包括清洗...