`
zhimaruanjian
  • 浏览: 32717 次
  • 性别: Icon_minigender_1
文章分类
社区版块
存档分类
最新评论

芝麻HTTP:Python爬虫入门之Cookie的使用

 
阅读更多

为什么要使用Cookie呢?

Cookie,指某些网站为了辨别用户身份、进行session跟踪而储存在用户本地终端上的数据(通常经过加密)

比如说有些网站需要登录后才能访问某个页面,在登录之前,你想抓取某个页面内容是不允许的。那么我们可以利用Urllib2库保存我们登录的Cookie,然后再抓取其他页面就达到目的了。

在此之前呢,我们必须先介绍一个opener的概念。

1.Opener

当你获取一个URL你使用一个opener(一个urllib2.OpenerDirector的实例)。在前面,我们都是使用的默认的opener,也就是urlopen。它是一个特殊的opener,可以理解成opener的一个特殊实例,传入的参数仅仅是url,data,timeout。

如果我们需要用到Cookie,只用这个opener是不能达到目的的,所以我们需要创建更一般的opener来实现对Cookie的设置。

2.Cookielib

cookielib模块的主要作用是提供可存储cookie的对象,以便于与urllib2模块配合使用来访问Internet资源。Cookielib模块非常强大,我们可以利用本模块的CookieJar类的对象来捕获cookie并在后续连接请求时重新发送,比如可以实现模拟登录功能。该模块主要的对象有CookieJar、FileCookieJar、MozillaCookieJar、LWPCookieJar。

它们的关系:CookieJar —-派生—->FileCookieJar  —-派生—–>MozillaCookieJar和LWPCookieJar

1)获取Cookie保存到变量

首先,我们先利用CookieJar对象实现获取cookie的功能,存储到变量中,先来感受一下

 import urllib2
import cookielib
#声明一个CookieJar对象实例来保存cookie
cookie = cookielib.CookieJar()
#利用urllib2库的HTTPCookieProcessor对象来创建cookie处理器
handler=urllib2.HTTPCookieProcessor(cookie)
#通过handler来构建opener
opener = urllib2.build_opener(handler)
#此处的open方法同urllib2的urlopen方法,也可以传入request
response = opener.open('http://www.baidu.com')
for item in cookie:
    print 'Name = '+item.name
    print 'Value = '+item.value

 我们使用以上方法将cookie保存到变量中,然后打印出了cookie中的值,运行结果如下

 

Name = BAIDUID
Value = B07B663B645729F11F659C02AAE65B4C:FG=1
Name = BAIDUPSID
Value = B07B663B645729F11F659C02AAE65B4C
Name = H_PS_PSSID
Value = 12527_11076_1438_10633
Name = BDSVRTM
Value = 0
Name = BD_HOME
Value = 0

 

 

2)保存Cookie到文件

在上面的方法中,我们将cookie保存到了cookie这个变量中,如果我们想将cookie保存到文件中该怎么做呢?这时,我们就要用到

FileCookieJar这个对象了,在这里我们使用它的子类MozillaCookieJar来实现Cookie的保存

 

import cookielib
import urllib2
 
#设置保存cookie的文件,同级目录下的cookie.txt
filename = 'cookie.txt'
#声明一个MozillaCookieJar对象实例来保存cookie,之后写入文件
cookie = cookielib.MozillaCookieJar(filename)
#利用urllib2库的HTTPCookieProcessor对象来创建cookie处理器
handler = urllib2.HTTPCookieProcessor(cookie)
#通过handler来构建opener
opener = urllib2.build_opener(handler)
#创建一个请求,原理同urllib2的urlopen
response = opener.open("http://www.baidu.com")
#保存cookie到文件
cookie.save(ignore_discard=True, ignore_expires=True)

 关于最后save方法的两个参数在此说明一下:

 

官方解释如下:

ignore_discard: save even cookies set to be discarded. 

ignore_expires: save even cookies that have expiredThe file is overwritten if it already exists

由此可见,ignore_discard的意思是即使cookies将被丢弃也将它保存下来,ignore_expires的意思是如果在该文件中cookies已经存在,则覆盖原文件写入,在这里,我们将这两个全部设置为True。运行之后,cookies将被保存到cookie.txt文件中。

 3)从文件中获取Cookie并访问

那么我们已经做到把Cookie保存到文件中了,如果以后想使用,可以利用下面的方法来读取cookie并访问网站,感受一下

 

import cookielib
import urllib2
 
#创建MozillaCookieJar实例对象
cookie = cookielib.MozillaCookieJar()
#从文件中读取cookie内容到变量
cookie.load('cookie.txt', ignore_discard=True, ignore_expires=True)
#创建请求的request
req = urllib2.Request("http://www.baidu.com")
#利用urllib2的build_opener方法创建一个opener
opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))
response = opener.open(req)
print response.read()

 设想,如果我们的 cookie.txt 文件中保存的是某个人登录百度的cookie,那么我们提取出这个cookie文件内容,就可以用以上方法模拟这个人的账号登录百度。

 

 4)利用cookie模拟网站登录

下面我们以学校的教育系统为例,利用cookie实现模拟登录,并将cookie信息保存到文本文件中,来感受一下cookie大法吧!

import urllib
import urllib2
import cookielib
 
filename = 'cookie.txt'
#声明一个MozillaCookieJar对象实例来保存cookie,之后写入文件
cookie = cookielib.MozillaCookieJar(filename)
opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))
postdata = urllib.urlencode({
            'stuid':'201200131012',
            'pwd':'23342321'
        })
#登录教务系统的URL
loginUrl = 'http://jwxt.sdu.edu.cn:7890/pls/wwwbks/bks_login2.login'
#模拟登录,并把cookie保存到变量
result = opener.open(loginUrl,postdata)
#保存cookie到cookie.txt中
cookie.save(ignore_discard=True, ignore_expires=True)
#利用cookie请求访问另一个网址,此网址是成绩查询网址
gradeUrl = 'http://jwxt.sdu.edu.cn:7890/pls/wwwbks/bkscjcx.curscopre'
#请求访问成绩查询网址
result = opener.open(gradeUrl)
print result.read()

 以上程序的原理如下

创建一个带有cookie的opener,在访问登录的URL时,将登录后的cookie保存下来,然后利用这个cookie来访问其他网址。

 

 

分享到:
评论

相关推荐

    核心基础-模拟生成福彩双色球彩票号码-Python源码示例.zip

    在本压缩包“核心基础-模拟生成福彩双色球彩票号码-Python源码示例.zip”中,包含了一个使用Python编程语言实现的程序,用于模拟生成中国福利彩票双色球的随机号码。这个程序展示了Python在自动化、数据分析、游戏...

    芝麻Python

    "芝麻Python"是一个可能指的是入门或初级级别的Python学习资源,可能是某个课程、教程或学习项目的名称。这个资源可能旨在帮助初学者开启他们的Python编程之旅。Python是一种广泛使用的高级编程语言,以其简洁明了的...

    Python源码实例-画爱心.zip

    在Python编程语言中,"画爱心"是一种常见的图形绘制练习,它可以帮助初学者熟悉Python的图形输出和控制结构。这个压缩包"Python源码实例-画爱心.zip"包含了一个具体的Python代码示例,用于在终端或命令行界面绘制出...

    网络爬虫-多进程爬取在线课程并存入MySQL数据库-Python源码示例.zip

    该压缩包文件“网络爬虫-多进程爬取在线课程并存入MySQL数据库-Python源码示例.zip”提供了一个Python实现的网络爬虫项目,旨在通过多进程技术抓取在线课程信息,并将数据存储到MySQL数据库中。这个项目涵盖了以下几...

    微信红包提醒-Python源码示例.zip

    在本压缩包“微信红包提醒-Python源码示例.zip”中,主要包含了一个使用Python编程语言实现的微信红包自动提醒的功能。这个功能对于经常参与微信红包活动的用户来说非常实用,可以避免错过任何红包机会。以下是这个...

    Python源码实例-画画.zip

    在Python编程领域,"Python源码实例-画画.zip"这个压缩包文件似乎包含了一系列与使用Python进行图形绘制相关的源代码示例。这个压缩包可能是为了帮助初学者或开发者理解如何利用Python来创建视觉效果,包括可能的...

    程序自动化-连接MySQL数据库时自动开启服务器-Python实例源码.zip

    网络爬虫经常需要将抓取的数据存储到数据库中,Python的`requests`库用于发送HTTP请求,`BeautifulSoup`或`lxml`库解析HTML,然后使用MySQL存储数据。在Python脚本中,可以先启动MySQL服务,再进行爬虫数据的入库...

    Python源码实例-名言查询.zip

    1. **Python语言基础**:Python是一种高级编程语言,以其简洁明了的语法而著名,适合初学者入门。在这个实例中,我们可能会看到Python的基础语法,如变量、条件语句、循环、函数定义等。 2. **自动化**:Python常被...

    Python源码实例-贺卡.zip

    6. **网络爬虫**:虽然不常见,但如果你的贺卡实例需要从网上抓取特定图片或信息,Python的网络爬虫技术(如BeautifulSoup和Scrapy)就派上用场了。这可以实现自动收集网络上的贺卡素材。 7. **游戏开发**:虽然...

    Python源码实例-翻译软件.zip

    4. **网络爬虫**:为了获取网络上的多语言资源,软件可能使用了Python的Scrapy、BeautifulSoup等网络爬虫框架。这些工具可以抓取网页内容,提取需要翻译的文本,甚至从在线翻译服务中获取结果。 5. **游戏开发**:...

    Python源码实例-简易时钟.zip

    这个实例主要展示了Python在自动化、数据分析、网络爬虫以及游戏开发等多个领域的应用潜力。让我们深入探讨一下这个时钟程序背后的Python知识。 1. **Python基础**:Python是一种高级编程语言,以其简洁的语法和...

    网络爬虫-如何通过requests模块实现Cookie登录-Python实例源码.zip

    网络爬虫-如何通过requests模块实现Cookie登录-Python实例源码.zip

    网络爬虫-爬取在线课程并保存到Excel-Python源码示例.zip

    在本压缩包中,我们关注的是使用Python进行网络爬虫技术来抓取在线课程信息,并将其整理存储到Excel文件中的过程。这个实例涉及到的主要知识点包括网络爬虫的基础、Python编程、网页解析以及数据处理和存储。 1. **...

    python实战项目源码-学生信息管理系统-含可执行文件.zip

    Python作为一种高级编程语言,因其简洁明了的语法和强大的功能,被广泛应用于各种领域,包括自动化、数据分析、网络爬虫和游戏开发等。本项目“Python实战项目源码-学生信息管理系统-含可执行文件”是一个典型的...

    文件图形多媒体-用Python实现文件对比分析并生成报告-Python源码示例.zip

    Python的requests库用于发送HTTP请求,BeautifulSoup解析HTML和XML文档,scrapy是一个强大的爬虫框架,可以构建复杂的爬虫项目。 7. **报告生成**:Python的reportlab库可以生成PDF报告,Jinja2模板引擎则用于...

    python实战项目源码-商城源码-含可执行文件.zip

    这个压缩包文件“python实战项目源码-商城源码-含可执行文件.zip”显然包含了一个基于Python的商城系统的完整源代码,同时也提供了可执行文件,这意味着你可以直接运行该程序而无需编译或构建。这个项目是Python在...

    核心基础-根据身份证号判断所属省份、生日及性别-Python源码示例.zip

    在IT行业中,Python是一种广泛应用的编程语言,尤其在数据分析、自动化、游戏开发和网络爬虫等领域。本资源“核心基础-根据身份证号判断所属省份、生日及性别-Python源码示例.zip”提供了利用Python来解析中国居民...

    网络爬虫-如何去除文本信息中的干扰数据-Python实例源码.zip

    Python作为网络爬虫的常用语言,提供了丰富的库和方法来帮助我们完成这项任务。以下是一些关键知识点: 1. **BeautifulSoup库**:用于解析HTML和XML文档,可以方便地找到和提取网页中的特定元素。例如,我们可以...

    网络爬虫-如何实现实时显示下载的进度(百分比形式)-Python实例源码.zip

    总的来说,通过使用`urllib.request`和`tqdm`库,我们可以实现在Python网络爬虫中实时显示下载进度,提升用户体验。同时,爬虫技术与其他领域如游戏开发、数据分析和自动化紧密结合,展现了其在各种应用场景中的广泛...

    独角兽观察- 黑芝麻智能:如何叩开国产车芯的新世界大门.pdf

    【黑芝麻智能】是一家专注于自动驾驶芯片研发的中国独角兽企业,由具有深厚行业经验的创始人团队于2016年创立。公司瞄准智能汽车市场对于高算力、高性能芯片的急迫需求,尤其在新冠疫情导致全球汽车芯片短缺的背景下...

Global site tag (gtag.js) - Google Analytics