`
shaoziqiang
  • 浏览: 4762 次
文章分类
社区版块
存档分类
最新评论

Python爬虫入门:Cookie的使用

 
阅读更多

大家好哈,上一节我们研究了一下爬虫的异常处理问题,那么接下来我们一起来看一下Cookie的使用。

为什么要使用Cookie呢?

Cookie,指某些网站为了辨别用户身份、进行session跟踪而储存在用户本地终端上的数据(通常经过加密)

比如说有些网站需要登录后才能访问某个页面,在登录之前,你想抓取某个页面内容是不允许的。那么我们可以利用Urllib2库保存我们登录的Cookie,然后再抓取其他页面就达到目的了。

在此之前呢,我们必须先介绍一个opener的概念。

1.Opener

当你获取一个URL你使用一个opener(一个urllib2.OpenerDirector的实例)。在前面,我们都是使用的默认的opener,也就是urlopen。它是一个特殊的opener,可以理解成opener的一个特殊实例,传入的参数仅仅是url,data,timeout。

如果我们需要用到Cookie,只用这个opener是不能达到目的的,所以我们需要创建更一般的opener来实现对Cookie的设置。

2.Cookielib

cookielib模块的主要作用是提供可存储cookie的对象,以便于与urllib2模块配合使用来访问Internet资源。 Cookielib模块非常强大,我们可以利用本模块的CookieJar类的对象来捕获cookie并在后续连接请求时重新发送,比如可以实现模拟登录 功能。该模块主要的对象有CookieJar、FileCookieJar、MozillaCookieJar、LWPCookieJar。

它们的关系:CookieJar —-派生—->FileCookieJar —-派生—–>MozillaCookieJar和LWPCookieJar

1)获取Cookie保存到变量

首先,我们先利用CookieJar对象实现获取cookie的功能,存储到变量中,先来感受一下

Python

1

2

3

4

5

6

7

8

9

10

11

12

13

import urllib2

import cookielib

#声明一个CookieJar对象实例来保存cookie

cookie = cookielib.CookieJar()

#利用urllib2库的HTTPCookieProcessor对象来创建cookie处理器

handler=urllib2.HTTPCookieProcessor(cookie)

#通过handler来构建opener

opener = urllib2.build_opener(handler)

#此处的open方法同urllib2的urlopen方法,也可以传入request

response = opener.open('http://www.zimaruanjian.com')

for item in cookie:

    print 'Name = '+item.name

    print 'Value = '+item.value

我们使用以上方法将cookie保存到变量中,然后打印出了cookie中的值,运行结果如下

Python

1

2

3

4

5

6

7

8

9

10

Name = BAIDUID

Value = B07B663B645729F11F659C02AAE65B4C:FG=1

Name = BAIDUPSID

Value = B07B663B645729F11F659C02AAE65B4C

Name = H_PS_PSSID

Value = 12527_11076_1438_10633

Name = BDSVRTM

Value = 0

Name = BD_HOME

Value = 0

2)保存Cookie到文件

在上面的方法中,我们将cookie保存到了cookie这个变量中,如果我们想将cookie保存到文件中该怎么做呢?这时,我们就要用到

FileCookieJar这个对象了,在这里我们使用它的子类MozillaCookieJar来实现Cookie的保存

Python

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

import cookielib

import urllib2

 

#设置保存cookie的文件,同级目录下的cookie.txt

filename = 'cookie.txt'

#声明一个MozillaCookieJar对象实例来保存cookie,之后写入文件

cookie = cookielib.MozillaCookieJar(filename)

#利用urllib2库的HTTPCookieProcessor对象来创建cookie处理器

handler = urllib2.HTTPCookieProcessor(cookie)

#通过handler来构建opener

opener = urllib2.build_opener(handler)

#创建一个请求,原理同urllib2的urlopen

response = opener.open("http://www.zhimaruanjian.com")

#保存cookie到文件

cookie.save(ignore_discard=True, ignore_expires=True)

关于最后save方法的两个参数在此说明一下:

官方解释如下:

ignore_discard: save even cookies set to be discarded.

ignore_expires: save even cookies that have expiredThe file is overwritten if it already exists

由此可见,ignore_discard的意思是即使cookies将被丢弃也将它保存下来,ignore_expires的意思是如果在该文件中 cookies已经存在,则覆盖原文件写入,在这里,我们将这两个全部设置为True。运行之后,cookies将被保存到cookie.txt文件中, 我们查看一下内容,附图如下



 

3)从文件中获取Cookie并访问

那么我们已经做到把Cookie保存到文件中了,如果以后想使用,可以利用下面的方法来读取cookie并访问网站,感受一下

Python

1

2

3

4

5

6

7

8

9

10

11

12

13

import cookielib

import urllib2

 

#创建MozillaCookieJar实例对象

cookie = cookielib.MozillaCookieJar()

#从文件中读取cookie内容到变量

cookie.load('cookie.txt', ignore_discard=True, ignore_expires=True)

#创建请求的request

req = urllib2.Request("http://www.zhimaruanjian.com")

#利用urllib2的build_opener方法创建一个opener

opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))

response = opener.open(req)

print response.read()

设想,如果我们的 cookie.txt 文件中保存的是某个人登录百度的cookie,那么我们提取出这个cookie文件内容,就可以用以上方法模拟这个人的账号登录百度。

4)利用cookie模拟网站登录

下面我们以我们学校的教育系统为例,利用cookie实现模拟登录,并将cookie信息保存到文本文件中,来感受一下cookie大法吧!

注意:密码我改了啊,别偷偷登录本宫的选课系统 o(╯□╰)o

Python

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

import urllib

import urllib2

import cookielib

 

filename = 'cookie.txt'

#声明一个MozillaCookieJar对象实例来保存cookie,之后写入文件

cookie = cookielib.MozillaCookieJar(filename)

opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))

postdata = urllib.urlencode({

'stuid':'201200131012',

'pwd':'23342321'

})

#登录教务系统的URL

loginUrl = 'http://jwxt.sdu.edu.cn:7890/pls/wwwbks/bks_login2.login'

#模拟登录,并把cookie保存到变量

result = opener.open(loginUrl,postdata)

#保存cookie到cookie.txt中

cookie.save(ignore_discard=True, ignore_expires=True)

#利用cookie请求访问另一个网址,此网址是成绩查询网址

gradeUrl = 'http://jwxt.sdu.edu.cn:7890/pls/wwwbks/bkscjcx.curscopre'

#请求访问成绩查询网址

result = opene创建一个带有cookie的opener,在访问登录的URL时,将登录后的cookie保存下来,然后利用这个cookie来访问其他网址。

如登录之后才能查看的成绩查询呀,本学期课表呀等等网址,模拟登录就这么实现啦,是不是很酷炫?

好,小伙伴们要加油哦!我们现在可以顺利获取网站信息了,接下来就是把网站里面有效内容提取出来,下一节我们去会会正则表达式!

  • 大小: 84.2 KB
分享到:
评论

相关推荐

    Python爬虫入门教程:超级简单的Python爬虫教程.zip

    这篇“Python爬虫入门教程:超级简单的Python爬虫教程”将引导初学者一步步进入爬虫的世界。 首先,我们需要理解爬虫的基本概念。爬虫是一种自动浏览网页并抓取信息的程序,它通过模拟人类浏览器的行为来请求网页,...

    Python爬虫入门.zip

    【Python爬虫入门】 在信息技术日新月异的今天,数据已经成为了一种重要的资源。Python作为一种简洁且功能强大的编程语言,因其丰富的库支持和易读性,成为了爬虫开发的首选工具。本资料包“Python爬虫入门.zip”...

    Python爬虫教学视频-最全的Python爬虫视频教程全集

    本Python爬虫教学视频,全集共51天课程,整套课程以Python语言为核心,通过各种经典案例的讲解,很好的演示了python爬虫如何抓取数据的全过程,非常值得Python爬虫工程师和想掌握python爬虫技术的同学借鉴学习。...

    python爬虫可以做什么?python爬虫入门教程有哪些?.docx

    - **《Python爬虫入门》系列教程**:适合完全没有编程基础的新手。主要内容包括: - **综述**:介绍爬虫的基本概念及其应用场景。 - **爬虫基础了解**:讲解网络请求的基本知识,如HTTP协议、URL结构等。 - **...

    解析Python网络爬虫_复习大纲.docx

    3. 根据使用场景的不同,网络爬虫可分为通用爬虫和聚焦爬虫两种。 4. 爬虫可以爬取互联网上公开的且可以访问到的网页信息。 判断题: 1. 爬虫是手动请求万维网网站且提取网页数据的程序。(×) 2. 爬虫爬取的是...

    python爬虫教程从入门到精通

    以上就是根据“Python爬虫教程从入门到精通”的标题、描述及部分内容生成的相关知识点概览。本教程旨在全面覆盖从基础知识到实战项目的各个环节,帮助学员系统地学习Python爬虫技术,为成为高级爬虫工程师打下坚实的...

    python爬虫入门到实战的学习顺序.pdf

    总之,Python爬虫的学习是一个循序渐进的过程,从基础语法开始,逐步深入到库的使用和框架的掌握。理论学习与实践操作相结合,不断挑战自己,才能在Python爬虫的世界里游刃有余。同时,保持对新技术的热情和好奇心,...

    Python爬虫实例教程-代码.rar

    4. **使用代理**:"日月光华python爬虫实战_课程6_使用代理下载微信文章.py"和"6.3 微信文章爬虫.py"讲述了如何通过代理IP避免被目标网站封禁。这通常涉及到`proxy`参数的设置,以及如何管理代理池,比如使用`...

    爬虫入门python爬虫.pdf

    Python爬虫是网络数据获取的重要工具,主要依赖于requests库来与服务器进行交互。本教程主要介绍了Python爬虫的基础知识,包括服务器渲染和客户端渲染两种网页处理方式,以及请求头和响应头中的关键参数。 首先,...

    python爬虫入门实战案例教程-入门到精通(收藏版)

    Python爬虫是编程领域中一个热门且实用的技能,它主要应用于数据挖掘、数据分析和自动化信息获取。本教程是为初学者设计的,旨在帮助读者从零基础开始,逐步掌握Python爬虫的基本概念、技术和实战应用。以下是本教程...

    Python入门网络爬虫之精华版

    本篇文章《Python入门网络爬虫之精华版》主要介绍了Python网络爬虫的基础知识,从抓取、分析到存储的三个主要方面,以及如何应对一些常见的反爬虫机制。此外,还提及了Scrapy这一流行的爬虫框架,并提供了一个参考...

    3万多字200道python爬虫笔试面试及答案汇总,适合初学者入门.docx

    Python 爬虫是网络爬虫的一种,使用 Python 语言来实现网络爬虫的开发。以下是 Python 爬虫笔试面试及答案汇总的知识点总结: 目录 1. Python 爬虫概述 Python 爬虫是使用 Python 语言来实现的网络爬虫,能够自动...

    python爬虫教程三份.rar

    8. 多线程/异步:使用多线程或异步I/O(如asyncio)提高爬取速度。 9. 爬虫伦理:了解并遵守网站的robots.txt规则,尊重数据隐私,避免滥用资源。 通过这三份教程,你将逐步建立起对Python网络爬虫的全面理解,从...

    python基础教程head-Python爬虫基础入门,这是我看到最简单易懂的教程.pdf

    Python爬虫基础入门教程主要介绍了爬虫的基本概念、价值以及执行流程,适合初学者学习。以下是对这些知识点的详细说明: 1. **爬虫需求**: - 获取特定类型的网络资源,例如深夜寻找特定图片。 - 在节假日高峰时...

    2021年9个常用的python爬虫源码

    本资源包含的是“2021年9个常用的python爬虫源码”,这将帮助初学者快速入门,同时也为经验丰富的开发者提供了参考和灵感。 1. **基础爬虫框架** - Python中常见的爬虫框架有BeautifulSoup、Scrapy和Requests+...

    python爬虫教程(大部分)基础

    Python爬虫教程是入门编程和数据获取的重要资源,尤其对于新手来说,它是探索网络数据世界的一把钥匙。Python因其简洁易读的语法和强大的库支持,成为爬虫开发的首选语言。下面,我们将深入探讨Python爬虫的基础知识...

    python爬虫大合集

    这个压缩包可能包含一系列的代码示例、教程文档或项目实例,旨在帮助初学者快速入门并深入理解Python爬虫。 在Python爬虫领域,有几个核心知识点是必须掌握的: 1. **基础概念**:理解什么是网络爬虫,其工作原理...

    如何自学Python爬虫?零基础入门教程.pdf

    Python爬虫是一种自动抓取网页信息的技术,也称为网络蜘蛛或网页机器人。它按照预设的规则自动遍历互联网上的信息,通常用于数据抓取、网站分析和自动化任务执行。爬虫可以模拟浏览器的行为,定制化的搜索和下载所需...

    爬虫技术系列课+Python+爬虫基础知识爬虫实例反爬机制+自学课程

    Python爬虫入门基础 1.1 爬虫概念及其工作原理 1.2 Python环境搭建与爬虫库介绍 1.3 爬虫的合法性与道德规范 网络请求与HTML基础 2.1 HTTP协议基础 2.2 使用requests库发起网络请求 2.3 HTML结构解析与XPath/CSS选择...

    python爬虫教程,全套资源,附代码案例

    总之,这套"Python爬虫教程,全套资源,附代码案例"涵盖了从入门到精通的全过程,通过实例学习和实践,你将能够独立编写高效、稳定的爬虫程序,应对各种复杂的网页抓取任务。在学习过程中,记得结合实际项目需求,...

Global site tag (gtag.js) - Google Analytics