本文摘要: 1.安装pip 2.安装requests模块 3.安装beautifulsoup4 4.requests模块浅析 + 发送请求 + 传递URL参数 + 响应内容 + 获取网页编码 + 获取响应状态码 5.案例演示 后记
1.安装pip
我的个人桌面系统用的linuxmint,系统默认没有安装pip,考虑到后面安装requests模块使用pip,所以我这里第一步先安装pip。
$ sudo apt install python-pip
安装成功,查看PIP版本:
$ pip -V
2.安装requests模块
这里我是通过pip方式进行安装:
$ pip install requests
运行import requests,如果没提示错误,那说明已经安装成功了!
3.安装beautifulsoup4
Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库。它能够通过你喜欢的转换器实现惯用的文档导航,查找、修改文档的方式。Beautiful Soup会帮你节省数小时甚至数天的工作时间。
$ sudo apt-get install python3-bs4
注:这里我使用的是python3的安装方式,如果你用的是python2,可以使用下面命令安装。
$ sudo pip install beautifulsoup4
4.requests模块浅析
1)发送请求
首先当然是要导入 Requests 模块:
>>> import requests
然后,获取目标抓取网页。这里我以简书为例:
>>> r = requests.get('http://www.jianshu.com/p/b8ef5c005ba4')
这里返回一个名为 r 的响应对象。我们可以从这个对象中获取所有我们想要的信息。这里的get是http的响应方法,所以举一反三你也可以将其替换为put、delete、post、head。
2)传递URL参数
有时我们想为 URL 的查询字符串传递某种数据。如果你是手工构建 URL,那么数据会以键/值对的形式置于 URL 中,跟在一个问号的后面。例如, jianshu.com/get?key=val。 Requests 允许你使用 params 关键字参数,以一个字符串字典来提供这些参数。
举例来说,当我们google搜索“python爬虫”关键词时,newwindow(新窗口打开)、q及oq(搜索关键词)等参数可以手工组成URL ,那么你可以使用如下代码:
>>> payload = {'newwindow': '1', 'q': 'python爬虫', 'oq': 'python爬虫'}
>>> r = requests.get("https://www.google.com/search", params=payload)
3)响应内容
通过r.text或r.content来获取页面响应内容。
>>> import requests
>>> r = requests.get('https://github.com/timeline.json')
>>> r.text
Requests 会自动解码来自服务器的内容。大多数 unicode 字符集都能被无缝地解码。这里补充一点r.text和r.content二者的区别,简单说:
resp.text返回的是Unicode型的数据;
resp.content返回的是bytes型也就是二进制的数据;
所以如果你想取文本,可以通过r.text,如果想取图片,文件,则可以通过r.content。
4)获取网页编码
>>> r = requests.get('http://www.jianshu.com/')
>>> r.encoding
'utf-8'
5)获取响应状态码
我们可以检测响应状态码:
>>> r = requests.get('http://www.jianshu.com/')
>>> r.status_code
200
5.案例演示
最近公司刚引入了一款OA 系统,这里我以其官方说明文档页面为例,并且只抓取页面中文章标题和内容等有用信息。
演示环境
操作系统:linuxmint
python版本:python 3.5.2
使用模块:requests、beautifulsoup4
代码如下:
#!/usr/bin/env python # -*- coding: utf-8 -*- _author_ = 'GavinHsueh' import requests import bs4 #要抓取的目标页码地址 url = 'http://www.ranzhi.org/book/ranzhi/about-ranzhi-4.html' #抓取页码内容,返回响应对象 response = requests.get(url) #查看响应状态码 status_code = response.status_code #使用BeautifulSoup解析代码,并锁定页码指定标签内容 content = bs4.BeautifulSoup(response.content.decode("utf-8"), "lxml") element = content.find_all(id='book') print(status_code) print(element)
程序运行返回爬去结果:
关于爬去结果乱码问题
其实起初我是直接用的系统默认自带的python2操作的,但在抓取返回内容的编码乱码问题上折腾了老半天,google了多种解决方案都无效。在被python2“整疯“之后,只好老老实实用python3了。对于python2的爬取页面内容乱码问题,欢迎各位前辈们分享经验,以帮助我等后生少走弯路。
后记
python的爬虫相关模块有很多,除了requests模块,再如urllib和pycurl以及tornado等。相比而言,我个人觉得requests模块是相对简单易上手的了。通过文本,大家可以迅速学会使用python的requests模块爬取页码内容。本人能力有限,如果文章有任何错误欢迎不吝赐教,其次如果大家有任何关于python爬去页面内容的疑难杂问,也欢迎和大家一起交流讨论。
我们共同学习,共同交流,共同进步!
参考:
https://www.crummy.com/software/BeautifulSoup/bs4/doc/index.zh.html#
http://cn.python-requests.org/zh_CN/latest/
相关推荐
### Python3 使用 Requests 模块爬取页面内容的实战演练 在互联网时代,网络爬虫技术成为了一种非常重要的工具,用于从网站上自动化收集数据。Python 作为一门功能强大且易于使用的编程语言,在网络爬虫领域有着...
python 使用基础requests 去爬取网页上面的图片并下载
开发软件:Pycharm + Python3.7 + Requests库爬取 + Mysql + Echarts 兼职招聘分析系统的首页有各类图表的综合分析,用户在打开招聘分析系统后在首页就能看到相应的图表分析。通过后端的爬虫程序在各类在线平台...
在本文中,我们将重点讨论如何使用`requests`模块来爬取百度翻译和搜狗网页的数据。 首先,`requests`模块的安装非常简单,只需在命令行输入`pip install requests`即可完成。一旦安装完毕,我们就可以开始编写网络...
本系统是一个主要使用python3, celery和requests来爬取职位数据的爬虫,实现了定时任务,出错重试,日志记录,自动更改Cookies等的功能,并使用ECharts Bootstrap 来构建前端页面,来展示爬取到的数据。
在本项目中,我们将探讨如何使用Python编程语言和requests库来爬取国家级非物质文化遗产代表性项目名录。这个过程涉及网络爬虫技术,这是数据获取的重要工具,尤其在大数据和数据分析领域中广泛应用。 首先,Python...
Python的requests库可以方便地发送这些请求并获取网页内容。 4. **HTML和CSS选择器**:在解析网页时,你需要找到目标数据所在的HTML元素,CSS选择器可以帮你实现这一点。通过分析网页结构,你可以使用选择器选取...
在这个名为"python 二手车(数据爬取).zip"的压缩包中,我们将会探讨如何利用Python进行二手车数据的爬取,并将这些数据整理成Excel文件,这对于初学者和在校学生来说是一次很好的实践机会。 首先,我们需要了解...
标题 "Requests库爬取个人的所有Git项目" 描述了如何使用Python中的Requests库来抓取个人在GitHub上的所有项目信息。Requests库是Python中最常用的HTTP客户端库,它使得发送HTTP请求变得异常简单。在这个实验中,...
requests模块.py xpath实战.py 东盟爬取2.py 中国东盟爬取.py 图片爬取练习.py 爬取天气预报热门地区.py 爬虫网页采集器.py 百度翻译.py 豆瓣.py
在这个场景中,我们将讨论如何使用Python的`lxml`库结合XPath来实现图片的爬取。`lxml`库提供了高效的XML和HTML处理能力,支持XPath 1.0规范。 首先,让我们了解基本的XPath语法。XPath通过路径表达式来选取XML或...
本文重点给大家介绍python使用requests模块实现爬取电影天堂最新电影信息,具体内容如下所示: 在抓取网络数据的时候,有时会用正则对结构化的数据进行提取,比如 href=”https://www.1234.com”等。python的re模块...
python使用requests模块请求网址,使用lxml模块中etree抓取数据,并使用time模块延时 爬取的页面为: 运行结果如下图所示: python代码如下: 在这里插入代码片 # _*_ coding:utf _*_ # 邮箱:3195841740@qq.com #...
在这个项目中,我们可能会使用到如`requests`库来发送HTTP请求获取网页内容,以及`BeautifulSoup`或`lxml`库来解析HTML文档,提取弹幕数据。 2. **HTML与XPath/CSS选择器**:在解析网页时,我们需要理解HTML的结构...
Python 如何通过requests模块实现Cookie登录 Python源码Python 如何通过requests模块实现Cookie登录 Python源码Python 如何通过requests模块实现Cookie登录 Python源码Python 如何通过requests模块实现Cookie登录 ...
Python的`requests`模块是用于发送HTTP请求的强大库,它简化了与Web服务的交互,使得开发者能够方便地获取网页内容、提交表单、下载文件等。本压缩包包含`requests`模块本身及其依赖包,如`certifi`、`chardet`等,...