`
zhimaruanjian
  • 浏览: 32704 次
  • 性别: Icon_minigender_1
文章分类
社区版块
存档分类
最新评论

芝麻HTTP:Python爬虫利器三之Xpath语法与lxml库的用法

 
阅读更多

安装

​pip install lxml

 利用 pip 安装即可

XPath语法

XPath 是一门在 XML 文档中查找信息的语言。XPath 可用来在 XML 文档中对元素和属性进行遍历。XPath 是 W3C XSLT 标准的主要元素,并且 XQuery 和 XPointer 都构建于 XPath 表达之上。

节点关系

(1)父(Parent)

每个元素以及属性都有一个父。

在下面的例子中,book 元素是 title、author、year 以及 price 元素的父:

​
<book>
  <title>Harry Potter</title>
  <author>J K. Rowling</author>
  <year>2005</year>
  <price>29.99</price>
</book>

 (2)子(Children)

元素节点可有零个、一个或多个子。

在下面的例子中,title、author、year 以及 price 元素都是 book 元素的子:

​
<book>
  <title>Harry Potter</title>
  <author>J K. Rowling</author>
  <year>2005</year>
  <price>29.99</price>
</book>

 (3)同胞(Sibling)

拥有相同的父的节点

在下面的例子中,title、author、year 以及 price 元素都是同胞:

​<book>
  <title>Harry Potter</title>
  <author>J K. Rowling</author>
  <year>2005</year>
  <price>29.99</price>
</book>

 (4)先辈(Ancestor)

某节点的父、父的父,等等。

在下面的例子中,title 元素的先辈是 book 元素和 bookstore 元素:

​<bookstore>
 
<book>
  <title>Harry Potter</title>
  <author>J K. Rowling</author>
  <year>2005</year>
  <price>29.99</price>
</book>
 
</bookstore>

 (5)后代(Descendant)

某个节点的子,子的子,等等。

在下面的例子中,bookstore 的后代是 book、title、author、year 以及 price 元素:

​<bookstore>
 
<book>
  <title>Harry Potter</title>
  <author>J K. Rowling</author>
  <year>2005</year>
  <price>29.99</price>
</book>
 
</bookstore>

 

选取节点

XPath 使用路径表达式在 XML 文档中选取节点。节点是通过沿着路径或者 step 来选取的。

下面列出了最有用的路径表达式:

表达式 描述
nodename 选取此节点的所有子节点。
/ 从根节点选取。
// 从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置。
. 选取当前节点。
.. 选取当前节点的父节点。
@ 选取属性。

实例

在下面的表格中,我们已列出了一些路径表达式以及表达式的结果:

路径表达式 结果
bookstore 选取 bookstore 元素的所有子节点。
/bookstore 选取根元素 bookstore。注释:假如路径起始于正斜杠( / ),则此路径始终代表到某元素的绝对路径!
bookstore/book 选取属于 bookstore 的子元素的所有 book 元素。
//book 选取所有 book 子元素,而不管它们在文档中的位置。
bookstore//book 选择属于 bookstore 元素的后代的所有 book 元素,而不管它们位于 bookstore 之下的什么位置。
//@lang 选取名为 lang 的所有属性。

谓语(Predicates)

谓语用来查找某个特定的节点或者包含某个指定的值的节点。

谓语被嵌在方括号中。

实例

在下面的表格中,我们列出了带有谓语的一些路径表达式,以及表达式的结果:

路径表达式 结果
/bookstore/book[1] 选取属于 bookstore 子元素的第一个 book 元素。
/bookstore/book[last()] 选取属于 bookstore 子元素的最后一个 book 元素。
/bookstore/book[last()-1] 选取属于 bookstore 子元素的倒数第二个 book 元素。
/bookstore/book[position()<3] 选取最前面的两个属于 bookstore 元素的子元素的 book 元素。
//title[@lang] 选取所有拥有名为 lang 的属性的 title 元素。
//title[@lang=’eng’] 选取所有 title 元素,且这些元素拥有值为 eng 的 lang 属性。
/bookstore/book[price>35.00] 选取 bookstore 元素的所有 book 元素,且其中的 price 元素的值须大于 35.00。
/bookstore/book[price>35.00]/title 选取 bookstore 元素中的 book 元素的所有 title 元素,且其中的 price 元素的值须大于 35.00。

选取未知节点

XPath 通配符可用来选取未知的 XML 元素。

通配符 描述
* 匹配任何元素节点。
@* 匹配任何属性节点。
node() 匹配任何类型的节点。

实例

在下面的表格中,我们列出了一些路径表达式,以及这些表达式的结果:

路径表达式 结果
/bookstore/* 选取 bookstore 元素的所有子元素。
//* 选取文档中的所有元素。
//title[@*] 选取所有带有属性的 title 元素。

选取若干路径

通过在路径表达式中使用“|”运算符,您可以选取若干个路径。

实例

在下面的表格中,我们列出了一些路径表达式,以及这些表达式的结果:

路径表达式 结果
//book/title | //book/price 选取 book 元素的所有 title 和 price 元素。
//title | //price 选取文档中的所有 title 和 price 元素。
/bookstore/book/title | //price 选取属于 bookstore 元素的 book 元素的所有 title 元素,以及文档中所有的 price 元素。

XPath 运算符

下面列出了可用在 XPath 表达式中的运算符:

运算符 描述 实例 返回值
| 计算两个节点集 //book | //cd 返回所有拥有 book 和 cd 元素的节点集
+ 加法 6 + 4 10
减法 6 – 4 2
* 乘法 6 * 4 24
div 除法 8 div 4 2
= 等于 price=9.80 如果 price 是 9.80,则返回 true。如果 price 是 9.90,则返回 false。
!= 不等于 price!=9.80 如果 price 是 9.90,则返回 true。如果 price 是 9.80,则返回 false。
< 小于 price<9.80 如果 price 是 9.00,则返回 true。如果 price 是 9.90,则返回 false。
<= 小于或等于 price<=9.80 如果 price 是 9.00,则返回 true。如果 price 是 9.90,则返回 false。
> 大于 price>9.80 如果 price 是 9.90,则返回 true。如果 price 是 9.80,则返回 false。
>= 大于或等于 price>=9.80 如果 price 是 9.90,则返回 true。如果 price 是 9.70,则返回 false。
or price=9.80 or price=9.70 如果 price 是 9.80,则返回 true。如果 price 是 9.50,则返回 false。
and price>9.00 and price<9.90 如果 price 是 9.80,则返回 true。如果 price 是 8.50,则返回 false。
mod 计算除法的余数 5 mod 2 1

lxml用法

初步使用

首先我们利用它来解析 HTML 代码,先来一个小例子来感受一下它的基本用法。

​

from lxml import etree
text = '''
<div>
    <ul>
         <li class="item-0"><a href="link1.html">first item</a></li>
         <li class="item-1"><a href="link2.html">second item</a></li>
         <li class="item-inactive"><a href="link3.html">third item</a></li>
         <li class="item-1"><a href="link4.html">fourth item</a></li>
         <li class="item-0"><a href="link5.html">fifth item</a>
     </ul>
 </div>
'''
html = etree.HTML(text)
result = etree.tostring(html)
print(result)

​

 首先我们使用 lxml 的 etree 库,然后利用 etree.HTML 初始化,然后我们将其打印出来。

其中,这里体现了 lxml 的一个非常实用的功能就是自动修正 html 代码,大家应该注意到了,最后一个 li 标签,其实我把尾标签删掉了,是不闭合的。不过,lxml 因为继承了 libxml2 的特性,具有自动修正 HTML 代码的功能。

所以输出结果是这样的

​

<html><body>
<div>
    <ul>
         <li class="item-0"><a href="link1.html">first item</a></li>
         <li class="item-1"><a href="link2.html">second item</a></li>
         <li class="item-inactive"><a href="link3.html">third item</a></li>
         <li class="item-1"><a href="link4.html">fourth item</a></li>
         <li class="item-0"><a href="link5.html">fifth item</a></li>
</ul>
 </div>
 
</body></html>

​

 不仅补全了 li 标签,还添加了 body,html 标签。

 

文件读取

除了直接读取字符串,还支持从文件读取内容。比如我们新建一个文件叫做 hello.html,内容为

​<div>
    <ul>
         <li class="item-0"><a href="link1.html">first item</a></li>
         <li class="item-1"><a href="link2.html">second item</a></li>
         <li class="item-inactive"><a href="link3.html"><span class="bold">third item</span></a></li>
         <li class="item-1"><a href="link4.html">fourth item</a></li>
         <li class="item-0"><a href="link5.html">fifth item</a></li>
     </ul>
 </div>

 利用 parse 方法来读取文件。

from lxml import etree
html = etree.parse('hello.html')
result = etree.tostring(html, pretty_print=True)
print(result)

 同样可以得到相同的结果。

XPath实例测试

依然以上一段程序为例

(1)获取所有的 <li> 标签

from lxml import etree
html = etree.parse('hello.html')
print type(html)
result = html.xpath('//li')
print result
print len(result)
print type(result)
print type(result[0])

 运行结果

​<type 'lxml.etree._ElementTree'>
[<Element li at 0x1014e0e18>, <Element li at 0x1014e0ef0>, <Element li at 0x1014e0f38>, <Element li at 0x1014e0f80>, <Element li at 0x1014e0fc8>]
5
<type 'list'>
<type 'lxml.etree._Element'>

 可见,etree.parse 的类型是 ElementTree,通过调用 xpath 以后,得到了一个列表,包含了 5 个 <li> 元素,每个元素都是 Element 类型

(2)获取 <li> 标签的所有 class

​result = html.xpath('//li/@class')
print result

 运行结果

['item-0', 'item-1', 'item-inactive', 'item-1', 'item-0']

 (3)获取 <li> 标签下 href 为 link1.html 的 <a> 标签

result = html.xpath('//li/a[@href="link1.html"]')
print result

 运行结果

​[<Element a at 0x10ffaae18>]

 (4)获取 <li> 标签下的所有 <span> 标签

注意这么写是不对的

​result = html.xpath('//li/span')

 因为 / 是用来获取子元素的,而 <span> 并不是 <li> 的子元素,所以,要用双斜杠

​result = html.xpath('//li//span')
print result

 运行结果

​[<Element span at 0x10d698e18>]

 (5)获取 <li> 标签下的所有 class,不包括 <li>

​result = html.xpath('//li/a//@class')
print result

 运行结果

​['blod']

 (6)获取最后一个 <li> 的 <a> 的 href

result = html.xpath('//li[last()]/a/@href')
print result

 运行结果

​['link5.html']

 (7)获取倒数第二个元素的内容

​result = html.xpath('//li[last()-1]/a')
print result[0].text

 运行结果

​fourth item

 (8)获取 class 为 bold 的标签名

result = html.xpath('//*[@class="bold"]')
print result[0].tag

 运行结果

span

 通过以上实例的练习,相信大家对 XPath 的基本用法有了基本的了解。也可以利用 text 方法来获取元素的内容。

 

分享到:
评论

相关推荐

    Python爬虫基础之XPath语法与lxml库的用法详解

    主要给大家介绍了关于Python爬虫基础之XPath语法与lxml库用法的相关资料,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧

    爬虫利器:Python + Xpath Helper插件

    通过使用Python爬虫以及XPath Helper插件,我们可以轻松地获取目标网页上的图片链接。在使用XPath表达式时,我们可以先通过谷歌浏览器安装XPath插件,随后在爬虫程序中调用XPath表达式,解析网页排版结构,从而准确...

    爬虫_数据提取值xpath和lxml模块学习

    在这个“爬虫_数据提取值xpath和lxml模块学习”的主题中,我们将深入探讨如何利用Python的XPath和lxml库进行高效、精准的数据抓取。 XPath(XML Path Language)是一种在XML文档中查找信息的语言,它允许我们通过...

    Python爬虫课程作业,requests+xpath学习

    技术:Python,requests,xpath,lxml 能学到什么:Python爬虫基础,requests基础,xpath数据提取。 适用人群:软件开发与爬虫学习人群,具有一定的编程技术 使用场景:爬虫学习与研究 阅读建议:此资源在于综合学习...

    python爬虫之xpath入门(csdn)————程序.pdf

    Python 爬虫之 XPath 入门 Python 爬虫是指使用 Python 语言来进行网络爬虫的操作,而 XPath 则是 XML 文档中搜索内容的一门语言。由于 HTML 是 XML 的一个子集,因此 XPath 也可以用于解析 HTML 文档。 在 Python...

    火狐老版本+xpath插件(适合python+xpath爬虫使用)

    在Python爬虫中,XPath通常与`lxml`库结合使用。`lxml`是一个高效且功能强大的XML和HTML处理库,它支持XPath 1.0规范。使用XPath表达式,开发者可以轻松地选取HTML树中的特定节点,获取文本、属性值,甚至可以进行...

    python2.7下lxml库下载安装以及代码示例

    **Python2.7下的lxml库** `lxml`是一个强大的、高效的Python库,用于处理XML和HTML文档。它结合了Cython编译的CTypes接口与libxml2和libxslt库,提供了非常快速的解析和生成XML及HTML的能力。在Python 2.7版本中,`...

    课程大作业:Python爬虫.zip

    Python是一种广泛应用于Web开发、数据分析、人工智能等多个领域的高级编程语言,尤其在爬虫技术方面表现突出。本课程大作业以"Python爬虫"为主题,旨在帮助学习者深入理解和实践Python爬虫的相关知识。通过这份资源...

    python爬虫的一些常用第三方库下载

    尽管Python标准库没有直接支持XPath,但许多第三方库如lxml和BeautifulSoup都支持XPath表达式的使用。 - **使用示例**: ```python from lxml import etree tree = etree.HTML(html) result = tree.xpath('//div...

    Python爬虫Chrome网页解析工具-XPath Helper插件

    XPath与这些库的集成非常紧密,例如在`lxml`中,你可以这样使用XPath: ```python from lxml import etree # 获取网页源码 response = requests.get('http://example.com') html = response.text # 创建解析器 ...

    学爬虫利器XPath.zip

    "学爬虫利器XPath.docx"文档很可能详细介绍了XPath的基础概念、语法和实例,包括如何在Python的`lxml`库中使用XPath进行网页数据的提取。如果你正在学习网络爬虫,理解并熟练运用XPath将是提高效率的关键。通过阅读...

    python第三方库:lxml

    **Python第三方库:lxml详解** 在Python编程中,有许多优秀的第三方库来扩展其功能,其中lxml库是一个特别值得关注的库,它主要用于处理XML和HTML文档。lxml结合了Cython编译的ElementTree API和libxml2/libxslt库...

    python爬虫修改版.pdf

    第一章 爬虫和数据。 第二章 Requests 模块。 第三章 正则表达式。 第四章 XPATH 提取数据。 ... 第六章 多线程爬虫实现。...第十四章:Python 爬虫监控,自定义爬虫。 第十五章:项目实战,考核、爬虫流程。 附录

    python lxml3.8.0 源包

    **Python lxml库详解** `lxml`是Python中一个强大的XML和HTML处理库,它结合了C语言的`libxml2`和`libxslt`库,提供了高速、高效的XML和HTML解析、生成以及XPath、XSLT的支持。在Python生态中,lxml因其出色的性能...

    Python爬虫解析XPATH讲义

    要使用XPATH,需要安装lxml库,可以使用pip install lxml命令进行安装。 路径表达式 ---------- 路径表达式是XPATH语言的核心部分,用于定位XML和HTML文档中的元素。常用的路径表达式包括: * `//`:从根节点开始...

    python爬虫可以做什么?python爬虫入门教程有哪些?.docx

    - **Xpath语法与lxml库的用法**:学习如何使用XPath选择器和lxml库进行精确的数据抽取。 - **PhantomJS的用法**:适用于动态网页抓取的无头浏览器工具。 - **Selenium的用法**:另一种流行的自动化测试工具,特别...

    基于Python爬虫的书籍数据可视化分析.pdf

    6. 反爬虫技术及应对方法:网站为了防止被爬虫过度采集,通常会部署一些反爬虫措施,如检测User-Agent、使用Cookies、IP限制、验证码等。爬虫开发者需要通过伪装代理服务器访问、设置请求头、使用模拟浏览器和自动化...

    Python3 xml.etree.ElementTree支持的XPath语法详解

    在Python中,我们可以使用ElementTree的`find`、`findall`和`iterfind`方法结合XPath表达式来查找和操作XML数据。 1. **标签选择**: - `tag`:选择具有特定标签名的元素,例如`//country`会选择所有名为`country`...

    黑马程序员2018python爬虫课件完整版

    首先,Python之所以被广泛用于爬虫开发,是因为它简洁明了的语法和丰富的第三方库。比如,`requests`库用于发送HTTP请求,`BeautifulSoup`或`lxml`库用于解析HTML和XML文档,`Scrapy`框架则提供了一整套高级的爬虫...

Global site tag (gtag.js) - Google Analytics