`

python html parser库lxml的介绍和使用

 
阅读更多
使用由 Python 编写的 lxml 实现高性能 XML 解析 http://blog.csdn.net/yatere/article/details/6667043

用lxml解析HTMLhttp://www.cnblogs.com/descusr/archive/2012/06/20/2557075.html


分步遍历:比先遍历得到body的某个div,然后在使用这个div的内容做遍历基础,继续通过它往下遍历
def scanningHotArticle(url):
    print url
    request=requests.get(url)
    dom=soupparser.fromstring(request.content)
    body=dom[1]
    articleList=body.xpath("//div[@class='block untagged mb15 bs2']")
    for article in articleList:
        articleStr= etree.tostring(article)
        articleBody=soupparser.fromstring(articleStr)
        print len(articleBody.xpath("//div[@class='detail']"))

结构是body-*->div[class='block untagged mb15 bs2'],这个div下面又存在许多div,然后把这个div当作根节点,在继续xpath查找下面的元素。


python html parser库lxml的介绍和使用(快速入门)
http://blog.csdn.net/marising/article/details/5821090
lxm是python的一个html/xml解析并建立dom的库,lxml的特点是功能强大,性能也不错,xml包含了ElementTree ,html5lib ,beautfulsoup 等库,但是lxml也有自己相对应的库,所以,导致lxml比较复杂,初次使用者很难了解其关系。

1.  解析html并建立dom
>>> import lxml.etree as etree

>>> html = '<html><body id="1">abc<div>123</div>def<div>456</div>ghi</body></html>'
>>> dom = etree.fromstring(html)
>>> etree.tostring(dom)
'<html><body id="1">abc<div>123</div>def<div>456</div>ghi</body></html>'



如果用beautifulsoup的解析器,则
>>> import lxml.html.soupparser as soupparser
>>> dom = soupparser.fromstring(html)
>>> etree.tostring(dom)
'<html><body id="1">abc<div>123</div>def<div>456</div>ghi</body></html>'

但是我强烈建议使用soupparser,因为其处理不规范的html的能力比etree强太多。



2.  按照Dom访问Element
子元素长度
>>> len(dom)
1 


访问子元素:
>>> dom[0].tag
'body' 


循环访问:
>>> for child in dom:
...     print child.tag
... 
body 


查看节点索引
>>>body = dom[0]
>>> dom.index(body)
0 


字节点获取父节点
>>> body.getparent().tag
'html' 


访问所有子节点
>>> for ele in dom.iter():
...     print ele.tag
... 
html
body
div
div 

遍历和打印所有子节点:
>>> children = list(root)
>>> for child in root:
... print(child.tag) 


元素的兄弟或邻居节点是通过next和previous属性来访问的
The siblings (or neighbours) of an element are accessed as next and previous elements:
>>> root[0] is root[1].getprevious() # lxml.etree only! 
True 
>>> root[1] is root[0].getnext() # lxml.etree only! 
True


3. 访问节点属性
>>> body.get('id')
'1'

也可以这样
>>> attrs = body.attrib
>>> attrs.get('id')
'1'


带属性的元素
XML元素支持属性,可以用Element工厂方法直接创建。
>>> root = etree.Element("root", interesting="totally")
>>> etree.tostring(root)
b’<root interesting="totally"/>’


可以使用set和get方法访问这些属性
>>> print root.get("interesting")
totally
>>> root.set("interesting", "somewhat")
>>> print root.get("interesting")
somewhat


也可以使用attrib性质的字典接口
>>> attributes = root.attrib
>>> print(attributes["interesting"])
somewhat
>>> print(attributes.get("hello"))
None
>>> attributes["hello"] = "Guten Tag"
>>> print(attributes.get("hello"))
Guten Tag
>>> print(root.get("hello"))
Guten Tag



4. 访问Element的内容
>>> body.text
'abc'
>>> body.tail

text只是从本节点开始到第一个字节点结束;tail是从最后一个字节结束到本节点未知。

访问本节点所有文本信息
>>> body.xpath('text()')
['abc', 'def', 'ghi']



访问本节点和子节点所有文本信息
>>> body.xpath('//text()')
['abc', '123', 'def', '456', 'ghi']


貌似返回本文档中所有文字信息
body.text_content()返回本节点所有文本信息。

5.Xpath的支持
所有的div元素
>>> for ele in dom.xpath('//div'):
...     print ele.tag
... 
div
div 


id=“1”的元素

>>> dom.xpath('//*[@id="1"]')[0].tag
'body'



body下的第1个div
>>> dom.xpath('body/div[1]')[0].tag
'div'



参考:
lxml的官方文档:http://codespeak.net/lxml/
HtmlParser的性能:http://blog.ianbicking.org/2008/03/30/python-html-parser-performance/
分享到:
评论

相关推荐

    python lxml3.8.0 源包

    `lxml`是Python中一个强大的XML和HTML处理库,它结合了C语言的`libxml2`和`libxslt`库,提供了高速、高效的XML和HTML解析、生成以及XPath、XSLT的支持。在Python生态中,lxml因其出色的性能和丰富的功能而被广泛使用...

    Python-html5parser一个用于Python基于C的快速HTML5解析

    Python中的`html5-parser`库是一个高效的HTML5解析器,它使用C语言编写,从而提供了比纯Python解析更快的速度。这个库是为了解决在处理大量HTML数据时,需要快速、准确地解析文档的需求。在Python开发中,尤其是在...

    lxml-3.6.4-cp34-cp34m-win32(含安装方法).rar

    1. **速度和性能**:lxml由于其底层使用了C语言编写的libxml2和libxslt库,因此在解析XML和HTML文档时表现出极高的效率,比标准的Python解析器快很多。 2. **全面的功能**:lxml支持XPath、CSS选择器、XSLT转换以及...

    python解析html的几种方法

    首先,`lxml`是一个强大的库,它结合了libxml2和libxslt的功能,为Python提供了高效的XML和HTML处理能力。`lxml`支持XPath和CSS选择器,使得定位HTML元素变得简单。XPath是一种在XML文档中查找信息的语言,通过路径...

    Python-MercuryParser非结构化网页信息提取工具

    Mercury Parser遵循MIT许可证,这意味着你可以自由使用、修改和分发这个库。如果你发现任何问题或想要添加新功能,可以通过查看源代码(如`postlight-mercury-parser-713de25`)并提交Pull Request来参与项目贡献。...

    Python给html文件的a标签添加属性

    BeautifulSoup库依赖于一个解析器,通常我们使用`lxml`或`html.parser`。确保你也安装了`lxml`: ```bash pip install lxml ``` 接下来,我们将探讨如何通过Python和BeautifulSoup实现给HTML文件的a标签添加属性。...

    Python解析网页.xmind

    是一个可以从HTML或XML文件中提取数据的Python库 优点 会帮你节省数小时甚至数天的工作时间 能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式. 支持`Python`标准库中的HTML解析器 解析...

    Python处理HTML

    5. **标准库`html.parser`**:Python的标准库中包含了一个基本的HTML解析器,虽然不如第三方库功能强大,但在处理简单的HTML任务时仍足够使用。它可以解析HTML并返回一个解析树,然后可以通过遍历这个树来访问HTML...

    python 开发库介绍

    以下是一些在Python开发中常见的库及其主要功能的详细介绍: 1. **Chardet**: 这是一个字符编码探测器,能够自动检测文本、网页、XML的编码,帮助开发者正确地处理不同编码格式的数据。 2. **colorama**: 提供了在...

    Python爬虫下载磁力链接

    BeautifulSoup 库提供了多种解析器,如 html.parser、lxml 等。我们可以使用 find_all() 方法查找所有的元素,并将结果保存在 links 变量中。然后,我们可以遍历 links 列表,对每个链接进行处理。 5. 下载磁力链接...

    使用Python的Requests库和Beautiful Soup库来爬取豆瓣电影Top250的数据

    本教程将详细介绍如何利用Python的Requests库和BeautifulSoup库来爬取豆瓣电影Top250的数据,以便进行数据分析或者建立自己的电影推荐系统。 首先,我们需要了解Requests库。Requests是一个用Python编写的HTTP...

    Python-jparser一个强大的python解析器可以从HTML页面中提取标题内容图像

    它可能基于类似BeautifulSoup或者lxml这样的库来实现,这些库都提供了强大的解析和导航功能。通过使用Python-jparser,你可以避免直接处理复杂的HTML源码,而是通过更高级别的抽象层来获取你需要的信息。 对于新闻...

    8.python beatifulsoup html文件解析1

    Python的标准库提供了一个名为`html.parser`的解析器,但还有其他如`lxml`和`html5lib`等更快或更健壮的选项。例如: ```python from bs4 import BeautifulSoup # 使用内置的html.parser soup1 = BeautifulSoup...

    html_convert.zip_html conve_python 网页_python 网页_read text pytho

    另一个可能使用的库是lxml,它是一个速度非常快的HTML和XML解析器,同时提供了XPath和CSS选择器来定位元素。例如,使用lxml获取文本内容的代码可能如下: ```python from lxml import etree with open('网页.html'...

    Python爬虫库BeautifulSoup的介绍与简单使用实例

    一、介绍 BeautifulSoup库是灵活又方便的网页解析库,处理高效,支持多种解析器。利用它不用编写正则表达式即可方便地实现网页信息的提取。 Python常用解析库 解析器 使用方法 优势 劣势 Python标准库 ...

    python,html,内容提取过滤器

    在处理HTML内容时,Python提供了多个库,如BeautifulSoup和lxml,它们能够方便地解析HTML文档,提取出我们需要的信息。首先,让我们介绍这两个库的基本用法。 BeautifulSoup是一个用于解析HTML和XML文档的Python库...

    html.rar_python html

    首先,我们需要导入BeautifulSoup库和一个HTML解析器,如`lxml`或内置的`html.parser`: ```python from bs4 import BeautifulSoup import lxml ``` 然后,我们可以读取磁盘上的HTML文件并用BeautifulSoup解析: ...

    Python-Html内容文章提取器Python中的web爬虫

    另一个值得一提的库是`lxml`,它是一个高性能的HTML和XML解析器,速度比BeautifulSoup更快,且支持XPath和CSS选择器,提供更强大的文档导航功能。 在Python中实现HTML内容提取时,我们通常会遵循以下步骤: 1. **...

    python 解析url

    我们将首先解释URL解析的基本概念,然后介绍Python中的相关库,如`urllib`和`requests`,以及自定义HTML处理器的实现。 **URL解析**: URL(Uniform Resource Locator)是互联网上资源的唯一地址。它由多个部分组成...

    Python-html5lib一个兼容标准的HTML文档和片段解析及序列化库

    `html5lib`可以很好地与其他Python库结合,比如`BeautifulSoup`用于更高级别的HTML处理,或者`lxml`进行XML处理。这些组合使用能提供更强大的HTML解析和操作能力。 ### 总结 `html5lib`是Python中处理HTML5文档的...

Global site tag (gtag.js) - Google Analytics