- 浏览: 3422810 次
- 性别:
- 来自: 珠海
文章分类
- 全部博客 (1633)
- Java (250)
- Android&HTML5 (111)
- Struts (10)
- Spring (236)
- Hibernate&MyBatis (115)
- SSH (49)
- jQuery插件收集 (55)
- Javascript (145)
- PHP (77)
- REST&WebService (18)
- BIRT (27)
- .NET (7)
- Database (105)
- 设计模式 (16)
- 自动化和测试 (19)
- Maven&Ant (43)
- 工作流 (36)
- 开源应用 (156)
- 其他 (16)
- 前台&美工 (119)
- 工作积累 (0)
- OS&Docker (83)
- Python&爬虫 (28)
- 工具软件 (157)
- 问题收集 (61)
- OFbiz (6)
- noSQL (12)
最新评论
-
HEZR曾嶸:
你好博主,这个不是很理解,能解释一下嘛//左边+1,上边+1, ...
java 两字符串相似度计算算法 -
天使建站:
写得不错,可以看这里,和这里的这篇文章一起看,有 ...
jquery 遍历对象、数组、集合 -
xue88ming:
很有用,谢谢
@PathVariable映射出现错误: Name for argument type -
jnjeC:
厉害,困扰了我很久
MyBatis排序时使用order by 动态参数时需要注意,用$而不是# -
TopLongMan:
非常好,很实用啊。。
PostgreSQL递归查询实现树状结构查询
使用由 Python 编写的 lxml 实现高性能 XML 解析 http://blog.csdn.net/yatere/article/details/6667043
用lxml解析HTMLhttp://www.cnblogs.com/descusr/archive/2012/06/20/2557075.html
分步遍历:比先遍历得到body的某个div,然后在使用这个div的内容做遍历基础,继续通过它往下遍历
结构是body-*->div[class='block untagged mb15 bs2'],这个div下面又存在许多div,然后把这个div当作根节点,在继续xpath查找下面的元素。
python html parser库lxml的介绍和使用(快速入门)
http://blog.csdn.net/marising/article/details/5821090
lxm是python的一个html/xml解析并建立dom的库,lxml的特点是功能强大,性能也不错,xml包含了ElementTree ,html5lib ,beautfulsoup 等库,但是lxml也有自己相对应的库,所以,导致lxml比较复杂,初次使用者很难了解其关系。
1. 解析html并建立dom
如果用beautifulsoup的解析器,则
但是我强烈建议使用soupparser,因为其处理不规范的html的能力比etree强太多。
2. 按照Dom访问Element
子元素长度
访问子元素:
循环访问:
查看节点索引
字节点获取父节点
访问所有子节点
遍历和打印所有子节点:
元素的兄弟或邻居节点是通过next和previous属性来访问的
The siblings (or neighbours) of an element are accessed as next and previous elements:
3. 访问节点属性
也可以这样
带属性的元素
XML元素支持属性,可以用Element工厂方法直接创建。
可以使用set和get方法访问这些属性:
也可以使用attrib性质的字典接口
4. 访问Element的内容
text只是从本节点开始到第一个字节点结束;tail是从最后一个字节结束到本节点未知。
访问本节点所有文本信息
访问本节点和子节点所有文本信息
貌似返回本文档中所有文字信息
body.text_content()返回本节点所有文本信息。
5.Xpath的支持
id=“1”的元素
body下的第1个div
参考:
lxml的官方文档:http://codespeak.net/lxml/
HtmlParser的性能:http://blog.ianbicking.org/2008/03/30/python-html-parser-performance/
用lxml解析HTMLhttp://www.cnblogs.com/descusr/archive/2012/06/20/2557075.html
分步遍历:比先遍历得到body的某个div,然后在使用这个div的内容做遍历基础,继续通过它往下遍历
def scanningHotArticle(url): print url request=requests.get(url) dom=soupparser.fromstring(request.content) body=dom[1] articleList=body.xpath("//div[@class='block untagged mb15 bs2']") for article in articleList: articleStr= etree.tostring(article) articleBody=soupparser.fromstring(articleStr) print len(articleBody.xpath("//div[@class='detail']"))
结构是body-*->div[class='block untagged mb15 bs2'],这个div下面又存在许多div,然后把这个div当作根节点,在继续xpath查找下面的元素。
python html parser库lxml的介绍和使用(快速入门)
http://blog.csdn.net/marising/article/details/5821090
lxm是python的一个html/xml解析并建立dom的库,lxml的特点是功能强大,性能也不错,xml包含了ElementTree ,html5lib ,beautfulsoup 等库,但是lxml也有自己相对应的库,所以,导致lxml比较复杂,初次使用者很难了解其关系。
1. 解析html并建立dom
>>> import lxml.etree as etree >>> html = '<html><body id="1">abc<div>123</div>def<div>456</div>ghi</body></html>' >>> dom = etree.fromstring(html) >>> etree.tostring(dom) '<html><body id="1">abc<div>123</div>def<div>456</div>ghi</body></html>'
如果用beautifulsoup的解析器,则
>>> import lxml.html.soupparser as soupparser >>> dom = soupparser.fromstring(html) >>> etree.tostring(dom) '<html><body id="1">abc<div>123</div>def<div>456</div>ghi</body></html>'
但是我强烈建议使用soupparser,因为其处理不规范的html的能力比etree强太多。
2. 按照Dom访问Element
子元素长度
>>> len(dom) 1
访问子元素:
>>> dom[0].tag 'body'
循环访问:
>>> for child in dom: ... print child.tag ... body
查看节点索引
>>>body = dom[0] >>> dom.index(body) 0
字节点获取父节点
>>> body.getparent().tag 'html'
访问所有子节点
>>> for ele in dom.iter(): ... print ele.tag ... html body div div
遍历和打印所有子节点:
>>> children = list(root) >>> for child in root: ... print(child.tag)
元素的兄弟或邻居节点是通过next和previous属性来访问的
The siblings (or neighbours) of an element are accessed as next and previous elements:
>>> root[0] is root[1].getprevious() # lxml.etree only! True >>> root[1] is root[0].getnext() # lxml.etree only! True
3. 访问节点属性
>>> body.get('id') '1'
也可以这样
>>> attrs = body.attrib >>> attrs.get('id') '1'
带属性的元素
XML元素支持属性,可以用Element工厂方法直接创建。
>>> root = etree.Element("root", interesting="totally") >>> etree.tostring(root) b’<root interesting="totally"/>’
可以使用set和get方法访问这些属性:
>>> print root.get("interesting") totally >>> root.set("interesting", "somewhat") >>> print root.get("interesting") somewhat
也可以使用attrib性质的字典接口
>>> attributes = root.attrib >>> print(attributes["interesting"]) somewhat >>> print(attributes.get("hello")) None >>> attributes["hello"] = "Guten Tag" >>> print(attributes.get("hello")) Guten Tag >>> print(root.get("hello")) Guten Tag
4. 访问Element的内容
>>> body.text 'abc' >>> body.tail
text只是从本节点开始到第一个字节点结束;tail是从最后一个字节结束到本节点未知。
访问本节点所有文本信息
>>> body.xpath('text()') ['abc', 'def', 'ghi']
访问本节点和子节点所有文本信息
>>> body.xpath('//text()') ['abc', '123', 'def', '456', 'ghi']
貌似返回本文档中所有文字信息
body.text_content()返回本节点所有文本信息。
5.Xpath的支持
所有的div元素 >>> for ele in dom.xpath('//div'): ... print ele.tag ... div div
id=“1”的元素
>>> dom.xpath('//*[@id="1"]')[0].tag 'body'
body下的第1个div
>>> dom.xpath('body/div[1]')[0].tag 'div'
参考:
lxml的官方文档:http://codespeak.net/lxml/
HtmlParser的性能:http://blog.ianbicking.org/2008/03/30/python-html-parser-performance/
发表评论
-
Htmlunit使用
2015-04-11 20:12 1096http://my.oschina.net/u/852445/ ... -
垂直爬虫 webmagic
2014-09-05 20:24 3032新版文档地址 http://webmagic.io/docs/ ... -
python Tkinter的一些记录
2013-10-14 11:06 17871. Label里面的文本对齐方式:http://www.hi ... -
Python中执行外部命令并捕获双向输出
2013-10-12 15:08 2428原文:http://my.oschina.net/qihh/b ... -
python: 界面开发Tkinter
2013-10-10 16:38 1676python GUI开发 工具选择 http://blog.c ... -
Python多线程学习
2013-10-08 09:39 1443http://www.cnblogs.com/tqsummer ... -
问题: Max retries exceeded with url
2013-10-07 11:36 29383解决一: http://stackoverflow.com/q ... -
python + request + lxml的几个例子
2013-10-06 22:09 4474例子没有加入失败后重做的功能,这个也可以考虑增加。 第三个例子 ... -
python对文件的创建等处理
2013-10-06 21:24 1171http://www.qttc.net/201209207.h ... -
python: json,base64 的使用
2013-10-06 19:12 2980JSON 1. import json 2. json.dum ... -
python requests 下载图片和数据库读取
2013-10-02 15:56 18553python requests 下载图片 de ... -
python类型转换
2013-10-01 14:12 1065http://jayzotion.iteye.com/blog ... -
python字符串编码判断
2013-09-30 14:13 2218Python 字符编码判断 http://blog.sina. ... -
Python:数组、列表(list)、字典(dict)、字符串(string)常用基本操作小结
2013-09-30 13:07 13706连接 list 与分割字符串h ... -
Python模块学习 ---- datetime
2013-09-30 09:39 2206[Python Tip]如何计算时间 ... -
用Python操作Mysql和中文问题
2013-09-29 13:55 2640http://www.iteye.com/topic/5730 ... -
Python 字符串操作(截取/替换/查找/分割)
2013-09-29 13:01 6224python字符串连接 先介绍下效率比较低的,有些新手朋友就会 ... -
Python中使用中文
2013-09-29 10:25 1149http://blog.csdn.net/kernelspir ... -
Beautiful Soup 中文教程
2013-09-29 09:36 2776http://www.pythonclub.org/modul ... -
python + request + pyquery[安装失败]
2013-09-28 20:51 2184比urllib好用的requests http://www.b ...
相关推荐
`lxml`是Python中一个强大的XML和HTML处理库,它结合了C语言的`libxml2`和`libxslt`库,提供了高速、高效的XML和HTML解析、生成以及XPath、XSLT的支持。在Python生态中,lxml因其出色的性能和丰富的功能而被广泛使用...
Python中的`html5-parser`库是一个高效的HTML5解析器,它使用C语言编写,从而提供了比纯Python解析更快的速度。这个库是为了解决在处理大量HTML数据时,需要快速、准确地解析文档的需求。在Python开发中,尤其是在...
1. **速度和性能**:lxml由于其底层使用了C语言编写的libxml2和libxslt库,因此在解析XML和HTML文档时表现出极高的效率,比标准的Python解析器快很多。 2. **全面的功能**:lxml支持XPath、CSS选择器、XSLT转换以及...
首先,`lxml`是一个强大的库,它结合了libxml2和libxslt的功能,为Python提供了高效的XML和HTML处理能力。`lxml`支持XPath和CSS选择器,使得定位HTML元素变得简单。XPath是一种在XML文档中查找信息的语言,通过路径...
Mercury Parser遵循MIT许可证,这意味着你可以自由使用、修改和分发这个库。如果你发现任何问题或想要添加新功能,可以通过查看源代码(如`postlight-mercury-parser-713de25`)并提交Pull Request来参与项目贡献。...
BeautifulSoup库依赖于一个解析器,通常我们使用`lxml`或`html.parser`。确保你也安装了`lxml`: ```bash pip install lxml ``` 接下来,我们将探讨如何通过Python和BeautifulSoup实现给HTML文件的a标签添加属性。...
是一个可以从HTML或XML文件中提取数据的Python库 优点 会帮你节省数小时甚至数天的工作时间 能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式. 支持`Python`标准库中的HTML解析器 解析...
5. **标准库`html.parser`**:Python的标准库中包含了一个基本的HTML解析器,虽然不如第三方库功能强大,但在处理简单的HTML任务时仍足够使用。它可以解析HTML并返回一个解析树,然后可以通过遍历这个树来访问HTML...
以下是一些在Python开发中常见的库及其主要功能的详细介绍: 1. **Chardet**: 这是一个字符编码探测器,能够自动检测文本、网页、XML的编码,帮助开发者正确地处理不同编码格式的数据。 2. **colorama**: 提供了在...
BeautifulSoup 库提供了多种解析器,如 html.parser、lxml 等。我们可以使用 find_all() 方法查找所有的元素,并将结果保存在 links 变量中。然后,我们可以遍历 links 列表,对每个链接进行处理。 5. 下载磁力链接...
本教程将详细介绍如何利用Python的Requests库和BeautifulSoup库来爬取豆瓣电影Top250的数据,以便进行数据分析或者建立自己的电影推荐系统。 首先,我们需要了解Requests库。Requests是一个用Python编写的HTTP...
它可能基于类似BeautifulSoup或者lxml这样的库来实现,这些库都提供了强大的解析和导航功能。通过使用Python-jparser,你可以避免直接处理复杂的HTML源码,而是通过更高级别的抽象层来获取你需要的信息。 对于新闻...
Python的标准库提供了一个名为`html.parser`的解析器,但还有其他如`lxml`和`html5lib`等更快或更健壮的选项。例如: ```python from bs4 import BeautifulSoup # 使用内置的html.parser soup1 = BeautifulSoup...
另一个可能使用的库是lxml,它是一个速度非常快的HTML和XML解析器,同时提供了XPath和CSS选择器来定位元素。例如,使用lxml获取文本内容的代码可能如下: ```python from lxml import etree with open('网页.html'...
一、介绍 BeautifulSoup库是灵活又方便的网页解析库,处理高效,支持多种解析器。利用它不用编写正则表达式即可方便地实现网页信息的提取。 Python常用解析库 解析器 使用方法 优势 劣势 Python标准库 ...
在处理HTML内容时,Python提供了多个库,如BeautifulSoup和lxml,它们能够方便地解析HTML文档,提取出我们需要的信息。首先,让我们介绍这两个库的基本用法。 BeautifulSoup是一个用于解析HTML和XML文档的Python库...
首先,我们需要导入BeautifulSoup库和一个HTML解析器,如`lxml`或内置的`html.parser`: ```python from bs4 import BeautifulSoup import lxml ``` 然后,我们可以读取磁盘上的HTML文件并用BeautifulSoup解析: ...
另一个值得一提的库是`lxml`,它是一个高性能的HTML和XML解析器,速度比BeautifulSoup更快,且支持XPath和CSS选择器,提供更强大的文档导航功能。 在Python中实现HTML内容提取时,我们通常会遵循以下步骤: 1. **...
我们将首先解释URL解析的基本概念,然后介绍Python中的相关库,如`urllib`和`requests`,以及自定义HTML处理器的实现。 **URL解析**: URL(Uniform Resource Locator)是互联网上资源的唯一地址。它由多个部分组成...
`html5lib`可以很好地与其他Python库结合,比如`BeautifulSoup`用于更高级别的HTML处理,或者`lxml`进行XML处理。这些组合使用能提供更强大的HTML解析和操作能力。 ### 总结 `html5lib`是Python中处理HTML5文档的...