http://guoyunsky.iteye.com/blog/643367
Heritrix采用多线程去抓取数据,每次运行基本都要经过以下8个处理器处理(种子URL、先决条件URL除外),如此形成一整个流程。下面就大概介绍下每个处理器的作用以及大概处理的步骤。以后分析源码的时候再细节分析......
8个处理器都继承org.archive.crawler.framework.Processor类,然后每个处理器都有自己的子类实现。同时相近处理器用org.archive.crawler.framework.ProcessorChain去管理,比如FetchDNS和FetchHTPP都用于获取网页内容,所以属于同一个ProcessorChain。这里8个处理器其实就是8个ProcessorChain,每个处理器用户都可以自己实现。而管理ProcessorChain同时又用ProcessorChainList去管理,不过这个相对简单。Heritrix通过配置文件order.xml中获取各个子类,然后通过反射将他们加入到每个要处理的URL中,然后在线程中迭代ProcessorChainList获得每个ProcessorChain,然后又迭代每个ProcessorChain获得每个Processor,最后运行Processor的子类,完成一整个处理流程。整个处理流程都以URL贯穿(Heritrix封装URL为CrawlURI和CandidateURI),对于每个处理器运行的结果都会更新到URL上,当然不一样的结果会有不一样的属性,以后会重点介绍CrawlURI和CandidateURI这两个类。下面就大概介绍下每个处理的作用以及大概的处理流程:
1.Preselector 预选处理器,预先处理URL看其是否要继续处理,通过这个可以过滤一部分或者全部URL
1)<boolean name="block-all">false</boolean>,如果为true则表示阻止一切URL,接下来Heritrix不会运行任何抓取
2)<string name="allow-by-regexp"></string>,查看是否通过里面的正则表达式,通过则继续运行,如果不通过,该URL将不再会被处理
3)<string name="block-by-regexp"></string>,查看是否不通过里面的正则表达式,通过则URL不再会被处理,如果不通过则该URL会继续被处理
2.PreconditionEnforcer 抓取先决条件处理器,先处理一些先要处理的URL,这里主要是该URL的DNS解析
1)先查看该URL是否有先决条件URL要处理,如果有的话先将该URL的先决条件URL放入调度器,而该URL将跳过PreconditionEnforcer处理器
2)如果以上该URL没有先决条件URL要处理,则运行以下环节:
i)先验证该URL的schema,如果不是http或者https则退出该处理器
ii)如果以上验证该shema是http或者https,则先验证该URL是否可以通过爬虫协议,如果没有通过爬虫协议则退出本处理器,反之则验证该URL自身是否是先决条件以及是否通过登录凭证,如果该URL自身不是先决条件URL并且没有通过登录凭证则也退出本处理器
3.Fetch 获取处理链,主要用于获取网页内容,对于不同的shcema有不同的处理器,如针对DNS有FetchDNS,对于HTTP则是FetchHttp,这里依次介绍(如果该URL是种子URL这个处理链不会处理):
3.1 FetchDNS:获取DNS数据,这里采用第三方JAR包(dnsjava.jar)
1)首先获取该URL的DNS名字,然后通过DNS名字从缓存中获取CrawlHost
2)验证该URL的DNS名字是否通过第四代IP命名,如果不通过则退出本处理器
3)如果以上通过,则开始获取DNS数据,同时记录开始获取以及成功获取时间,最后将DNS数据保存在本地文件(scratch文件)以及更新该URL状态以及该URL的CrawlHost的IP、时间等数据
3.2 FetchHTTP: 获取HTTP数据,这里采用HttpClient包去获取,通过Heritrix也封装了该包
1)获取HTTP数据的前提是,该URL的schema为http或者https以及该URL所属的DNS数据已经获取,如果两者不具备则跳出本处理器
2)如果以上通过,则统计这个处理器处理的URL个数,以及开始获取HTTP内容,然后将内容保存在本地文件(scratch文件)
4.ExtractorHTTP 抽取链,主要用于从URL内容中抽取出新的URL,这里只处理shcema为http或者https的url,针对不同的URL有不同的抽取器,如JS:ExtractorJS,CSS:ExtractorCSS,Html:ExtractorHTML,(如果该URL是种子URL这个处理链不会处理
这里主要是通过正则表达式从网页文本内容中抽取出URL,主要是ExtractorHTML类
5.WriterProcessor:写处理器,主要将从FetchHttp里获取的网页内容写入本机
6.CrawlStateUpdater 抓取状态更新处理器,只针对http或者https
1)计算该Server(一个DNS为一个Server)下连接错误的URL个数
2)如果该URL为爬虫协议(http://xxx/robots.txt),则更新爬虫协议robots.txt
7.LinksScoper 链接接范围验证处理器,主要验证该URL抽取出来的链接是否在范围
1) 先验证该URL是否有先决条件URL要先处理,有的话先验证该先决条件URL是否在范围同时退出该处理器
2) 如果以上没有先决条件URL要先处理,则获取该URL抽取到的链接,然后循环验证每个链接是否在范围,不在范围则过滤掉
8.FrontierScheduler 调度处理器,将URL放入调度中心,以便接下来可以抓取
1) 先验证该URL是否有先决条件URL要先处理,有的话则将该先决条件URL放入调度中心,同时退出该处理器
2) 如果以上该URL没有先决条件URL要处理,则获取该URL抽取到的所有链接,循环将他们放入调度中心,以便下次可以抓取
分享到:
相关推荐
2. **模块化架构**:Heritrix的核心组件包括启动器、管道(Pipeline)、处理器(Processor)和发射器(Emitter)。启动器负责启动爬虫,管道连接各种处理器,处理器执行实际的抓取任务,如解析HTML、处理链接等,...
通过对这些包的分析,我们可以看到Heritrix是一个高度模块化和可定制的爬虫。每个组件都有明确的职责,这使得Heritrix能够适应各种复杂的网络抓取需求。深入理解这些源码,有助于开发者定制自己的爬虫策略,实现特定...
**Lucene 和 Heritrix 源码分析** 在IT领域,搜索引擎的开发是一项复杂而重要的任务,它涉及到大量的文本处理、索引构建以及高效的查询算法。Lucene 和 Heritrix 是两个开源工具,分别专注于搜索的核心算法和网页...
Heritrix 1.14.4是该软件的一个较早版本,包含了完整的源码,因此用户可以对其进行深度定制和调试。 在开始使用Heritrix 1.14.4之前,你需要了解以下几个核心知识点: 1. **爬虫基础**:Heritrix是一个Web爬虫,其...
在"Heritrix 源码和Jar"这个主题中,我们可以深入探讨以下几个知识点: 1. **Heritrix的架构**: Heritrix采用模块化设计,由多个组件构成,包括URL队列管理器、下载器、解析器、存储模块等。用户可以根据需要定制...
Heritrix 3.2 源码的分析和理解有助于开发者深入掌握爬虫技术,定制自己的爬虫解决方案。 首先,让我们了解一下Heritrix 3.2 的核心特性: 1. **模块化设计**:Heritrix 3.2 采用组件化的架构,使得不同的爬取功能...
这个“Heritrix1.14.4源码+项目”压缩包包含的是Heritrix 1.14.4版本的源代码和相关项目文件,对于学习和理解Web爬虫的工作原理,以及进行自定义开发是非常有价值的。 Heritrix的核心功能是通过模拟浏览器行为来...
### Heritrix源码分析知识点概述 #### 一、Heritrix简介 Heritrix是一款开源的网络爬虫工具,由Internet Archive开发并维护。它主要用于网页归档和大规模网络爬取任务。Heritrix的设计理念是高度可配置性和扩展性,...
heritrix1.14.4的源码包,包含heritrix1.14.4.zip和heritrix1.14.4-src.zip。heritrix是一种开源的网络爬虫,用于爬去互联网中的网页。如何配置和使用heritrix爬虫,请移步:...
Lucene是Java编写的一个全文检索库,而Heritrix则是一个互联网档案爬虫,两者结合可以构建一个功能强大的搜索引擎系统。以下将详细阐述这两部分的知识点。 **一、Lucene** 1. **全文检索基础**:Lucene的核心是...
这个版本的源码和编译后的二进制文件分别以"heritrix-1.14.4.zip"和"heritrix-1.14.4-src.zip"的名义提供,允许用户进行深入研究、学习或二次开发。 在Heritrix中,爬虫的主要工作流程包括种子管理、URL过滤、内容...
8. **安全性与伦理**:使用Heritrix进行网络爬虫时,必须遵守网站的robots.txt规则,并尊重网站的版权。此外,合理的设置爬取速率和并发数,避免对目标服务器造成过大的压力。 9. **扩展与定制**:Heritrix是用Java...
最后,"heritrixProject"很可能包含了Heritrix的配置和源码,用于自定义网络爬取的行为和范围。 总结起来,Lucene和Heritrix是构建高效网络搜索系统的关键组件。Lucene提供强大的全文索引和搜索能力,而Heritrix则...
Heritrix是一款强大的开源网络爬虫工具,由互联网档案馆(Internet Archive)开发,用于抓取和保存网页数据。在IT行业中,爬虫是获取...无论是用于学术研究、数据分析还是网站维护,Heritrix都是一个值得信赖的工具。
它由多个模块组成,如调度器(Scheduler)、处理器(Processor)、过滤器(Filter)、存档器(Archiver)等,每个组件都有特定的任务,如决定何时抓取网页、如何解析内容、如何存储结果等。用户可以根据需求扩展或...
从网上找得应该是中文Heritrix源码最详细的说明了。折腾了好久,没有把网页打成chm,只能打个exe用用。
4. **模块配置**: Heritrix由多个可插拔模块组成,如抓取器、解析器、处理器等。每个模块都有自己的配置,如HTTP连接管理器的超时设置、HTML解析器的规则等。通过调整这些模块的参数,可以优化爬虫性能。 5. **过滤...
- **抓取模块**:Heritrix有多个模块,如HTTP客户端、HTML解析器和重定向处理器,它们协同工作以处理网络请求和响应。 - **存档和存储**:抓取的网页会被存储在本地,可以配置不同的存储策略,如文件系统、数据库或...