现在做Heritrix抓取,由于java版本之类的,我选择用了3.1,可是大部分的资料都是介绍1.14的,太让人生气,尤其一个最简单的功能:让保留的文件是和这个域名下有关的文件,不要被js那些抽取的链接又访问到其他站点抓取。在1.14版本,已经非常多的扩展代码等,可是完全和3.1不同。
在这个前提下,我感觉是可以写个扩展替换的,我这里直接再源码中修改了,所改动的文件是 org.archive.crawler.postprocessor.CandidatesProcessor
写道
protected boolean shouldProcess(CrawlURI puri) {
//return true;
String uris;
uris=puri.toString();
//System.out.println("======>2"+uris);
if (uris.contains("**域名 关键字等")){
return true;
}
return false;
}
//return true;
String uris;
uris=puri.toString();
//System.out.println("======>2"+uris);
if (uris.contains("**域名 关键字等")){
return true;
}
return false;
}
我也搞不清true false具体代表什么,代码结果显示false是不执行抓取,true是执行抓取
相关推荐
### Heritrix 3.1 官方指导手册 #### 一、简介 Heritrix 是互联网档案馆推出的一款开源、可扩展、可伸缩、具备高质量归档能力的网络爬虫工具。它旨在帮助用户高效地从互联网上抓取数据,并将其归档保存。Heritrix ...
Heritrix 3.1是互联网档案馆开发的一款开源网络爬虫工具,专门用于抓取和保存网页。这款强大的爬虫软件广泛应用于学术研究、数据分析、网站备份等多个领域。了解Heritrix 3.1的默认配置以及类之间的关系对于有效使用...
- **URL管理**:Heritrix使用URL队列来管理待抓取的链接,并且可以设置URL过滤规则,避免重复抓取或不符合条件的URL。 - **内容解析**:Heritrix内置了HTML、XML、PDF等多种格式的解析器,可以解析网页内容并提取出...
Heritrix支持自定义抓取策略,如基于优先级的队列管理、抓取频率限制、URL过滤规则等,确保抓取的高效性和合法性。 2.3 爬虫组件 Heritrix的组件化设计使得开发者可以方便地扩展和定制爬虫行为,如使用不同的解析器...
2. **配置爬取规则**:设置URL过滤器、爬取深度限制等参数。 3. **启动爬虫**:Heritrix会根据配置自动抓取页面并存储数据。 4. **数据处理**:对抓取到的数据进行后处理,如清洗、分析等。 ### 三、构建搜索引擎 ...