`

Nutch的命令详解 (没有找到源地址)

阅读更多

关键字: nutch 命令 Nutch采用了一种命令的方式进行工作,其命令可以是对局域网方式的单一命令也可以是对整个Web进行爬取的分步命令。主要的命令如下:

1. Crawl
Crawl是“org.apache.nutch.crawl.Crawl”的别称,它是一个完整的爬取和索引过程命令。
使用方法:

Shell代码
  1. bin/nutch crawl <urlDir> [-dir d] [-threads n] [-depth i] [-topN]  
bin/nutch crawl <urlDir> [-dir d] [-threads n] [-depth i] [-topN]


参数说明:
<urlDir>:包括URL列表的文本文件,它是一个已存在的文件夹。
[-dir <d>]:Nutch保存爬取记录的工作目录,默认情况下值为:./crawl-[date],其中[date]为当前目期。
[-threads <n>]:Fetcher线程数,覆盖默认配置文件中的fetcher.threads.fetch值(默认为10)。
[-depth <i>]:Nutch爬虫迭代的深度,默认值为5。
[-topN <num>]:限制每一次迭代中的前N条记录,默认值为 Integer.MAX_VALUE。

配置文件:
hadoop-default.xml
hadoop-site.xml
nutch-default.xml
nutch-site.xml
crawl-tool.xml

其他文件:
crawl-urlfilter.txt

2.  Readdb
Readdb命令是“org.apache.nutch.crawl.CrawlDbReader”的别称,返回或者导出Crawl数据库(crawldb)中的信息。
使用方法:

Shell代码
  1. bin/nutch readdb <crawldb> (-stats | -dump <out_dir> | -url <url>)   
bin/nutch rseaddb <crawldb> (-stats | -dump <out_dir> | -url <url>)


参数说明:
<crawldb>:crawldb目录.
[-stats]::在控制台打印所有的统计信息
[-dump <out_dir>]:导出crawldb信息到指定文件夹中的文件
[-url <url>]:打印指定URL的统计信息
实例:

Shell代码
  1. $ bin/nutch readdb fullindex/crawldb -stats   
$ bin/nutch readdb fullindex/crawldb -stats



CrawlDb statistics start: fullindex/crawldb
Statistics for CrawlDb: fullindex/crawldb
TOTAL urls:     468030
retry 0:        467361
retry 1:        622
retry 2:        32
retry 3:        15
min score:      0.0
avg score:      0.0034686408
max score:      61.401
status 1 (db_unfetched):        312748
status 2 (db_fetched): 80671
status 3 (db_gone):     69927
status 4 (db_redir_temp):       1497
status 5 (db_redir_perm):       3187
CrawlDb statistics: done
配置文件:
hadoop-default.xml
hadoop-site.xml
nutch-default.xml
nutch-site.xml

说明:
-stats命令是一个快速查看爬取信息的很有用的工作,其输出信息表示了:
DB_unfetched:链接到已爬取页面但还没有被爬取的页面数(原因是它们没有通过url过滤器的过滤,或者包括在了TopN之外被Nutch丢弃)
DB_gone:表示发生了404错误或者其他一些臆测的错误,这种状态阻止了对其以后的爬取工作。
DB_fetched表示已爬取和索引的页面,如果其值为0,那肯定出错了。

3. readlinkdb
它是"org.apache.nutch.crawl.LinkDbReader"的别称,导出链接库中信息或者返回其中一个URL信息。
使用方法:

Shell代码
  1. Bin/nutch readlinkdb <linkdb> (-dump <out_dir> | -url <url>)   
Bin/nutch readlinkdb <linkdb> (-dump <out_dir> | -url <url>)


参数说明:
<linkdb>:linkdb工作目录
[-dump <out_dir>]:导出信息到文件夹下
[-url <url>]:打印某个URL的统计信息
实例:

Shell代码
  1. $ bin/nutch readlinkdb fullindex/linkdb -url www.ccnu.edu.cn - no link information   
$ bin/nutch readlinkdb fullindex/linkdb -url www.ccnu.edu.cn - no link information


配置文件:
hadoop-default.xml
hadoop-site.xml
nutch-default.xml
nutch-site.xml

4. inject
它是"org.apache.nutch.crawl.Injector"的别称,注入新URL到crawldb中。
使用方法:

Shell代码
  1. bin/nutch injector <crawldb> <urldir>  
bin/nutch injector <crawldb> <urldir>


参数说明:
<crawldb>:crawldb文件夹
<urldir>:保存有URL的文件的文件夹目录
配置文件:
hadoop-default.xml
hadoop-site.xml
nutch-default.xml
nutch-site.xml

以下配置文件参数影响到了注入方式:
db.default.fetch.interval——按天设置爬取间隔,默认值30.0f
db.score.injected——设置URL的默认打分,默认值1.0f
urlnormalizer.class——规范化URL的类,默认值为 org.apache.nutch.net.BasicUrlNormalizer

5. generate
它是“org.apache.nutch.crawl.Generator”,从Crawldb中抓取新的Segment。
使用方法:

Shell代码
  1. bin/nutch generator <crawldb> <segments_dir> [-topN <num>] [-numFetchers <fetchers>] [-adddays <days>]  
bin/nutch generator <crawldb> <segments_dir> [-topN <num>] [-numFetchers <fetchers>] [-adddays <days>]


参数说明:
<crawldb>:crawldb目录
<segments_dir>:新建的爬取Segment目录
[-topN <num>]:选取前多少个链接,默认值为Long.MAX_VALUE
[-numFetchers <fetchers>]:抓取分区数量。 Default: Configuration key -> mapred.map.tasks -> 1
[-adddays <days>]: 添加 <days>到当前时间,配置crawling urls ,以将很快被爬取db.default.fetch.interval默认值为0。爬取结束时间在当前时间以前的。
示例:

Shell代码
  1. bin/nutch generate /my/crawldb /my/segments -topN 100 -adddays 20  
bin/nutch generate /my/crawldb /my/segments -topN 100 -adddays 20


配置文件:
hadoop-default.xml
hadoop-site.xml
nutch-default.xml
nutch-site.xml
说明:
generate.max.per.host – 设置单个主机最大的URL数量,默认情况下:unlimited。

6. fetch
它是“org.apache.nutch.fetcher.Fetcher”的代称,它负责一个segment的爬取。
使用方法:

Shell代码
  1. bin/nutch fetcher <segment> [-threads <n>] [-noParsing]  
bin/nutch fetcher <segment> [-threads <n>] [-noParsing]


参数说明:
<segment>:segment目录
[-threads <n>]:运行的fetcher线程数默认值为 Configuration Key -> fetcher.threads.fetch -> 10
[-noParsing]:禁用自动解析segment数据
配置文件:
hadoop-default.xml
hadoop-site.xml
nutch-default.xml
nutch-site.xml
说明:
Fetcher依赖于多个插件以爬取不同的协议,目前已有的协议及支撑插件如下:
http:
protocol-http
protocol-httpclient
https:
protocol-httpclient
ftp:
protocol-ftp
file:
protocol-file
当爬取网上文档的时候,不应该使用protocol-file,因为它是用于爬取本地文件的。如果你想爬取http、https,应当使用protocol-httpclient。
7. parse
它是“org.apache.nutch.parse.ParseSegment”的代称,它对一个segment运行ParseSegment。
使用方法:

Shell代码
  1. bin/nutch parse <segment>  
bin/nutch parse <segment>


参数说明:
<segment>:Segment文件夹
配置文件:
hadoop-default.xml
hadoop-site.xml
nutch-default.xml
nutch-site.xml
说明:
它依赖于多个插件来解析不同格式的内容,支持的格式及插件有:
内容格式 插件 备注
text/html parse-html 使用NekoHTML 或者TagSoup解析HTML
application/x-javascript parse-js 解析JavaScript 文档(.js).
audio/mpeg parse-mp3 解析MP3 Audio文档(.mp3).
application/vnd.ms-excel parse-msexcel 解析MSExcel文档 (.xls).
application/vnd.ms-powerpoint parse-mspowerpoint 解析MSPower!Point 文档
application/msword parse-msword 解析MSWord文档
application/rss+xml parse-rss 解析RSS文档(.rss)
application/rtf parse-rtf 解析RTF文档(.rtf)
application/pdf parse-pdf 解析PDF文档
application/x-shockwave-flash parse-swf 解析Flash 文档 (.swf)
text-plain parse-text 解析Text文档(.txt)
application/zip parse-zip 解析Zip文档(.zip)
other types parse-ext 通过基于content-type或者路径前缀的外部命令来解析文档
默认情况下只有txt、HTML、JS格式的插件可用,其他的需要在nutch-site.xml中配置使用。
8 . segread
"segread" 是"org.apache.nutch.segment.SegmentReader"的代称,它读取并导出Segment数据。
使用方法:

Shell代码
  1. bin/nutch segread <segment>  
bin/nutch segread <segment>


参数说明:
<segment>:Segment文件夹
配置文件:
hadoop-default.xml
hadoop-site.xml
nutch-default.xml
nutch-site.xml
说明:
在Nutch0.9后的版本中改为了readseg
9 . updatedb
它是“org.apache.nutch.crawl.CrawlDb”的代称,用fetch过程中获取的信息更新crawldb。
使用方法:

Shell代码
  1. bin/nutch updatedb <crawldb> <segment> [-noadditions]  
bin/nutch updatedb <crawldb> <segment> [-noadditions]


参数说明:
<crawldb>:crawldb目录
<segment>:已经爬取的segment目录
[-noadditions]:是否添加新的链接到crawldb中
配置文件:
hadoop-default.xml
hadoop-site.xml
nutch-default.xml
nutch-site.xml

10.  invertlinks
它是“org.apache.nutch.crawl.LinkDb”的代称,它用从segment中获取到的信息更新linkdb。
使用方法:

Shell代码
  1. bin/nutch invertlinks <linkdb> (-dir segmentsDir | segment1 segment2 ...)  
bin/nutch invertlinks <linkdb> (-dir segmentsDir | segment1 segment2 ...)



参数说明:
<linkdb>: linkdb目录
<segment>: segment目录,可以指定至少一个的文件夹

配置文件:
hadoop-default.xml
hadoop-site.xml
nutch-default.xml
nutch-site.xml
11.  index
它是“org.apache.nutch.indexer.Indexer”的代称,创建一个segment的索引,利用crawldb和linkdb中的数据对索引中的页面打分。
使用方法:

Shell代码
  1. bin/nutch index <index> <crawldb> <linkdb> <segment> ...  
bin/nutch index <index> <crawldb> <linkdb> <segment> ...


参数说明:
<index>: 索引创建后的保存目录
<crawldb>: crawldb目录
<linkdb>: linkdb目录
<segment>: segment目录,可以指定多个
配置文件:
hadoop-default.xml
hadoop-site.xml
nutch-default.xml
nutch-site.xml

12.  merge
Merge是“org.apache.nutch.indexer.IndexMerger”的代称,它合并多个segment索引。
使用方法:
bin/nutch merge [-workingdir <workingdir>] <outputIndex> <indexesDir> ...

参数说明:
[-workingdir <workingdir>]:提定工作目录
<outputIndex>:合并后的索引存储目录
<indexesDir>:包含待合并的索引目录,可以指定多个

配置文件:
hadoop-default.xml
hadoop-site.xml
nutch-default.xml
nutch-site.xml
13.  mergedb
它是“org.apache.nutch.crawl.CrawlDbMerger”的代称,合并多个CrawlDb,URLFilter可选择性地过滤指定内容。
可以合并多个DB到一个中。当你分别运行爬虫并希望最终合并DB时,它会相当有用。可选择地,可以运行当前URLFilter过滤数据库中的URL,以滤去不需要的URL。当只有一个DB时也很有用,它意味着你可以通过这个工作去滤掉那些DB中你不想要的URL。
只用这个工具来过滤也是可能的,在这种情况下,只指定一个crawldb。
如果同一个URL包括在多个CrawlDb中,只有最近版本的才会被保留,即由org.apache.nutch.crawl.CrawlDatum.getFetchTime()值决定的。然而,所有版本的元数据被聚合起来,新的值代替先前的值。
使用方法:
bin/nutch merge output_crawldb crawldb1 [crawldb2 crawldb3 ...] [-filter]
参数说明:
output_crawldb:CrawlDb输出文件夹
crawldb1 [crawldb2 crawldb3 ...]:一个或者多个CrawlDb(s).
-filter:采用的URLFilters
配置文件:
hadoop-default.xml
hadoop-site.xml
nutch-default.xml
nutch-site.xml

14.  mergelinkdb
它是“org.apache.nutch.crawl.LinkDbMerger”的代称,用于合并多个linkdb,可以选择性的使用URLFilter来过滤指定内容。
当分别从多个segment群中分布式建立LinkDb而又需要合并为一个时很有用。或者,也可以指定单个LinkDb,只是用它来过滤URL。
只用这个工具来过滤也是可能的,在这种情况下,只指定一个LinkDb。
如果一个URL包含在多个LinkDb中,所有的内部链接被聚合,但是最多db.max.inlinks 指定的内链数会添加进来。 如果被激活,URLFilter可以应用到所有的目标URL及其内链中。如果目标链接被禁止,所有的该目标链接的内链将和目标链接一起被移去。如果某些内 链被禁止,那么只有他们会被移去,在校验上面提到的最大限制数时他们不会被计算在内。
使用方法:
bin/nutch mergelinkdb output_linkdb linkdb1 [linkdb2 linkdb3 ...] [-filter]
参数说明:
output_linkdb:输出linkdb
linkdb1 [linkdb2 linkdb3 ...]: 多于一个的输入LinkDb(s)
-filter: Actual URLFilters to be applied on urls and links in LinkDb(s).
配置文件:
hadoop-default.xml
hadoop-site.xml
nutch-default.xml
nutch-site.xml
15.  mergesegs
它是“org.apache.nutch.segment.SegmentMerger”的代称,用于合并多个segment,可以选择性地输出到一个或者多个固定大小的segment中。
使用方法:

Shell代码
  1. bin/nutch mergesegs output_dir (-dir segments | seg1 seg2 ...) [-filter] [-slice NNNN]  
bin/nutch mergesegs output_dir (-dir segments | seg1 seg2 ...) [-filter] [-slice NNNN]



参数说明:
output_dir:结果segment的名称或者segment片的父目录
-dir segments:父目录,包括多个segment
seg1 seg2 ...:segment目录列表
-filter:通过URLFilters过滤
-slice NNNN: 创建多个输出segment,每一个中包括了NNNN个URL。

配置文件:
hadoop-default.xml
hadoop-site.xml
nutch-default.xml
nutch-site.xml
16.  dedup
“dedup”是“org.apache.nutch.indexer.DeleteDuplicates”的别名,它segment indexes中去掉重复的页面。
使用方法:

Shell代码
  1. bin/nutch dedup <indexes> ...  
bin/nutch dedup <indexes> ...


参数说明:
<indexes>:indexes索引文件
配置文件:
hadoop-default.xml
hadoop-site.xml
nutch-default.xml
nutch-site.xml
17.  plugin
它是“org.apache.nutch.plugin.PluginRepository”的代称,用于从插件库中加载一个插件并执行其主方法。
使用方法:

Shell代码
  1. bin/nutch plugin <pluginId> <className> [args ...]  
bin/nutch plugin <pluginId> <className> [args ...]

参数说明:
<pluginId>:期望执行的插件ID
<className>:包含主方法的类名
[args]:传入插件的参数
配置文件:
hadoop-default.xml
hadoop-site.xml
nutch-default.xml
nutch-site.xml

分享到:
评论

相关推荐

    lucene nutch 搜索引擎 开发 实例 源代码 源码

    lucene nutch 搜索引擎 开发 实例 源代码 源码 包含lucene使用的所有源代码,从建立索引,搜索,删除,排序,都有,非常齐全 还有PDF 解析,WORD解析 ,EXCEL,ppt,xml解析等,,都有源码实现 还有nutch源码,spider...

    nutch的源代码解析

    Nutch 的源代码解析对于深入理解搜索引擎的工作原理以及自定义搜索引擎的实现非常有帮助。下面我们将详细探讨 Nutch 的注入(Injector)过程,这是整个爬取流程的第一步。 Injector 类在 Nutch 中的作用是将输入的 ...

    nutch-2.1源代码

    Nutch的源代码包含了整个项目的完整实现,包括爬虫、索引器、搜索器以及相关的配置和文档。这对于开发者和研究者来说是一个宝贵的资源,他们可以深入理解搜索引擎的工作原理,学习如何处理大规模的网络数据,或者对...

    Lucene+nutch搜索引擎开发(源代码)

    《Lucene+nutch搜索引擎开发(源代码)》是关于构建搜索引擎的一个重要资源,它结合了Apache Lucene和Nutch两大开源技术,旨在帮助开发者深入了解搜索引擎的工作原理并实践相关开发。Lucene是一个强大的全文检索库,...

    windows下安装nutch

    运行`bin/nutch`命令,如果没有错误提示,说明Nutch已经成功安装。 8. **Nutch的配置**:安装完成后,你需要根据需求配置Nutch的配置文件,通常位于`conf`目录下,如`nutch-site.xml`。这些配置包括爬虫的种子URL、...

    nutch使用&Nutch;入门教程

    在使用Nutch之前,你需要配置Nutch的运行环境,包括安装Java、设置Hadoop(如果需要分布式爬取)、下载和编译Nutch源代码。还需要配置Nutch的`conf/nutch-site.xml`文件,指定抓取策略、存储路径、爬虫范围等参数。 ...

    Nutch模块命令

    **Nutch 命令详解** 1. **Crawl 命令** `bin/nutch crawl &lt;urlDir&gt; [-dir d] [-threads n] [-depth i] [-topN]` - `&lt;urlDir&gt;`: 包含初始 URL 列表的文件夹。 - `[-dir ]`: 指定爬取记录的工作目录,默认为 `./...

    关于Nutch的安装

    如果显示出Nutch命令脚本的帮助文档,说明Nutch已成功安装。 **4. 网络爬行** Nutch的网络爬行分为内部网爬行和全网爬行。 **4.1 内部网爬行** 内部网爬行适用于大型网站的抓取。你需要: - **创建URL文件**:...

    nutch 爬虫数据nutch 爬虫数据nutch 爬虫数据nutch 爬虫数据

    Nutch 是一个开源的Web爬虫项目,由Apache软件基金会维护。它被设计用来抓取互联网上的网页,并对其进行索引,以便进行后续的搜索和分析。Nutch 的爬虫数据通常包括了它在抓取过程中收集到的网页URL、网页内容、元...

    nutch2.2.1安装步骤.docx

    在 Nutch 源代码目录下,执行以下命令: 1. 初始化项目:`ant runtime` 2. 配置 Nutch 的抓取配置文件,如 `conf/nutch-site.xml` 和 `conf/gora.properties`。 3. 添加种子 URL:`bin/nutch inject urls` 4. 执行...

    eclipse配置nutch,eclipse配置nutch

    ### 二、Eclipse配置Nutch的步骤详解 #### 步骤1:创建Nutch项目 首先,在Eclipse中创建一个新的Java项目,选择“File &gt; New &gt; Project &gt; Java project”,然后点击“Next”。在创建项目时,选择“Create project ...

    Lucene+nutch搜索引擎开发 源代码

    《Lucene+nutch搜索引擎开发》书附带的源代码

    nutch的源码解读和nutch入门

    同时,直接阅读源码是理解 Nutch 工作原理的关键,因为代码简洁且没有复杂的技巧。 如果你想使用 Nutch 作为爬虫,但不需要其索引功能,可以参考 `Indexer` 类的实现,编写自己的版本,将 segments 中的内容直接...

    Nutch中文教程nutcher.zip

    nutcher 是 Apache Nutch 的中文教程,在... Nutch流程控制源码详解(bin/crawl中文注释版) Nutch教程——URLNormalizer源码详解 Nutch参数配置——http.content.limit 文档截图:

    Nutch 0.8笔记NUTCHNUTCH

    【Nutch 0.8 知识点详解】 Nutch 是一个开源的、基于 Lucene 的网络搜索引擎项目,它提供了一套完整的搜索引擎解决方案,包括网页抓取、索引和搜索功能。Nutch 0.8 版本尤其值得关注,因为它完全使用 Hadoop 进行了...

    nutch

    **Nutch 概述** Nutch 是一个开源的网络爬虫项目,主要设计用于抓取、索引和搜索互联网上的网页。它由 Apache 软件基金会开发,并且是 Hadoop 的一部分,这意味着它能够利用分布式计算来处理大规模的数据抓取任务。...

Global site tag (gtag.js) - Google Analytics