`

nutch分布式搭建

阅读更多

如何在eclipse中跑nutch :http://jiajun.iteye.com/blog/612023 这里没有翻译,不过应该能看懂

 

那么如何分布式搭建nutch1.0 呢?

 

如果进行到这篇文章,就很容易了:hadoop搭建进阶,多台机器分布式搭建 :http://jiajun.iteye.com/blog/624559

 

具体如何做呢,参看:How to Setup Nutch and Hadoop :http://wiki.apache.org/nutch/NutchHadoopTutorial

 

可惜的是现在的nutch-1.0使用的hadoop架构不是0.20.2,而是使用的0.19.1,配置文件上有些差别。

 

注意:如果要本地调试nutch1.0,那么需要把conf/hadoop-site.xml删除或者改为其他名字,否则的话就是配置好的环境下跑的nutch,某些在从机器上运行的程序不能够调试。

 


下面说说,如何搭建nutch1.0

 

一些环境这里就不介绍了,这篇文章是接着上面几篇文章的。

 

一、下载安装文件

 

1、下载目前最新版本 nutch-1.0:http://lucene.apache.org/nutch

2、下载tomcat6.0:http://tomcat.apache.org

3、解压下载的两个压缩文件到 /home/java

 

二、配置文件

 

1、修改conf/hadoop-site.xml (配置文件和前面的hadoop-0.20.2不一样,这里的版本0.19.1不够先进)

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>

        <property>
                <name>fs.default.name</name>
                <value>hdfs://home0.hadoop:9000</value>
        </property>

        <property>
                <name>mapred.job.tracker</name>
                <value>home0.hadoop:9001</value>
     </property>

        <property>
                <name>dfs.name.dir</name>
                <value>/home/lighttpd/hadoopfs/name_0,/home/lighttpd/hadoopfs/name_1</val       ue>
                 <description>Determines where on the local filesystem the DFS name node
                        should store the name table. If this is a comma-delimited list of        directories
                        then the name table is replicated in all of the directories,
                        for redundancy.
                </description>
        </property>

        <property>
                <name>dfs.data.dir</name>
                <value>/home/lighttpd/hadoopfs/data_0,/home/lighttpd/hadoopfs/data_1</val       ue>
                <description>
                        Determines where on the local filesystem an DFS data node
                        should store its blocks. If this is a comma-delimited list of dir       ectories,
                        then data will be stored in all named directories, typically on d       ifferent devices.
                        Directories that do not exist are ignored.
                </description>
        </property>


</configuration>

 2、修改 JAVA_HOME变量指向

    在这个文件中hadoop-env.sh修改,前面配置hadoop已经讲过了。

 

4、设定主从节点
    修改 conf/masters 文件,将其中的 localhost 改为 home0.hadoop 。

    修改 conf/slaves 文件。 删掉其中的localhost, 将我们的另两台机器 home1.hadoop、home2.hadoop 加入, 注意每个机器一行。

    masters里面的是主机节点,slaves里面是从机节点。

 

5、同样的配置拷贝到其他两台机器上去

scp -r nutch1.0 home1.hadoop:/home/yourname/

 注意:可能您每台机器的JAVA安装位置不一样,记得修改conf/hadoop-env.sh,设置export JAVA_HOME=正确路径

 

三、启动hadoop服务

 

1、 格式化一个新的分布式文件系统

bin/hadoop namenode -format

 2、 启动hadoop进程

$ bin/start-all.sh

 

四、抓取、建立索引

 

1、配置抓取入口

    在nutch1.0目录下新建文件夹:urls,在该文件夹下新建文件:urllist.txt,在该文件中写入抓取列表,比如:

http://lucene.apache.org

   写入分布式文件系统

bin/hadoop fs -put urls urls
 

2、设置URL过滤规则

    编辑conf/crawl-urlfilter.txt

# accept hosts in MY.DOMAIN.NAME
#+^http://([a-z0-9]*\.)*MY.DOMAIN.NAME/
+^http://([a-z0-9]*\.)*apache.org
 

3、执行抓取命令

 

bin/nutch crawl urls -dir crawledDir -depth 3 -threads 10

 

五、搜索环境

 

1 、把上面索引后的文件拷贝到本地 ,速度会好些,也可在分布式系统中,参考文档中讲到

bin/hadoop fs -copyToLocal crawledDir  /home/yourname/nutch-1.0/crawledData
 

2、把 nutch-1.0.war 文件拷贝到tomcat下webapps目录,启动tomcat解压文件,再关闭服务

$ cp nutch-1.0.war /home/yourname/java/apache-tomcat-6.0.18/
$ cd  /home/lighttpd/java/apache-tomcat-6.0.18/
$ bin/startup.sh
浏览器输入:http://locahost:8080/nutch-1.0 
$ bin/shutdown.sh
 

3、修改/WEB-INF/classes/nutch-site.xml

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->
<!--  /home/lighttpd/nutch-1.0/conf/search-dir/sina.com.cn -->
<configuration>

        <property>
                <name>searcher.dir</name>
                <value>/home/yourname/nutch-1.0/crawledDir</value>
        </property>

</configuration>

4、支持中文 ,在server.xml的 Connector中加入属性

URIEncoding="UTF-8" 
useBodyEncodingForURI="true"
 

5、启动tomcat

$ cd  /home/lighttpd/java/apache-tomcat-6.0.18/
$ bin/startup.sh
 

6、浏览器输入:http://locahost:8080/nutch-1.0 搜索试试

 

六、注意:

 

1、这里搜索的索引文件是拷贝到本地的文件,也可以搭建分布式索引文件

2、还可以搭建索引文件在不同的机器上,搜索时候从各个索引文件合并搜索结果

3、eclipse工程中的对应配置文件,都做设置的话,会运行在分布式系统中,如想调试运行在从机器上程序,需要采用本地运行方式,把hadoop-site.xml文件挪走,或者改名。

2
0
分享到:
评论
1 楼 w156445045 2012-11-23  
最近的毕业论文想写这方面的东西,求指点哈啊。谢谢。

相关推荐

    Nutch2.3.1 环境搭建

    在本文中,我们将深入探讨如何搭建Nutch2.3.1的运行环境,以便进行网页抓取和分析。 **一、系统需求** 首先,确保你的系统满足以下基本要求: 1. 操作系统:Nutch可以在Linux、Unix或Mac OS X等类Unix系统上运行,...

    Nutch-1.0分布式安装手册.rar

    这份手册涵盖了从环境准备到系统配置的全过程,旨在帮助用户成功搭建一个分布式的Nutch系统。 首先,安装Nutch-1.0分布式版需要的基础环境包括Java开发套件(JDK)和Hadoop。JDK是运行Nutch所必需的,因为它是一个...

    基于lucene和nutch的开源搜索引擎资料集合

    Linux下Nutch分布式配置和使用.pdf Lucene+Nutch源码.rar Lucene学习笔记.doc nutch_tutorial.pdf nutch二次开发总结.txt nutch入门.pdf nutch入门学习.pdf Nutch全文搜索学习笔记.doc Yahoo的Hadoop教程.doc [硕士...

    搭建nutch web开发环境

    3. **Hadoop**:Nutch可以与Hadoop集成,用于分布式处理和存储数据。安装Hadoop 1.x或2.x版本,并配置好`HADOOP_HOME`环境变量。 **获取Nutch源代码** 1. 使用Git克隆Nutch 1.2的源代码库: ``` git clone ...

    Nutch+solr + hadoop相关框架搭建教程

    在 Nutch 中,Hadoop 负责分布式爬虫的执行和数据处理。Nutch 使用 Hadoop MapReduce 模型来并行处理任务,如网页抓取、解析、索引等。通过 Nutch 脚本,我们可以将 Apache-nutch-1.6.job 提交给 Hadoop 的 ...

    nutch使用&Nutch;入门教程

    “Nutch使用.pdf”和“Nutch入门教程.pdf”这两份文档将详细介绍如何从零开始使用Nutch,包括环境搭建、配置、启动爬虫、监控爬虫状态、查看抓取结果和索引数据等。通过这些教程,你可以快速掌握Nutch的基本操作,并...

    nutch

    通过阅读此教程,你可以了解如何搭建 Nutch 爬虫环境,编写自定义插件,以及进行定制化抓取和索引。 总结来说,Nutch 是一个强大的开源网络爬虫工具,借助 Hadoop 实现了大规模的网页抓取和搜索功能。学习和使用 ...

    分布式爬虫的研究与实现.pdf

    实验对比了基于Nutch的分布式爬虫与其他爬虫的多组实验数据,结果证明了分布式爬虫项目的优越性。 综上所述,分布式爬虫的研究与实现是一个融合了爬虫框架、分布式协调服务、数据库存储、信息索引展示引擎以及页面...

    apache-nutch-1.5.1

    同时,你还需要了解Hadoop环境的搭建和管理,因为Nutch 的分布式处理特性依赖于Hadoop集群。 总的来说,Apache Nutch 1.5.1 是一个强大的工具,对于那些需要构建自定义搜索引擎或者需要对特定网站或领域进行深度...

    nutch网页爬取总结

    1. **Hadoop 集成**:Nutch 可以与 Hadoop 集成,利用分布式计算处理大规模的抓取任务。 2. **插件体系**:Nutch 采用插件架构,用户可以根据需要编写自定义的抓取、解析、分析等插件。 3. **多语言支持**:Nutch ...

    分享一个Nutch入门学习的资料

    Nutch是大数据处理框架Hadoop的一个重要组成部分,它使用Hadoop进行分布式数据存储和处理。Nutch的学习对于理解Web抓取、搜索引擎原理以及Hadoop生态系统有极大的帮助。 在描述中提到的“博文链接:...

    开发基于 Nutch 的集群式搜索引擎

    ### 开发基于Nutch的集群式搜索引擎 ...通过以上步骤,我们可以搭建一个基于Nutch的简单搜索引擎,并了解其从网页抓取到搜索结果呈现的整个流程。这对于理解Nutch的工作原理及其在实际场景中的应用具有重要意义。

    nutch-2.1源代码

    7. **分布式计算**:Nutch-2.1虽然适用于Windows系统,但它是设计为在大规模分布式环境中运行的。它可以利用Hadoop框架进行分布式索引和搜索,处理海量数据。 在研究和使用Nutch-2.1源代码时,你可以深入了解搜索...

    nutch-1.9 源码

    2. **分块机制**:Nutch采用了分块(Segment)的概念,将抓取的网页数据分割成多个小块存储,便于分布式处理和提高抓取效率。 3. **URL管理**:Nutch有一个URL管理系统,负责跟踪哪些URL已经被抓取,哪些需要抓取,...

    Nutch简要文档

    Nutch 与 Eclipse 结合开发时,通常需要先搭建 Hadoop 环境,因为 Nutch 基于 Hadoop 分布式计算框架,Hadoop 提供了数据存储和处理的能力。开发者需要了解 Hadoop 的基本命令和集群管理,确保 Nutch 在 Hadoop 上的...

    Nutch公开课从搜索引擎到网络爬虫

    Nutch的使用者可以用它来搭建站内搜索引擎,如Oregon State University,也可以用来创建全网搜索引擎,如即刻搜索,以及垂直搜索引擎如Internet Archive和Creative Commons。Nutch还常用于数据采集,它可以收集各类...

    apache-nutch-1.7-src.tar.gz

    为了运行Nutch,你需要搭建一个Hadoop环境,因为Nutch利用Hadoop的分布式计算能力。同时,你还需要安装和配置Lucene或Solr以作为索引后端。 总的来说,Apache Nutch 1.7提供了完整的网络爬虫和搜索引擎框架,适用于...

    apach-nutch-1.9-bin.tar.gz

    总之,"apach-nutch-1.9-bin.tar.gz" 提供了一个完整的搜索引擎搭建工具,通过理解其工作原理和配置方法,你可以快速地构建自己的网页抓取和搜索系统。虽然Nutch 1.9相对较老,但对于初学者或小型项目来说,它的简单...

Global site tag (gtag.js) - Google Analytics