- 浏览: 1789643 次
- 性别:
- 来自: 北京
文章分类
最新评论
-
奔跑的小牛:
例子都打不开
如何使用JVisualVM进行性能分析 -
蜗牛coder:
好东西[color=blue][/color]
Lucene学习:全文检索的基本原理 -
lovesunweina:
不在haoop中是在linux系统中,映射IP的时候,不能使用 ...
java.io.IOException: Incomplete HDFS URI, no host -
evening_xxxy:
挺好的, 谢谢分享
如何利用 JConsole观察分析Java程序的运行,进行排错调优 -
di1984HIT:
学习了~~~
ant使用ssh和linux交互 如:上传文件
如何在eclipse中跑nutch :http://jiajun.iteye.com/blog/612023 这里没有翻译,不过应该能看懂
那么如何分布式搭建nutch1.0 呢?
如果进行到这篇文章,就很容易了:hadoop搭建进阶,多台机器分布式搭建 :http://jiajun.iteye.com/blog/624559
具体如何做呢,参看:How to Setup Nutch and Hadoop :http://wiki.apache.org/nutch/NutchHadoopTutorial
可惜的是现在的nutch-1.0使用的hadoop架构不是0.20.2,而是使用的0.19.1,配置文件上有些差别。
注意:如果要本地调试nutch1.0,那么需要把conf/hadoop-site.xml删除或者改为其他名字,否则的话就是配置好的环境下跑的nutch,某些在从机器上运行的程序不能够调试。
下面说说,如何搭建nutch1.0
一些环境这里就不介绍了,这篇文章是接着上面几篇文章的。
一、下载安装文件
1、下载目前最新版本 nutch-1.0:http://lucene.apache.org/nutch
2、下载tomcat6.0:http://tomcat.apache.org
3、解压下载的两个压缩文件到 /home/java
二、配置文件
1、修改conf/hadoop-site.xml (配置文件和前面的hadoop-0.20.2不一样,这里的版本0.19.1不够先进)
<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --> <configuration> <property> <name>fs.default.name</name> <value>hdfs://home0.hadoop:9000</value> </property> <property> <name>mapred.job.tracker</name> <value>home0.hadoop:9001</value> </property> <property> <name>dfs.name.dir</name> <value>/home/lighttpd/hadoopfs/name_0,/home/lighttpd/hadoopfs/name_1</val ue> <description>Determines where on the local filesystem the DFS name node should store the name table. If this is a comma-delimited list of directories then the name table is replicated in all of the directories, for redundancy. </description> </property> <property> <name>dfs.data.dir</name> <value>/home/lighttpd/hadoopfs/data_0,/home/lighttpd/hadoopfs/data_1</val ue> <description> Determines where on the local filesystem an DFS data node should store its blocks. If this is a comma-delimited list of dir ectories, then data will be stored in all named directories, typically on d ifferent devices. Directories that do not exist are ignored. </description> </property> </configuration>
2、修改 JAVA_HOME变量指向
在这个文件中hadoop-env.sh修改,前面配置hadoop已经讲过了。
4、设定主从节点
修改 conf/masters 文件,将其中的 localhost 改为 home0.hadoop 。
修改 conf/slaves 文件。 删掉其中的localhost, 将我们的另两台机器 home1.hadoop、home2.hadoop 加入, 注意每个机器一行。
masters里面的是主机节点,slaves里面是从机节点。
5、同样的配置拷贝到其他两台机器上去
scp -r nutch1.0 home1.hadoop:/home/yourname/
注意:可能您每台机器的JAVA安装位置不一样,记得修改conf/hadoop-env.sh,设置export JAVA_HOME=正确路径
三、启动hadoop服务
1、 格式化一个新的分布式文件系统
bin/hadoop namenode -format
2、 启动hadoop进程
$ bin/start-all.sh
四、抓取、建立索引
1、配置抓取入口
在nutch1.0目录下新建文件夹:urls,在该文件夹下新建文件:urllist.txt,在该文件中写入抓取列表,比如:
http://lucene.apache.org
写入分布式文件系统
bin/hadoop fs -put urls urls
2、设置URL过滤规则
编辑conf/crawl-urlfilter.txt
# accept hosts in MY.DOMAIN.NAME #+^http://([a-z0-9]*\.)*MY.DOMAIN.NAME/ +^http://([a-z0-9]*\.)*apache.org
3、执行抓取命令
bin/nutch crawl urls -dir crawledDir -depth 3 -threads 10
五、搜索环境
1 、把上面索引后的文件拷贝到本地 ,速度会好些,也可在分布式系统中,参考文档中讲到
bin/hadoop fs -copyToLocal crawledDir /home/yourname/nutch-1.0/crawledData
2、把 nutch-1.0.war 文件拷贝到tomcat下webapps目录,启动tomcat解压文件,再关闭服务
$ cp nutch-1.0.war /home/yourname/java/apache-tomcat-6.0.18/ $ cd /home/lighttpd/java/apache-tomcat-6.0.18/ $ bin/startup.sh 浏览器输入:http://locahost:8080/nutch-1.0 $ bin/shutdown.sh
3、修改/WEB-INF/classes/nutch-site.xml
<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --> <!-- /home/lighttpd/nutch-1.0/conf/search-dir/sina.com.cn --> <configuration> <property> <name>searcher.dir</name> <value>/home/yourname/nutch-1.0/crawledDir</value> </property> </configuration>
4、支持中文 ,在server.xml的 Connector中加入属性
URIEncoding="UTF-8" useBodyEncodingForURI="true"
5、启动tomcat
$ cd /home/lighttpd/java/apache-tomcat-6.0.18/ $ bin/startup.sh
6、浏览器输入:http://locahost:8080/nutch-1.0 搜索试试
六、注意:
1、这里搜索的索引文件是拷贝到本地的文件,也可以搭建分布式索引文件
2、还可以搭建索引文件在不同的机器上,搜索时候从各个索引文件合并搜索结果
3、eclipse工程中的对应配置文件,都做设置的话,会运行在分布式系统中,如想调试运行在从机器上程序,需要采用本地运行方式,把hadoop-site.xml文件挪走,或者改名。
发表评论
-
HBase配置LZO压缩
2011-07-10 22:40 6190系统: gentoo HDFS: hadoop:hado ... -
HBase RegionServer 退出 ( ZooKeeper session expired)
2011-04-23 08:32 9096RegionServer 由于 ZooKeeper sessi ... -
HBase迁移数据方案1(两个集群不能通信)
2011-03-30 18:23 3875前一篇文章里面介绍了 两个可以直接通信的集群之间很容易拷贝数据 ... -
HBase如何迁移数据
2011-03-10 13:42 6516HBase如何迁移数据?这里有个方案:http://blog. ... -
HBase如何存取多个版本的值
2011-03-07 16:11 27247HBase如何存取多个版本 ... -
HBase简介(很好的梳理资料)
2011-01-30 10:18 130741一、 简介 history s ... -
Google_三大论文中文版(Bigtable、 GFS、 Google MapReduce)
2010-11-28 16:30 22194做个中文版下载源: http://dl.iteye.c ... -
hadoop主节点(NameNode)备份策略以及恢复方法
2010-11-11 19:35 27820一、dits和fsimage 首先要提到 ... -
HRegionServer: ZooKeeper session expired
2010-11-01 14:21 11479Hbase不稳定,分析日志 ... -
Bad connect ack with firstBadLink
2010-10-25 13:20 8330hbase报的错误,经过分析是Hadoop不能写入数据了。可恶 ... -
hbase0.20.支持多个主节点容灾切换功能(只激活当前某个节点,其他节点备份)
2010-09-09 14:53 2874http://wiki.apache.org/hadoop/H ... -
java.io.IOException: Incomplete HDFS URI, no host
2010-09-07 08:31 16227ERROR org.apache.hadoop.hdfs.se ... -
升级hadoop0.20.2到hadoop-0.21.0
2010-09-05 11:52 7758按照新的文档来 更新配置: http://hadoop.apa ... -
hadoop-hdfs启动又自动退出的问题
2010-05-20 10:45 6138hadoop-hdfs启动又自动退出的问题,折腾了我1天时间啊 ... -
在windows平台下Eclipse调试Hadoop/Nutch
2010-04-29 14:34 3301即让碰到这个问题说明 准备工作都做好了,软件包,环境什么的这里 ... -
Hadoop运行mapreduce实例时,抛出错误 All datanodes xxx.xxx.xxx.xxx:xxx are bad. Aborting…
2010-04-29 14:26 6433Hadoop运行mapreduce实例时,抛出错误 All d ... -
cygwin 添加用户
2010-04-13 17:48 7417http://hi.baidu.com/skychen1900 ... -
nutch总体输入输出流程图解析
2010-04-12 16:58 2469附件里面有word文档,请下 ... -
解析hadoop框架下的Map-Reduce job的输出格式的实现
2010-04-10 18:34 10138Hadoop 其实并非一个单纯用于存储的分布式文 ... -
解析Nutch插件系统
2010-03-31 16:31 6607nutch系统架构的一个亮点就是插件,借鉴这个架构我们 ...
相关推荐
在本文中,我们将深入探讨如何搭建Nutch2.3.1的运行环境,以便进行网页抓取和分析。 **一、系统需求** 首先,确保你的系统满足以下基本要求: 1. 操作系统:Nutch可以在Linux、Unix或Mac OS X等类Unix系统上运行,...
这份手册涵盖了从环境准备到系统配置的全过程,旨在帮助用户成功搭建一个分布式的Nutch系统。 首先,安装Nutch-1.0分布式版需要的基础环境包括Java开发套件(JDK)和Hadoop。JDK是运行Nutch所必需的,因为它是一个...
Linux下Nutch分布式配置和使用.pdf Lucene+Nutch源码.rar Lucene学习笔记.doc nutch_tutorial.pdf nutch二次开发总结.txt nutch入门.pdf nutch入门学习.pdf Nutch全文搜索学习笔记.doc Yahoo的Hadoop教程.doc [硕士...
3. **Hadoop**:Nutch可以与Hadoop集成,用于分布式处理和存储数据。安装Hadoop 1.x或2.x版本,并配置好`HADOOP_HOME`环境变量。 **获取Nutch源代码** 1. 使用Git克隆Nutch 1.2的源代码库: ``` git clone ...
在 Nutch 中,Hadoop 负责分布式爬虫的执行和数据处理。Nutch 使用 Hadoop MapReduce 模型来并行处理任务,如网页抓取、解析、索引等。通过 Nutch 脚本,我们可以将 Apache-nutch-1.6.job 提交给 Hadoop 的 ...
“Nutch使用.pdf”和“Nutch入门教程.pdf”这两份文档将详细介绍如何从零开始使用Nutch,包括环境搭建、配置、启动爬虫、监控爬虫状态、查看抓取结果和索引数据等。通过这些教程,你可以快速掌握Nutch的基本操作,并...
通过阅读此教程,你可以了解如何搭建 Nutch 爬虫环境,编写自定义插件,以及进行定制化抓取和索引。 总结来说,Nutch 是一个强大的开源网络爬虫工具,借助 Hadoop 实现了大规模的网页抓取和搜索功能。学习和使用 ...
实验对比了基于Nutch的分布式爬虫与其他爬虫的多组实验数据,结果证明了分布式爬虫项目的优越性。 综上所述,分布式爬虫的研究与实现是一个融合了爬虫框架、分布式协调服务、数据库存储、信息索引展示引擎以及页面...
同时,你还需要了解Hadoop环境的搭建和管理,因为Nutch 的分布式处理特性依赖于Hadoop集群。 总的来说,Apache Nutch 1.5.1 是一个强大的工具,对于那些需要构建自定义搜索引擎或者需要对特定网站或领域进行深度...
1. **Hadoop 集成**:Nutch 可以与 Hadoop 集成,利用分布式计算处理大规模的抓取任务。 2. **插件体系**:Nutch 采用插件架构,用户可以根据需要编写自定义的抓取、解析、分析等插件。 3. **多语言支持**:Nutch ...
Nutch是大数据处理框架Hadoop的一个重要组成部分,它使用Hadoop进行分布式数据存储和处理。Nutch的学习对于理解Web抓取、搜索引擎原理以及Hadoop生态系统有极大的帮助。 在描述中提到的“博文链接:...
### 开发基于Nutch的集群式搜索引擎 ...通过以上步骤,我们可以搭建一个基于Nutch的简单搜索引擎,并了解其从网页抓取到搜索结果呈现的整个流程。这对于理解Nutch的工作原理及其在实际场景中的应用具有重要意义。
7. **分布式计算**:Nutch-2.1虽然适用于Windows系统,但它是设计为在大规模分布式环境中运行的。它可以利用Hadoop框架进行分布式索引和搜索,处理海量数据。 在研究和使用Nutch-2.1源代码时,你可以深入了解搜索...
2. **分块机制**:Nutch采用了分块(Segment)的概念,将抓取的网页数据分割成多个小块存储,便于分布式处理和提高抓取效率。 3. **URL管理**:Nutch有一个URL管理系统,负责跟踪哪些URL已经被抓取,哪些需要抓取,...
Nutch 与 Eclipse 结合开发时,通常需要先搭建 Hadoop 环境,因为 Nutch 基于 Hadoop 分布式计算框架,Hadoop 提供了数据存储和处理的能力。开发者需要了解 Hadoop 的基本命令和集群管理,确保 Nutch 在 Hadoop 上的...
Nutch的使用者可以用它来搭建站内搜索引擎,如Oregon State University,也可以用来创建全网搜索引擎,如即刻搜索,以及垂直搜索引擎如Internet Archive和Creative Commons。Nutch还常用于数据采集,它可以收集各类...
为了运行Nutch,你需要搭建一个Hadoop环境,因为Nutch利用Hadoop的分布式计算能力。同时,你还需要安装和配置Lucene或Solr以作为索引后端。 总的来说,Apache Nutch 1.7提供了完整的网络爬虫和搜索引擎框架,适用于...
总之,"apach-nutch-1.9-bin.tar.gz" 提供了一个完整的搜索引擎搭建工具,通过理解其工作原理和配置方法,你可以快速地构建自己的网页抓取和搜索系统。虽然Nutch 1.9相对较老,但对于初学者或小型项目来说,它的简单...