`
cocoIT
  • 浏览: 51089 次
  • 性别: Icon_minigender_1
  • 来自: 福建
文章分类
社区版块
存档分类
最新评论

Nutch+Hadoop集群搭建

 
阅读更多

1、Apache Nutch

Apache Nutch是一个用于网络搜索的开源框架,它提供了我们运行自己的搜索引擎所需的全部工具,包括全文搜索和Web爬虫。

1.1、Nutch的组件结构

Nutch+Hadoop集群搭建

WebDB:存储网页数据和连接信息

Fetch lists:将WebDB所存储的连接分成多个组,来用于分布式检索

Fetchers:检索Fetch list中的内容并下载到本地,共有两项输出:分别是连接的update

信息和内容content

Updates:更新WebDB的页面检索状态

WebDB、updates、fetch lists和fetchers组成循环结构,不断运行下去,来确保所得到的Web镜像是最新的

Content:界面内容,获取内容之后,Nutch便可以根据它来创建索引并执行查询操作

Indexers:对目标Content创建索引,当索引内容较大时,可把索引划分成多个索引片段,然后分配给不同的seracher实现并行检索

Searchers:实现查询功能的同时也会缓存content

Webservers:有两种角色:

1处理用户的交互请求(Nutch Search Client)

2从searchers中获取查询结果(HTTP Server)

注:fetchers和searchers两个节点所对应的操作可放到分布式环境(hadoop)中去完成

创建索引及查询的操作可通过solr框架来实现

1.2、Nutch的数据结构:

Nutch数据包含3个目录结构,分别是:

1、Crawldb:用于存储Nutch将要检索的url信息,以及检索状态(是否检索、何时检索)

2、Linkdb:用于存储每一个url所包含的超链接信息(包括锚点)

3、Segments:一组url的集合,他们作为一个检索单元,可用于分布式检索

Segment目录包含以下子目录信息:

(1)crawl_generate:定义将要检索的url集合(文件类型为SequenceFile)

(2)crawl_fetch:存储每一个url的检索状态(文件类型为MapFile)

(3)content:存储每一个url所对应的二进制字节流(文件类型为MapFile)

(4)parse_text:存储每一个url所解析出的文本内容(文件类型为MapFile)

(5)parse_data:存储每一个url所解析出的元数据(文件类型为MapFile)

(6)crawl_parse:用于及时更新crawldb中的内容(如要检索的url已不存在等情况)--文件类型为SequenceFile

注:结合Nutch的数据结构和组件结构来看,crawldb相当于WebDB,而segment相当于是fetchlists.

分布式crawl过程中,每个MapReduce Job都会生成一个segment,名称以时间来命名

2、Apache Hadoop

Nutch的单机采集(local方式)并不复杂,然而当所采集的数据源较大时,一台机器难以满足性能上的需求,因此通常的做法是将Nutch集成到Hadoop环境中以完成分布式采集和分布式查询的效果(deploy方式)。

Hadoop框架在功能划分上包含3个子框架,分别是:

MapReduce:用于分布式并行计算

HDFS:用于分布式存储

Common:封装HDFS和MapReduce所需要的实用类

2.1、MapReduce工作流程

Nutch+Hadoop集群搭建

1.将输入源(Inputfiles)切割成不同的片段,每个片段的大小通常在16M-64M之间(可通过参数配置),然后启动云端程序。

2.MapReduce程序基于master/slaves方式部署,在云端机器中选中一台机器运行master程序,职责包括:调度任务分配给slaves,监听任务的执行情况。

3.在图形中,slave的体现形式为worker,当worker接到Map任务时,会读取输入源片段,从中解析出Key/Value键值对,并作为参数传递到用户自定义的Map功能函数之中,Map功能函数的输出值同样为Key/Value键值对,这些键值对会临时缓存在内存里面。

4.缓存之后,程序会定期将缓存的键值对写入本地硬盘(执行如图所示的local write操作),并且把存储地址传回给master,以便master记录它们的位置用以执行Reduce操作。

5.当worker被通知执行Reduce操作时,master会把相应的Map输出数据所存储的地址也发送给该worker,以便其通过远程调用来获取这些数据。得到这些数据之后,reduce worker会把具有相同Key值的记录组织到一起来达到排序的效果。

6.Reduce Worker会把排序后的数据作为参数传递到用户自定义的Reduce功能函数之中,而函数的输出结果会持久化存储到output file中去。

7.当所有的Map任务和Reduce任务结束之后,Master会重新唤醒用户主程序,至此,一次MapReduce操作调用完成。

2.2、HDFS组件结构

Nutch+Hadoop集群搭建

同MapReduce部署结构类似,HDFS同样具备master/slaves主仆结构

1.如图所示中,NameNode充当master角色,职责包括:管理文档系统的命名空间(namespace);调节客户端访问到需要的文件(存储在DateNode中的文件)

注:namespace—映射文件系统的目录结构

2.DataNodes充当slaves角色,通常情况下,一台机器只部署一个Datenode,用来存储MapReduce程序需要的数据

Namenode会定期从DataNodes那里收到Heartbeat和Blockreport反馈

Heartbeat反馈用来确保DataNode没有出现功能异常;

Blockreport包含DataNode所存储的Block集合

2.3、hadoop资源

1http://wiki.apache.org/nutch/NutchHadoopTutorial基于Nutch和Hadoop完成分布式采集和分布式查询


3、环境搭建

3.1、需要准备

3.1.1两台或以上Linux机器(这里假定为两台)

一台机器名称设置为master,另一台设置为slave01,两台机器具有相同的登录用户名nutch,并且将两台机器的etc/hosts文件设置成相同的内容,如:
192.168.7.11 master

192.168.7.12 slave01

……

这样,便可以通过主机名找到对应的机器

3.1.2搭建ssh环境

ssh的安装可通过如下命令完成:

$ sudo apt-get install ssh

$ sudo apt-get install rsync

3.1.3安装JDK

$ apt-get install openjdk-6-jdkopenjdk-6-jre

3.1.4下载最近版本的hadoop和nutch

下载地址:

Hadoop:http://www.apache.org/dyn/closer.cgi/hadoop/common/

Nutch:http://www.apache.org/dyn/closer.cgi/nutch/

3.2、搭建配置

3.2.1SSH登录配置

(1)在master机器上通过以下命令生成证书文件authorized_keys

$ ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

(2)将证书文件复制到其他机器的用户主目录下

$scp /home/nutch/.ssh authorized_keysnutch@slave01:/home/nutch/.ssh/authorized_keys

通过以上两步操作,master机器便可以在不需要密码的情况下ssh到slave01机器上

3.2.2HADOOP配置

同ssh登录证书的配置类似,HADOOP配置同样是在master机器上完成,然后在复制到slave机器上,确保每一台机器的hadoop环境相同

$HADOOP_HOME/conf目录下:

(1)hadoop-env.sh文件

 export HADOOP_HOME=/PATH/TO/HADOOP_HOME
 export JAVA_HOME=/PATH/TO/JDK_HOME
 export HADOOP_LOG_DIR=${HADOOP_HOME}/logs

(2)core-site.xml文件

 <configuration>
  <property>
  <name>fs.default.name</name>
  <value>hdfs://master:9000</value>
  </property>
 </configuration>

(3)hdfs-site.xml文件

 <configuration>
 <property>
   <name>dfs.name.dir</name>
 <value>/nutch/filesystem/name</value>
 </property>
 <property>
  <name>dfs.data.dir</name>
   <value>/nutch/filesystem/data</value>
 </property>
 <property>
  <name>dfs.replication</name>
  <value>1</value>
 </property>
 </configuration>

(4)mapred-site.xml文件

 <configuration>
 <property>
  <name>mapred.job.tracker</name>
   <value>master:9001</value>
 </property>
 <property> 
 <name>mapred.map.tasks</name>
  <value>2</value>
 </property> 
 <property> 
 <name>mapred.reduce.tasks</name>
  <value>2</value>
 </property> 
 <property>
  <name>mapred.system.dir</name>
  <value>/nutch/filesystem/mapreduce/system</value>
 </property>
 <property>
  <name>mapred.local.dir</name>
  <value>/nutch/filesystem/mapreduce/local</value>
 </property>
 </configuration>
 (5)masters和slaves配置
 将相应的机器IP加到对应的配置文件中去
 3.2.3 Nutch配置
 $NUTCH_HOME/conf目录下
 (1)nutch-site.xml文件
 <property>
 <name>http.agent.name</name>
 <value>Nutch Spider</value>
 </property>
 (2)regex-urlfilter.txt
 添加需要检索的url
 +^http://([a-z0-9]*\.)*nutch.apache.org/
(3)将修改后的文件放到NUTCH_HOME/runtime/deploy/nutch-*.job中

3.3、启动运行

 3.3.1 启动Hadoop

1.格式化namenode节点

bin/hadoop namenode –format

2.启动hadoop进程

bin/start-all.sh

启动成功后,可通过如下url查看NameNode和MapReduce运行状态

NameNode:http://master:50070/

MapReduce:http://master:50030/

3.向hdfs放入测试数据

$ bin/hadoop fs -put conf input

4.执行测试

$ bin/hadoop jar hadoop-examples-*.jar grep input output'dfs[a-z.]+'

5.关闭hadoop进程

bin/stop-all.sh

 3.3.2 运行Nutch

1启动前提:

(1).hadoop已成功启动

(2).将HADOOP_HOME/bin路径添加到环境变量中,以便Nutch找到hadoop命令

通过修改/etc/enviroment配置文件实现

(3)在控制台执行export JAVA_HOME=/PATH/TO/JAVA命令

 2向HDFS中存入待检索数据
 $ bin/hadoop fs -put urldir urldir
 注:第一个urldir为本地文件夹,存放了url数据文件,每行一个url
 第二个urldir为HDFS的存储路径
 3启动nutch命令
 在NUTCH_HONE/runtime/deploy目录下执行以下命令
 $ bin/nutch crawl urldir –dir crawl -depth 3 –topN 10
 命令成功执行后,会在HDFS中生成crawl目录
 注:一定要在deploy目录下执行该命令,在local目录下执行的是单机采集,而没有使用hadoop环境
分享到:
评论

相关推荐

    Hadoop-2.4.0+Hbase-0.94.18+Nutch-2.3集群爬虫配置攻略

    还需在`conf/hadoop-site.xml`中包含Hadoop的配置信息,以便Nutch能与Hadoop集群通信。如果要使用Hbase存储抓取的数据,还需要在Nutch的配置文件中添加Hbase的相关设置。 启动Nutch爬虫,可以使用`bin/nutch inject...

    hadoop入门-01-集群搭建.docx

    在一个典型的4节点Hadoop集群搭建示例中,分配如下: - hdp-cluster-01:NameNode和SecondaryNameNode - hdp-cluster-02:ResourceManager - hdp-cluster-03和hdp-cluster-04:DataNode和NodeManager 搭建过程涉及...

    《Hadoop平台技术》校内讲义 (集群搭建)-pdf.pdf

    《Hadoop平台技术》校内讲义专注于介绍大数据处理的核心技术——Hadoop,以及如何在实际环境中搭建Hadoop集群。这份讲义详细阐述了大数据的基本概念、Hadoop的概述及其运行环境的搭建步骤。 首先,大数据概论部分,...

    开发基于 Nutch 的集群式搜索引擎

    - 配置Hadoop环境,确保Nutch能够在Hadoop集群中正常工作。 - 设置主节点(RHAS 3.0)和从节点(Debian GNU/Linux 3.1)。 - 启动SSH服务。 3. **配置Nutch爬虫**: - 在Nutch配置文件中添加目标网站的URL。 -...

    搭建nutch web开发环境

    1. 在`conf`目录下,编辑`nutch-site.xml`配置文件,根据你的Hadoop集群设置相关参数,如`fs.defaultFS`、`mapreduce.framework.name`等。 2. 创建或修改`crawldb`、`segments`等目录路径,确保它们指向你的工作目录...

    hadoop+HBase教程

    了解如何在Hadoop集群上安装和配置HBase,以及如何将HBase作为数据存储层集成到Hadoop生态系统中。 6. 分布式存储系统的优化。针对不同的应用场景,例如海量数据处理、实时增量搜索、图形计算和交互式计算等,理解...

    用python + hadoop streaming 分布式编程(一) — 原理介绍,样例程序与本地调试

    Doug Cutting和Mike Cafarella在开发搜索引擎Nutch时对这两篇论文做了自己的实现,即同名的MapReduce和HDFS,合起来就是Hadoop。 MapReduce的Data flow如下图,原始数据经过mapper处理,再进行partition和sort,...

    一种基于Hadoop 的云计算平台搭建与性能

    Hadoop的开发始于2004年,由Doug Cutting领导的团队基于Lucene、Nutch等开源项目,实现了Google的GFS和Map-Reduce思想。Hadoop的第一版包括了Hadoop分布式文件系统(HDFS)和Map-Reduce计算模型,并在2005年实现了在...

    搭建nutch开发环境步骤

    如果你没有集群,可以使用Hadoop的本地模式。在Nutch目录下执行: ```bash hadoop version ``` 如果返回Hadoop版本信息,说明Hadoop已安装并配置成功。如果没有,需要安装Hadoop并配置`HADOOP_HOME`环境变量。 **...

    Nutch简要文档

    Nutch 与 Eclipse 结合开发时,通常需要先搭建 Hadoop 环境,因为 Nutch 基于 Hadoop 分布式计算框架,Hadoop 提供了数据存储和处理的能力。开发者需要了解 Hadoop 的基本命令和集群管理,确保 Nutch 在 Hadoop 上的...

    hadoop笔记2.pdf

    例如,在安装和配置Hadoop集群时,需要使用Linux命令进行环境设置,以及编写shell脚本来自动化管理任务。 在搭建Hadoop大数据平台时,通常会用到CentOS这个稳定的操作系统。在新建CentOS7虚拟机时,需要注意配置根...

    Nutch1.7二次开发培训讲义

    Hadoop集群搭建** - **目的:** 若计划在Hadoop集群上测试Nutch的功能,则需搭建Hadoop集群,可以选择伪分布模式或全分布模式。 - **共享:** 开发团队可以共用一个集群来降低成本和资源消耗。 #### 二、代码获取与...

    nutch网页爬取总结

    - **配置 Nutch 查询索引**:配置 Nutch 的 `conf/gora.properties` 和 `conf/hadoop-site.xml` 文件,以便连接到 Hadoop 集群(如果需要的话),并指定索引的存储位置。 **Nutch 爬取内容解析** 1. **Crawldb**...

    hadoop内部培训资料

    - **YARN**:Yet Another Resource Negotiator,资源调度器,管理Hadoop集群的计算资源分配。 4. **Hadoop的单机部署** - **目的**:学习和测试Hadoop环境,了解其工作原理。 - **先决条件**:需要安装Java运行...

    apache-nutch-1.5.1

    同时,你还需要了解Hadoop环境的搭建和管理,因为Nutch 的分布式处理特性依赖于Hadoop集群。 总的来说,Apache Nutch 1.5.1 是一个强大的工具,对于那些需要构建自定义搜索引擎或者需要对特定网站或领域进行深度...

    Hadoop快速入门

    - **技能要求**:Hadoop领域的职位通常要求掌握Hadoop集群搭建、HDFS原理与使用、MapReduce编程、Hive应用等方面的知识。 - **薪资水平**:大数据领域特别是Hadoop相关岗位的薪资普遍高于传统软件开发岗位。 #### ...

    hadoop入门学习文档

    此外,鉴于数据类型和数量的爆炸性增长,大数据领域的人才相对紧缺,特别是 Hadoop 分布式集群搭建、HDFS 和 MapReduce 使用等方面的专业人才尤为抢手。 #### Hadoop 在大数据、云计算中的位置和关系 - **云计算...

Global site tag (gtag.js) - Google Analytics