`

关于开源的网络爬虫/网络蜘蛛larbin结构分析的一篇非常不错的文章

阅读更多

转自:http://blog.minidx.com/2009/01/01/1862.html

By Minidxer | January 1, 2009

 

larbin是一种开源的网络爬虫/网络蜘蛛,由法国的年轻人 Sébastien Ailleret独立开发。larbin目的是能够跟踪页面的url进行扩展的抓取,最后为搜索引擎提供广泛的数据来源。Larbin只是一个爬虫,也就 是说larbin只抓取网页,至于如何parse的事情则由用户自己完成。另外,如何存储到数据库以及建立索引的事情 larbin也不提供。一个简单的larbin的爬虫可以每天获取500万的网页。
利用larbin,我们可以轻易的获取/确定单个网站的所有联结,甚至可以镜像一个网站;也可以用它建立url 列表群,例如针对所有的网页进行 url retrive后,进行xml的联结的获取。或者是 mp3,或者定制larbin,可以作为搜索引擎的信息的来源。

不过它的最大的亮点还是开源,相信很多人拿到larbin源代码的时候会感觉无从入手,下面是一篇非常不错的开源的网络爬虫/网络蜘蛛larbin结构分析的文章,有兴趣的最好仔细阅读尝试一下。

互联网是一个庞大的非结构化的数据库,将数据有效的检索并组织呈现出来有着巨大的应用前景,尤其是类似RSS的以XML为基础的结构化的数据越来越 多,内容的组织方式越来越灵活,检索组织并呈现会有着越来越广泛的应用范围,同时在时效性和可读性上也会有越来越高的要求。这一切的基础是爬虫,信息的来 源入口。一个高效,灵活可扩展的爬虫对以上应用都有着无可替代的重要意义。

要设计一个爬虫,首先需要考虑的效率。对于网络而言,基于TCP/IP的通信编程有几种方法。

第一种是单线程阻塞,这是最简单也最容易实现的一种,一个例子:在Shell中通过curl,pcregrep等一系统命令可以直接实现一个简单的 爬虫,但同时它的效率问题也显而易见:由于是阻塞方式读取,dns解析,建立连接,写入请求,读取结果这些步骤上都会产生时间的延迟,从而无法有效的利用 服务器的全部资源。

第二种是多线程阻塞。建立多个阻塞的线程,分别请求不同的url。相对于第一种方法,它可以更有效的利用机器的资源,特别是网络资源,因为无数线程 在同时工作,所以网络会比较充分的利用,但同时对机器CPU资源的消耗也是比较大,在用户级多线程间的频繁切换对于性能的影响已经值得我们考虑。

第三种是单线程非阻塞。这是目前使用的比较多的一种做法,无论在client还是server都有着广泛的应用。在一个线程内打开多个非阻塞的连 接,通过poll/epoll /select对连接状态进行判断,在第一时间响应请求,不但充分利用了网络资源,同时也将本机CPU资源的消耗降至最低。这种方法需要对dns请求,连 接,读写操作都采用异步非阻塞操作,其中第一种比较复杂,可以采用adns作为解决方案,后面三个操作相对简单可以直接在程序内实现。

效率问题解决后就需要考虑具体的设计问题了。

url肯定需要一个单独的类进行处理,包括显示,分析url,得到主机,端口,文件数据。

然后需要对url进行排重,需要一个比较大的url Hash表。

如果还要对网页内容进行排重,则还需要一个Document Hash表。

爬过的url需要记录下来,由于量比较大,我们将它写到磁盘上,所以还需要一个FIFO的类(记作urlsDisk)。

现在需要爬的url同样需要一个FIFO类来处理,重新开始时,url会从定时从爬过的url FIFO里取出来,写到这个FIFO里。正在运行的爬虫需要从这个FIFO里读数据出来,加入到主机类的url列表里。当然,也会从前一个FIFO里直接 读url出来,不过优先级应该比这个里面出来的url低,毕竟是已经爬过的。

爬虫一般是对多个网站进行爬取,但在同时站点内dns的请求可以只做一次,这就需要将主机名独立于url,单独有一个类进行处理。

主机名解析完成后需要有一个解析完成的IP类与之应用,用于connect的时候使用。

HTML文档的解析类也要有一个,用来分析网页,取出里面的url,加入到urlsDisk。

再加上一些字符串,调度类,一个简单的爬虫基本上就完成了。
以上基本上是Larbin的设计思路,Larbin在具体实现上还有一些特殊的处理,例如带了一个webserver,以及对特殊文件的处理。 Larbin有一点设计不不太好,就是慢的访问会越来越多,占用大量的连接,需要改进,另外如果对于大规模的爬虫,这仅仅实现了抓取的部分,要分布式的扩 展还需要增加url的集中管理与调度以及前台spider的分布式算法。
Larbin网站爬虫简明使用说明
larbin是一种爬虫工具,我也是前段时间网上看到 Larbin 一种高效的搜索引擎爬虫工具 一文时才知道有这么个东西,初步认定,我比较喜欢这个工具(比起nutch的crawl来说),因为它是C++写的,类似C嘛,我熟,可以自己改改,顺便 学习一下C++(几年来的经验告诉我说:改别人的东西来学一种技术比从头写helloworld快很多)。于是开始了我艰辛的larbin试用之旅。

  回头看看自己遇到的问题都是由于没认真看文档引起的,唉,老毛病了。下次即使是E文的也得好好看,不能盲目的试,浪费时间。

  larbin官方地址:http://larbin.sourceforge.net/index-eng.html

一,编译

  这也好说,whahahaha,那是!因为从官方网站下下来的代码不能编译通过(linux gcc下)

  ./configure

  make
  gcc -O3 -Wall -D_REENTRANT -c -o parse.o parse.c

  parse.c:115: error: conflicting types for ’adns__parse_domain’

  internal.h:571: error: previous declaration of ’adns__parse_domain’ was here

  parse.c:115: error: conflicting types for ’adns__parse_domain’

  internal.h:571: error: previous declaration of ’adns__parse_domain’ was here

  gmake[1]: *** [parse.o] 错误 1

  gmake[1]: Leaving directory `/home/leo/leo/larbin-2.6.3/adns’

  make: *** [all] 错误 2

  函数原型和定义不一致这个好改:

  打开./adns/internal.h文件,把568-571行直接注释掉就行了。
二,运行

  这个就不说了,./larbin就运行了,larbin.conf中先进行配置就可以了,这个配置就不说了。。

  运行后可以http://host:8081 看运行状态,不错的想法。 larbin.conf中有个:inputPort 1976配置,就是可以运行时增加要抓取的URL,这个想法非常好,可是?怎么加呢?象起初那样:http://host:1976那样是不行的,报 错???试了好久没结果,最后GDB跟踪了一下,唉,原来直接telnet host 1976进行增加就可以了。后来看到文档里写的亲亲楚楚,晕倒。。。。。

三,结果

  哈哈,下班后找了台机子跑了起来,那晚睡觉的时候都梦见自己的搜索引擎赶GOOGLE超BAIDU了,那个兴奋啊。

  第二天上班的时候取看结果,发现目录下除了些fifo*文件外什么都没有,那个郁闷。没办法啊,再看文档 How to customize Larbin 发现这么段说明:

  The first thing you can define is the module you want to use for ouput. This defines what you want to do with the pages larbin gets. Here are the different options :

  DEFAULT_OUTPUT : This module mainly does nothing, except statistics.

  SIMPLE_SAVE : This module saves pages on disk. It stores 2000 files per directory (with an index).

  MIRROR_SAVE : This module saves pages on disk with the hierarchy of the site they come from. It uses one directory per site.

  STATS_OUTPUT : This modules makes some stats on the pages. In order to see the results, see http://localhost:8081/output.html.

  靠,默认什么都没输出,于是认真的看了官方网站上仅有的两个文档,修改了options.h再编译,终于有结果了。

  我的option中改了:

  SIMPLE_SAVE 简单输出一个目录两千个文件,包含索引。

  CGILEVEL=0 处理服务器端程序,也就是但url中包含? & = 之类的querString时也处理。

  NO_DUP

  其余可根据各自需要修改,详见: How to customize Larbin 一文。

四,问题

  在使用过程中发现,在抓网页的时候,如果URL中包含未编码(encodurl)中文时,无法抓取,简单的看了一下在: src/utils/url.cc中的fileNormalize 有涉及。于是写了个encodurl函数加在url类的构造函数里,问题就解决了。

  由于需要比较好的可定制性,这个工具似乎还不大满足我的需求,最终我没使用她,而是自己用perl在WWW:SimpleRobot的基础上搞了个适合我的。。再说了perl在字符窜处理上应该不比C++慢,总的来说那个小工具性能还不错。。呵呵。

  不过还是把这些写出来,给没看文档的朋友(希望很少),也警示自己一定要认真看文档

<!-- for paginate posts--> <!-- Google Adsense Begin -->
分享到:
评论

相关推荐

    larbin源码 c++的网络爬虫

    网络爬虫,也称为网络蜘蛛或Web爬虫,是一种自动化程序,它遍历互联网并收集网页信息。爬虫通过跟踪网页上的超链接来发现新的页面,并将这些页面的内容下载到本地以供进一步处理。在这个过程中,爬虫通常遵循一些...

    larbin-高效网络爬虫

    larbin是一个高效且开源的网络爬虫,主要用于Linux操作系统。这个工具在互联网数据抓取领域中具有显著的地位,尽管随着时间的推移,它的使用可能已被其他更现代的爬虫如Nutch所取代,但larbin在爬虫设计上的独到之处...

    larbin2.6.3爬虫程序

    `larbin` 是一款开源的网络爬虫软件,主要用于抓取互联网上的网页内容。版本2.6.3是其在某个时间点的稳定版本,修复了之前版本可能存在的错误,保证了在Ubuntu操作系统下的正常运行。这个爬虫程序设计简单,适合初学...

    larbin 网络爬虫

    larbin是一款强大的、开源的网络爬虫软件,它主要用于抓取互联网上的网页信息。在互联网大数据的时代,网络爬虫扮演着至关重要的角色,larbin因其简单易用和高效的特点,成为了许多数据挖掘者和研究人员的选择。 ##...

    网络爬虫larbin

    larbin是一款经典的网络爬虫,它以其高效和易用性在开源社区中广受好评。 **larbin的核心特性** 1. **异步域名解析(ASDN)**:larbin采用了ASDN(Asynchronous DNS Name Resolution)技术,意味着在解析域名时,...

    larbin网络爬虫的体系结构[参照].pdf

    larbin是一款开源的、高效的Web爬虫软件,主要用于抓取互联网上的网页数据。它的设计目标是快速、可扩展,并且能够处理大量的URL。larbin由孟时和王彦等人开发,它在哈尔滨工业大学计算机科学与技术学院进行研究和...

    网络蜘蛛Larbin的设计和优化.kdh

    网络蜘蛛Larbin的设计和优化,Larbin是利用c++开发的一种网络爬 虫,由法国人Sebastien Ailleret发布,因此 它是开源的(基于GPL标准)。Larbin最初 开发出来是为了XYLEME工程。Larbin的 目的是在网络上抓取xml页面,然后...

    larbin源代码

    larbin是一种开源的网络爬虫/网络蜘蛛,由法国的年轻人 Sébastien Ailleret独立开发。larbin目的是能够跟踪页面的url进行扩展的抓取,最后为搜索引擎提供广泛的数据来源。 larbin是一个被广大搜索引擎爱好者应当...

    网络爬虫调研报告.doc

    Larbin 开发语言:C++ 简介 larbin是一种开源的网络爬虫/网络蜘蛛,由法国的年轻人 Sébastien Ailleret独立开发。larbin目的是能够跟踪页面的url进行扩展的抓取,最后为搜索引擎 提供广泛的数据来源。 Larbin只是...

    larbin源码分析全解

    Larbin是一款流行的开源网络爬虫程序,它被设计用于从网络上抓取信息。本篇文章将对Larbin的源码进行深入的分析,重点关注global文件中的结构体Connexion,这是连接服务器操作的核心组件。通过对Connexion结构体的...

    著名的网络爬虫程序+源代码

    Larbin是一款开源、高效、可配置的网络爬虫,由C语言编写,适用于大规模网页抓取。它能够并行抓取网页,具有良好的扩展性和性能。Larbin的特点包括: 1. **多线程**:Larbin利用多线程技术,能够在同一时间处理多个...

    larbin开源代码

    larbin是一个开源的网络爬虫工具,主要用于在Linux环境下抓取互联网上的资源。它的设计目标是高效、灵活,并且易于使用。larbin以其强大的抓取能力和对多种网络环境的适应性获得了广泛的认可。此工具能够帮助用户...

    larbin-2.6.3

    【larbin-2.6.3】是一款开源的网络爬虫软件,由一位国外开发者创建。这个项目在互联网上广泛传播,为其他开发者提供了一个学习和研究网络爬虫技术的平台,具有一定的教学和实践价值。它展示了如何设计并实现一个能够...

    Larbin

    Larbin 是一个开源的、高度可配置的网络爬虫软件,主要用于在网络中抓取网页内容。它能够遍历互联网上的链接,收集网页信息,为数据分析、搜索引擎索引或其他相关应用提供原始数据。Larbin 的设计目标是高效、快速地...

    从Larbin看互联网爬虫设计

    Larbin是一个开源的网络爬虫项目,其设计思路体现了爬虫开发中的关键要素。 **1. 效率优化** 在设计爬虫时,首要考虑的是效率。Larbin提供了三种不同的网络通信策略: - **单线程阻塞**:这是最基础的方法,但...

    网络爬虫调研报告样本.doc

    2. **Larbin**:用C++编写,是一个轻量级的网络爬虫,专注于URL扩展抓取,适用于构建搜索引擎的数据源。Larbin仅负责抓取网页,解析和索引工作需要用户自行处理。 3. **Heritrix**:同样基于Java,与Nutch类似,是...

    几个C++网络蜘蛛

    "Methanol" 和 "Larbin" 是两个著名的开源C++网络蜘蛛项目。它们都是用C++编写,设计用于高效、灵活地抓取和处理网络上的信息。 Methanol网络蜘蛛: Methanol是一款现代、高效的网络爬虫,它的设计目标是提供一种...

    网络爬虫设计与实现毕业设计论文.pdf

    9. 技术参考文献:文档中提及了多篇关于网络爬虫技术和搜索引擎的参考文献,例如Sergey Brin和Lawrence Page撰写的关于大规模超文本网络搜索引擎的论文,以及Wisenut关于搜索引擎的白皮书。这些文献为网络爬虫的设计...

    分布式网络爬虫关键技术分析与实现.docx

    最后,开源的网络爬虫项目如Larbin、Nutch和Heritrix提供了基础框架,但构建自定义爬虫仍需要解决特定场景下的问题,如上述的调度、更新和存储策略。 总之,分布式网络爬虫是处理海量互联网信息的有效手段,其设计...

Global site tag (gtag.js) - Google Analytics