网络蜘蛛(Web Spider),是通过网页的链接地址来寻找网页,从网站的某一个页面(通常是首页)开始,读取网页的内容,找到在网页中的其它链接地址,然后通过这些链接地址寻找下一个网页,这样一直循环下去,直到把这个网站所有的网页都抓取完为止。如果把整个互联网当成一个网站,那么网络蜘蛛就可以用这个原理把互联网上所有的网页都抓取下来。
对于搜索引擎来说,要抓取互联网上所有的网页几乎是不可能的,从目前公布的数据来看,容量最大的搜索引擎也不过是抓取了整个网页数量的百分之四十左右。这其中的原因一方面是抓取技术的瓶颈,无法遍历所有的网页,有许多网页无法从其它网页的链接中找到;另一个原因是存储技术和处理技术的问题。因此,许多搜索引擎的网络蜘蛛只是抓取那些重要的网页,而在抓取的时候评价重要性的主要依据之一是某个网页的链接深度。
在抓取网页的时候,网络蜘蛛一般有两种策略:广度优先和深度优先。广度优先是指网络蜘蛛会先抓取起始网页中链接的所有网页,然后再选择其中的一个链接网页,继续抓取在此网页中链接的所有网页。这是最常用的方式,因为这个方法可以让网络蜘蛛并行处理,提高其抓取速度。深度优先是指网络蜘蛛会从起始页开始,一个链接一个链接的跟踪下去,处理完这条线路之后再转入下一个起始页,继续跟踪链接。这种方法的优点是网络蜘蛛设计起来比较容易。
由于不可能抓取所有的网页,有些网络蜘蛛对一些不太重要的网站,设置了访问的层数。如果网络蜘蛛设置的访问层数为2的话,那么第3层的网页是不会被访问到的。这也是有些网站上一部分网页能够在搜索引擎上搜索到,另外一部分不能被搜索到的原因。对于网站设计者来说,扁平化的网站结构设计有助于搜索引擎抓取到我们更多的网页。
网络蜘蛛在访问网站网页的时候,经常会遇到加密数据和网页权限的问题,有些网页是需要会员权限才能访问的。这样就需要给网络蜘蛛提供相应的用户名和密码,网络蜘蛛可以通过所给的权限对这些网页进行抓取,从而提供搜索。而当搜索者点击查看该网页的时候,同样需要提供相应的权限验证。
每个网络蜘蛛都有自己的名字,在抓取网页的时候,都会向网站标明自己的身份。网络蜘蛛在抓取网页的时候会发送一个请求,这个请求中就有一个字段为User-Agent,用于标识此网络蜘蛛的身份。例如Google网络蜘蛛的标识为GoogleBot,Baidu网络蜘蛛的标识为BaiduSpider,Yahoo网络蜘蛛的标识为InktomiSlurp。如果在网站上有访问日志记录,网站管理员就能知道,哪些搜索引擎的网络蜘蛛来过,什么时候来的,以及读了多少数据等。
网络蜘蛛在下载网页的时候,会去识别网页的HTML代码,在其代码的部分,会有META标识。我们可以通过这些标识告诉网络蜘蛛本网页是否需要被抓取,本网页中的链接是否需要被继续跟踪等。
一般网站都希望搜索引擎能更全面的抓取自己网站的网页,因为这样可以让更多的访问者通过搜索引擎找到此网站。为了让本网站的网页能更全面的被抓取到,可以建立一个网站地图(Site Map)。许多网络蜘蛛会把sitemap.htm文件作为一个网站网页爬取的入口,我们可以把网站内所有网页的链接放在这个文件里,那么网络蜘蛛就可以很方便的把整个网站抓取下来,避免遗漏某些网页,也会减小对网站服务器的负担。
搜索引擎建立网页索引,处理的对象是文本文件。对于网络蜘蛛来说,抓取下来的网页包括各种格式,如html、图片、doc、pdf、多媒体、动态网页及其它格式等。这些文件被抓取下来后,需要把其中的文本信息提取出来。准确提取这些文档的信息,一方面对搜索引擎的搜索准确性有重要作用,另一方面对于网络蜘蛛正确跟踪其它链接也有一定影响。
对于doc、pdf等由专业厂商提供的软件生成的文档,厂商都会提供相应的文本提取接口。网络蜘蛛只需要调用这些插件的接口,就可以轻松的提取文档中的文本信息和文件其它相关的信息。
html文档不一样,它有一套自己的语法,通过不同的命令标识符来表示不同的字体、颜色、位置等版式,提取文本信息时需要把这些标识符都过滤掉。过滤标识符并非难事,因为这些标识符都有一定的规则,只要按照不同的标识符取得相应的信息即可。但在识别这些信息的时候,需要同步记录许多版式信息,例如文字的字体大小、是否是标题、是否是加粗显示、是否是页面关键词等,这些信息有助于计算词在网页中的重要程度。同时,对于html网页来说,除了标题和正文以外,会有许多广告链接及公共的频道链接,这些链接和文本正文一点关系也没有,在提取网页内容的时候,也需要过滤这些无用的链接。例如某个网站有“产品介绍”频道,因为导航条在网站内每个网页都有,若不过滤导航条链接,在搜索“产品介绍”的时候,则网站内每个网页都会被搜索到,这无疑会带来大量垃圾信息。过滤这些无效链接需要统计大量的网页结构规律,抽取一些共性,统一过滤;对于一些重要而结果特殊的网站,还需要个别处理。这就需要网络蜘蛛的设计要有一定的扩展性。
对于多媒体、图片等文件,一般是通过链接的锚文本和相关的文件注释来判断这些文件的内容。例如有一个链接文字为“张曼玉照片”,其链接指向一张jpg格式的图片,那么网络蜘蛛就知道这张图片的内容是“张曼玉的照片”。这样,在搜索“张曼玉”和“照片”的时候都能让搜索引擎找到这张图片。另外,许多多媒体文件中有文件属性,通过这些属性也可以更好的了解文件的内容。
动态网页一直是网络蜘蛛面临的难题。所谓动态网页,是相对于静态网页而言的,是由程序自动生成的页面,这样的好处是可以快速统一更改网页风格,也可以减少网页所占服务器的空间,但同时却给网络蜘蛛的抓取带来一些麻烦。由于开发语言的不断增多,动态网页的类型也越来越多,如asp、jsp、php等。这些类型的网页对于网络蜘蛛来说,可能还稍微容易一些。网络蜘蛛比较难于处理的是一些脚本语言(如vbscript和javascript)生成的网页,如果要完善的处理好这些网页,网络蜘蛛需要有自己的脚本解释程序。对于许多数据是放在数据库的网站,需要通过本网站的数据库搜索才能获得信息,这些给网络蜘蛛的抓取带来很大的困难。对于这类网站,如果我们希望这些数据能被搜索引擎搜索到,则需要提供一种可以遍历整个数据库内容的方法。
对于网页内容的提取,一直是网络蜘蛛的工项重要技术。整个系统一般采用插件的形式,通过一个插件管理程序,遇到不同格式的网页采用不同的插件处理。这种方式的好处在于扩充性好,以后每发现一种新的类型,就可以把其处理方式做成一个插件补充到插件管理程序中。
由于网站的内容经常变化,因此网络蜘蛛也需要不断的更新其抓取网页的内容,这就需要网络蜘蛛按照一定的周期去扫描网站,查看哪些页面是需要更新的,哪些页面是新增页面,哪些页面是已经过期的死链接。
搜索引擎的更新周期对搜索的查全率有很大影响。如果更新周期太长,则总会有一部分新生成的网页搜索不到;周期太短,技术实现上会有一定难度,而且会对带宽、服务器的资源都有很大消耗。搜索引擎的网络蜘蛛并不是对所有的网站都采用同一个周期进行更新,对于一些重要的更新量大的网站,更新的周期短,如有些新闻网站,几分钟就更新一次;相反对于一些不重要的网站,更新的周期就长,可能几个月才更新一次。
一般来说,网络蜘蛛在更新网站内容的时候,不用把网站网页重新抓取一遍,对于大部分的网页,只需要判断网页的属性(主要是日期),把得到的属性和上次抓取的属性相比较,如果一样则不用更新。
网络蜘蛛在搜索引擎中占有重要位置,对搜索引擎的查全、查准都有影响,决定了搜索引擎数据容量的大小,而且网络蜘蛛的好坏直接影响搜索结果页中的死链接(即链接所指向的网页已经不存在)的个数。目前如何发现更多的网页、如何正确提取网页内容、如果下载动态网页、如何提供抓取速度、如何识别网站里内容相同的网页等都是网络蜘蛛需要进一步改进的问题。
随着搜索经济的崛起,人们开始越加关注全球各大搜索引擎的性能、技术和日流量。作为企业,会根据搜索引擎的知名度及日流量来选择是否要投放广告等;作为网民,会根据搜索引擎的性能和技术来选择自己喜欢的查找资料;作为学者,会把有代表性的搜索引擎作为研究对象。
我们最关心的是如何让更多的网民知道自己的网站,进而获得更高的流量和知名度。这其中,搜索引擎已经为一个最重要的的宣传途径。一方面,搜索引擎会主动出击,寻找网络上的各种网页数据,并在后台按相关条件进行索引;另一方面,一些网站为了让自己的内容能够更多的通过搜索引擎向网民展示,开始对网站结构进行调整,其中包括扁平化结构设计、动态(网页)转静态(网页)、Site Map等。
搜索引擎一直专注于提升用户的体验度,用户体验度反映在三个方面:准、全、快,就是查准率、查全率和搜索速度(即搜索耗时)。其中最易达到的是搜索速度,因为对于搜索耗时在1秒以下的系统来说,访问者很难辨别其快慢,更何况还有网络速度的影响。因此,对搜索引擎的评价就集中在了前两者:准和全。中文搜索引擎的“准”,需要保证搜索的前几十条结果都和搜索词十分相关,这需由“分词技术”和“排序技术”来决定;中文搜索引擎的“全”则需保证不遗漏某些重要的结果,而且能找到最新的网页,这需要搜索引擎有一个强大的网页收集器,也就是我们说的“网络蜘蛛”,或叫“网络机器人”。
网络蜘蛛技术并不是一项十分高深的技术,但要做成一个强大的网络蜘蛛,却非易事。在目前磁盘容量已经不是瓶颈的时候,搜索引擎一直在扩大自己的网页数量。最大的搜索引擎从2002年的10亿网页增加到现在的近40亿网页;最近雅虎搜索引擎号称收录了45亿个网页;国内的中文搜索引擎百度的中文页面从两年前的七千万页增加到了现在的两亿多。据估计,整个互联网的网页数达到了100多亿,且每年还在快速增长。因此一个优秀的搜索引擎,需要不断的优化网络蜘蛛算法,提升性能。
由于效率的原因,搜索引擎不可能在搜索时实时去检查每个网页,而是需要把网页先抓取下来,按照关键词建立好索引,每次搜索的结果都会直接从搜索引擎建立好索引的数据库中查找,然后把结果返回给访问者。
网络蜘蛛是搜索引擎的核心,对其工作原理的研究是我们进行搜索引擎推广的基础。
相关推荐
搜索引擎蜘蛛算法与蜘蛛程序构架是搜索引擎工作的重要组成部分,它们负责在网络上爬行并抓取网页内容,以便搜索引擎能够建立索引并提供相关的搜索结果。网络蜘蛛,也称为Web爬虫,是一个自动遍历互联网的程序,它...
### 网络蜘蛛基本原理和算法 #### 引言 搜索引擎的核心竞争力在于提供高效、准确且全面的信息检索服务。为了实现这一目标,搜索引擎需要具备三项关键能力:查准率、查全率以及搜索速度。其中,搜索速度相对容易...
实验结果显示,与传统的“简单洪泛”算法相比,该算法在减少网络通信量和缩短搜索等待时间方面表现出明显的优势。 #### 五、结论与展望 综上所述,基于k-高频词主题相关性的搜索路由算法为提高P2P全文搜索引擎的...
本文将深入探讨“最新仿百度搜索引擎,带蜘蛛”这一主题,包括搜索引擎的基本原理、蜘蛛爬虫的工作方式,以及与百度搜索引擎的相似之处。 首先,搜索引擎的核心功能是为用户提供信息检索服务。它通过抓取、索引和...
在这个“搜索引擎-网络蜘蛛程序源代码”中,我们可以深入理解搜索引擎工作的关键技术,包括分词技术、排序技术和网络爬虫程序的设计与实现。 首先,分词技术是搜索引擎处理自然语言的基础步骤。在中文环境下,由于...
全文搜索引擎,如Google和百度,依赖于“网络机器人”或“网络蜘蛛”这种自动化软件。这些机器人通过互联网上的链接遍历各个网站,抓取网页内容。抓取的网页随后经过分析,根据预设的相关度算法建立索引,存入数据库...
搜索引擎排序算法的主要目标是根据用户的查询请求,从庞大的网络数据中筛选出最相关的网页,并按照相关性高低进行排序展示给用户。一个好的排序算法不仅能够提高用户体验,还能显著提升搜索引擎的价值。 #### 经典...
网络蜘蛛的工作流程通常包括以下几个步骤: 1. **启动**:从一个或多个种子网页开始,这些通常是已知的、重要的或者用户指定的网页。 2. **爬行**:使用两种主要策略——广度优先和深度优先来遍历网页。广度优先...
群体智能算法包括模拟蚁群的蚂蚁系统、鸟群的粒子群优化等,而【蜘蛛猴优化算法】(Spider Monkey Optimization,SMO)是这类算法的一个实例。 SMO 的设计灵感来源于【蜘蛛猴】的社会行为,特别是它们的【裂变融合...
"JAVA基于网络爬虫的搜索引擎设计与实现" 本文档主要讨论了基于Java的网络爬虫搜索引擎的设计和实现。以下是从该文档中提炼出的相关知识点: 一、搜索引擎概述 * 搜索引擎是指通过网络爬虫或蜘蛛来收集、处理和...
搜索引擎是互联网信息检索的核心工具,它们通过复杂的算法和技术,帮助用户在海量的网络数据中快速找到所需的信息。"非常强大的搜索引擎(带蜘蛛)VIP用户版"很可能是一款集成了高级搜索功能和定制服务的搜索引擎...
《搜索引擎原理、实践与应用》是一本深入探讨搜索引擎技术的权威资料,涵盖了从基础理论到实际操作的全方位知识。在互联网信息爆炸的时代,搜索引擎作为获取信息的重要工具,其工作原理和优化策略对于开发者、研究...
在这个主题中,我们将深入探讨搜索引擎的分析与程序设计,以及网络爬虫抓取URL的原理,这些内容都将基于C#编程语言进行讨论。 首先,搜索引擎的核心功能是索引和搜索网页。它的工作流程可以分为四个主要步骤:爬取...
### 捷联惯导算法与组合导航原理关键知识点概览 #### 一、绪论 - **捷联惯导算法简介**:捷联惯导系统(SINS)是一种利用惯性传感器(如加速度计和陀螺仪)直接安装在载体上的导航系统,通过数学模型计算出载体的姿态...
综上所述,捷联惯性导航与组合导航技术是一门包含多个重要知识点的综合性技术,它不仅包括了捷联惯导系统的基础算法,还有组合导航的卡尔曼滤波原理、姿态解算方法、误差分析和建模,以及算法的仿真验证等内容。...
标题中的“搜索引擎强引蜘蛛程序易语言”表明这是一个关于利用易语言编程实现搜索引擎优化(SEO)的技巧,尤其是针对搜索引擎爬虫(也称蜘蛛程序)的引导策略。易语言是一种中文编程语言,它以直观的汉字编程语法为...
搜索引擎是互联网信息获取的重要工具,其背后蕴含着复杂的科学原理和技术体系。本篇文章将深入探讨搜索引擎的原理、技术和系统,帮助你理解这些大型信息检索系统的运作机制。 首先,搜索引擎的基本工作流程可以概括...