`

搜索引擎如何搜索互联网上的网页

 
阅读更多
先说说搜索引擎的原理吧。搜索引擎是把互联网上的网页内容存在自己的服务器上,当用户搜索某个词的时候,搜索引擎就会在自己的服务器上找相关的内容,这样就是说,只有保存在搜索引擎服务器上的网页才会被搜索到。哪些网页才能被保存到搜索引擎的服务器上呢?只有搜索引擎的网页抓取程序抓到的网页才会保存到搜索引擎的服务器上,这个网页抓取程序就是搜索引擎的蜘蛛.整个过程分为爬行和抓取。

  一、蜘蛛

  搜索引擎用来爬行和访问网站页面的程序被称为蜘蛛,也可称之为机器人。蜘蛛访问浏览器,就和我们平时上网一个样子,蜘蛛同样会申请访问,得到允许后才可以浏览,可是有一点,搜索引擎为了提高质量和速度,它会放很多蜘蛛一起去爬行和抓取。

  蜘蛛访问任何一个网站时,都会先去访问网站根目录下的robots.txt文件。如果robots.txt文件禁止搜索引擎抓取某些文件或目录,蜘蛛将遵守协议,不抓取被禁止的网址。

  和浏览器一样,搜索引擎蜘蛛也有表明自己身份的代理名称,站长可以在日志文件中看到搜索引擎的特定代理名称,从而辨识搜索引擎蜘蛛。

  二、跟踪链接

  为了抓取网上尽量多的页面,搜索引擎蜘蛛会跟踪页面上的链接,从一个页面爬到下一个页面,就好像蜘蛛在蜘蛛网上爬行一样。

  整个互联网是有相互链接的网站及页面组成的。当然,由于网站及页面链接结构异常复杂,蜘蛛需要采取一定的爬行策略才能遍历网上所有页面。

  最简单的爬行的策略有:深度优先和广度优先。

  1、深度链接

  深度优先指当蜘蛛发现一个链接时,它就会顺着这个链接指出的路一直向前爬行,直到前面再也没其他链接,这时就会返回第一个页面,然后会继续链接再一直往前爬行。

  2、广度链接

  从seo角度讲链接广度优先的意思是讲的蜘蛛在一个页面发现多个链接的时候,不是跟着一个链接一直向前,而是把页面上所有第一层链接都爬一遍,然后再沿着第二层页面上发现的链接爬向第三层页面。

  从理论上说,无论是深度优先还是广度优先,只要给蜘蛛足够的时间,都能爬完整个互联网。在实际工作中,没有什么东西是无限的,蜘蛛的带宽资源和蜘蛛的时间也是一样都是有限的,也不可能爬完所有页面。实际上最大的搜索引擎也只是爬行和收录了互联网的一小部分。

  3.吸引蜘蛛

  蜘蛛式不可能抓取所有的页面的,它只会抓取重要的页面,那么哪些页面被认为比较重要呢?有以下几点:

  (1)网站和页面权重

  (2)页面更新度

  (3)导入链接

  (4)与首页点击距离

  4.地址库

  搜索引擎会建立一个地址库,这么做可以很好的避免出现过多抓取或者反复抓取的现象,记录已经被发现还没有抓取的页面,以及已经被抓取的页面。

  地址库中的URL有以下几个来源:

  (1)人工录入的种子网站。

  (2)蜘蛛抓取页面后,从HTML中解析出新的链接URL,与地址库中的数据进行对比,如果是地址库中没有的网址,就存入待访问地址库。

  (3)搜索引擎自带的一种表格提供站长,方便站长提交网址。



分享到:
评论

相关推荐

    西南交大互联网搜索引擎课设

    1. **网页抓取**:这是搜索引擎的第一步,通过网络爬虫程序遍历互联网上的网页。学生需要学习如何编写爬虫,设置爬取策略,如深度优先或广度优先,以及如何处理URL队列和避免重复抓取。 2. **网页预处理**:预处理...

    西南交通大学 西南交大 互联网搜索引擎 作业\课设\项目

    本主题涉及的是“西南交通大学”的一项课程作业或项目,主要围绕“互联网搜索引擎”这一技术领域。这通常意味着学生们需要深入理解和实践搜索引擎的工作原理、算法以及相关技术,以便构建一个能够检索和处理互联网...

    互联网实时信息搜索引擎

    ### 互联网实时信息搜索引擎 ...综上所述,互联网实时信息搜索引擎针对传统搜索引擎的局限性提供了有效的解决方案,通过增强信息的时效性和提高检索结果的相关性,更好地服务于用户的个性化信息需求。

    综合搜索引擎与垂直搜索引擎的比较研究

    这些搜索引擎通常采用复杂的算法,抓取互联网上的大量网页,建立索引数据库,并使用网页排名技术向用户展示搜索结果。综合搜索引擎的信息处理能力较强,能够适应用户多样化的信息检索需求,但其劣势在于,由于覆盖面...

    [搜索链接]无极搜索引擎 v1.0_gss.zip

    1. **爬虫技术**:搜索引擎的第一步是收集互联网上的信息,这通常通过网络爬虫完成。无极搜索引擎可能会有一个智能爬虫系统,能够自动发现、下载并存储网页,以便后续处理。 2. **页面抓取与预处理**:抓取到的网页...

    互联网搜索引擎技术的发展

    总的来说,互联网搜索引擎技术的发展历程展示了从最初的文件名查找,到链接分析,再到算法优化和个性化推荐的演变。这一领域的发展不仅推动了信息获取的效率,也深刻影响了互联网的使用方式,为用户带来了更加便捷的...

    百度搜索引擎网页质量白皮书

    白皮书从互联网网页资源的现状出发,详细阐述了网页质量对于搜索引擎结果排序的重要性,并提出了提升网页质量的建议,以此推动互联网生态的健康发展。 首先,白皮书明确指出网页质量的重要性。网页质量是一个网站...

    爬虫搜索,简单的搜索引擎,java爬虫,搜索引擎例子,爬虫demo,java实现互联网内容抓取,搜索引擎大揭密

    在IT领域,爬虫搜索和搜索引擎是至关重要的技术,它们为获取、整理和提供网络上的海量信息提供了有效手段。本文将深入探讨这些概念,并通过一个简单的Java爬虫程序实例进行说明。 首先,让我们理解什么是爬虫。爬虫...

    搜索引擎以及网上免费学术资源的检索

    搜索引擎主要以网页索引数据库为基础,对搜集到的信息进行排序和展示,而不能真正理解网页上的内容,仅能进行文字的机械匹配。搜索引擎的工作原理可概括为四个步骤:爬行、抓取存储、预处理和排名。 爬行是指搜索...

    互联网搜索引擎PPT完整版

    随着互联网上多媒体内容的爆炸性增长,搜索引擎不再局限于文本搜索。多媒体搜索涉及到图像、音频、视频等非结构化数据的检索。这需要开发新的索引和匹配技术,如图像特征提取、语音识别和视频内容分析。这些技术使得...

    章鱼搜索 搜索引擎

    章鱼搜索从BT网络里收录了互联网中海量的电影,音乐,游戏,书籍等资源,允许用户对资源进行预览和试看,是史上最强的资源搜索引擎工具,没有之一。

    Google搜索引擎

    谷歌搜索引擎是全球最知名的互联网搜索工具,由谷歌公司开发并运营。它以其高效、准确的搜索结果和先进的算法技术闻名于世。谷歌搜索引擎不仅为用户提供网页搜索,还包括图片、视频、地图、学术等多种搜索功能,满足...

    搜索引擎基本工作原理.pdf

    搜索引擎是互联网上获取信息的关键工具,其基本工作原理主要包括三个主要步骤:抓取网页、处理网页和提供检索服务。搜索引擎的爬虫程序(Spider)通过网络中的超链接不断抓取网页,形成网页快照。抓取过程中,搜索...

    搜索引擎源代码中国搜搜索引擎

    搜索引擎是互联网上用于查找信息的核心技术,其核心在于通过复杂的算法和数据处理,为用户提供最相关、最准确的搜索结果。"中国搜搜索引擎"是针对中文用户设计的一种搜索引擎,旨在提供高效、精准的中文搜索服务。在...

    搜索引擎-基于网页自动分类的搜索引擎研究.pdf

    《搜索引擎-基于网页自动分类的搜索引擎研究》的讨论主要集中在搜索引擎的发展、功能以及历史上的一些著名搜索引擎。搜索引擎在解决互联网信息爆炸性增长带来的信息检索难题上起到了关键作用。 搜索引擎的主要功能...

    国外搜索引擎

    ”这一描述可能指的是全球范围内用于信息检索的非本土搜索引擎,这些搜索引擎通常具有广泛的数据索引、多语言支持以及高级搜索功能,为用户提供全球互联网上的信息查找服务。 【知识点详解】 1. **搜索引擎的基本...

    各大搜索引擎提交入口

    总之,了解并正确使用各大搜索引擎的提交入口是网站推广和SEO工作的重要一环,它有助于网站更快地融入互联网的大环境中,增加网站的可见性和影响力。同时,也要注重网站的内部优化和用户体验,以维持长期的搜索引擎...

    国外搜索引擎大全!!!

    搜索引擎是互联网上用于寻找信息、网站、文件等各类资源的重要工具。它们通过爬取、索引和排名网络上的网页,帮助用户快速、有效地找到所需内容。本篇文章将详细探讨一些知名的国外搜索引擎,包括其特点和使用场景。...

Global site tag (gtag.js) - Google Analytics