`
lzj0470
  • 浏览: 1272695 次
  • 性别: Icon_minigender_1
  • 来自: 深圳
社区版块
存档分类
最新评论

数学之美系列一:图论和网络爬虫 (Web Crawlers)

阅读更多

数学之美系列一:图论和网络爬虫 (Web Crawlers)

      建立一个搜索引擎大致需要做这样几件事:自动下载尽可能多的网页;建立快速有效的索引;根据相关性对网页进行公平准确的排序。
数学之美系列一:图论和网络爬虫 (Web Crawlers)
    如何自动下载互联网所有的网页呢,它要用到图论中的遍历(Traverse) 算法。
    图论中所讨论的的图由一些节点和连接这些节点的弧组成。如果把中国的城市当成节点,连接城市的国道当成弧,那么全国的公路干线网就是图论中所说的图。关于图的算法有很多,但最重要的是图的遍历算法,也就是如何通过弧访问图的各个节点。以中国公路网为例,从北京出发,看一看北京和哪些城市直接相连,比如说和天津、济南、石家庄、南京、沈阳、大同直接相连。可以依次访问这些城市,然后看看都有哪些城市和这些已经访问过的城市相连,比如说北戴河、秦皇岛与天津相连,青岛、烟台和济南相连,太原、郑州和石家庄相连等等,再一次访问北戴河这些城市,直到中国所有的城市都访问过一遍为止。这种图的遍历算法称为“广度优先算法”(BFS),因为它先要尽可能广地访问每个节点所直接连接的其他节点。另外还有一种策略是从北京出发,随便找到下一个要访问的城市,比如是济南,然后从济南出发到下一个城市,比如说南京,再访问从南京出发的城市,一直走到头。然后再往回找,看看中间是否有尚未访问的城市。这种方法叫“深度优先算法”(DFS),因为它是一条路走到黑。这两种方法都可以保证访问到全部的城市。当然,不论采用哪种方法,都应该用一个小本本,记录已经访问过的城市,以防同一个城市访问多次或者漏掉哪个城市。
    现在看看图论的遍历算法和搜索引擎的关系。互联网其实就是一张大图,可以把每一个网页当作一个节点,把那些超链接(Hyperlinks)当作连接网页的弧。很多读者可能已经注意到,网页中那些蓝色的、带有下划线的文字背后其实藏着对应的网址,当点下去的的时候,浏览器是通过这些隐含的网址转到相应的网页中的。这些隐含在文字背后的网址称为“超链接”。有了超链接,可以从任何一个网页出发,用图的遍历算法,自动地访问到每一个网页并把它们存起来。完成这个功能的程序叫做网络爬虫,或者在一些文献中称为"机器人"。世界上第一个网络爬虫是由麻省理工学院 的学生马休.格雷在 1993 年写成的。他给他的程序起了个名字叫“互联网漫游者”("www wanderer")。以后的网络爬虫越写越复杂,但原理是一样的。
    我们来看看网络爬虫如何下载整个互联网。假定我们从一家门户网站的首页出发,先下载这个网页,然后通过分析这个网页,可以找到藏在它里面的所有超链接,也就等于知道了这家门户网站首页所直接连接的全部网页,诸如雅虎邮件、雅虎财经、雅虎新闻等等。我们接下来访问、下载并分析这家门户网站的邮件等网页,又能找到其他相连的网页。我们让计算机不停地做下去,就能下载整个的互联网。当然,我们也要记载哪个网页下载过了,以免重复。在网络爬虫中,我们使用一个称为“哈希表”(Hash Table)的列表而不是一个记事本纪录网页是否下载过的信息。
    现在的互联网非常巨大,不可能通过一台或几台计算机服务器就能完成下载任务。比如雅虎公司宣称他们索引了 200 亿个网页,假如下载一个网页需要一秒钟,下载这 200 亿个网页则需要 634 年。因此,一个商业的网络爬虫需要有成千上万个服务器,并且由快速网络连接起来。如何建立这样复杂的网络系统,如何协调这些服务器的任务,就是网络设计和程序设计的艺术了。
分享到:
评论

相关推荐

    Python 网络爬虫(Web Crawlers)学习笔记。.zip

    爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于网络数据抓取的场景。 爬虫的...

    数学之美系列完整版.doc

    **图论**在网络爬虫(Web Crawlers)中用于理解互联网的拓扑结构,有效地抓取和组织网页。 **最大熵模型**避免过拟合,通过最大化熵来平衡模型复杂性和数据不确定性。 **贝叶斯网络**是一种概率图模型,常用于处理...

    网络爬虫说明文档

    #### 知识点一:网络爬虫(Web Crawlers)的定义与作用 网络爬虫,又称为网页蜘蛛或自动索引器,是一种自动化程序,用于遍历互联网上的网页并收集信息。其核心功能在于探索和抓取网络上公开可访问的网页内容,为...

    爬虫论文爬虫论文爬虫论文爬虫论文爬虫论文爬虫论文爬虫论文爬虫论文

    **爬虫(Web Crawlers)**是互联网数据抓取的重要工具,也被称为Web蜘蛛或机器人。它们用于自动下载互联网上的文档,是搜索引擎等系统的基础组件。 **传统广度优先爬取方法(TBFC)**是最常见的爬虫策略之一,通常...

    spidey-web-crawlers:Ruby 中的网络爬虫

    标题"spidey-web-crawlers:Ruby 中的网络爬虫"表明这个项目是关于使用Ruby编程语言实现的网络爬虫工具。"Spider"通常指的是网络爬虫,因为它们在网络间“爬行”抓取数据,而"Spidey"可能是一个昵称或对这种爬虫的...

    java实现的搜索引擎网络爬虫 使用了队列 重复爬取检测

    总之,通过以上介绍可以看出,这个基于Java实现的网络爬虫项目不仅涵盖了基本的爬虫功能,还采取了一系列有效的技术手段来优化性能和确保数据质量。在未来的发展中,还可以根据实际需求不断地对其进行扩展和完善。

    examples-of-web-crawlers-python爬虫资源

    python,,QQ(Some interesting examples of python crawlers that are friendly to beginners. )

    bank-crawlers-hapoalim:糟糕的 Hapoalim 帐户的糟糕爬虫

    Bank::Crawlers::Hapoalim (蹩脚的)Hapoalim 在线界面的(蹩脚的)爬虫。 安装 将此行添加到应用程序的 Gemfile 中: gem 'bank-crawlers-hapoalim' 然后执行: $ bundle 或者自己安装: $ gem install ...

    Web Crawling

    3. **主题爬虫**(Topical Crawlers):这是一种介于通用爬虫和聚焦爬虫之间的类型,它们会在特定主题范围内广泛抓取信息。 #### 六、爬虫伦理与冲突 随着爬虫技术的发展,它也引发了一些伦理和法律问题。例如,...

    course-crawlers:用于收集 UofT 课程数据的网络爬虫

    综上所述,"course-crawlers"是一个高效实用的工具,结合了网络爬虫技术与教育领域的具体需求,为获取和利用UofT课程数据提供了便利。其背后涉及的编程技巧、网页解析以及数据处理等知识点,对于IT从业者来说都是...

    爬虫学习资料

    爬虫(Crawlers),亦称网络蜘蛛(Web Spiders),是一种自动获取网页内容的程序或脚本。它通过模拟浏览器,向服务器发送请求并下载网页数据。爬虫的主要作用包括但不限于网络数据的抓取、搜索引擎内容更新、数据...

    Python爬虫基础知识

    在实际应用中,Python爬虫广泛应用于数据挖掘、市场调研等多个领域,成为数据获取的重要手段之一。 #### 二、关键技术栈 1. **编程语言**:Python是首选的编程语言,因为它拥有丰富的第三方库支持。 2. **核心库**...

    有趣的Python爬虫和Python数据分析小项目.zip

    有趣的Python爬虫和Python数据分析小项目(Some interesting Python crawlers and data analysis projects).zip 软件开发设计:应用软件开发、系统软件开发、移动应用开发、网站开发C++、Java、python、web、C#等语言...

    Python distributed crawler tutorial(Python分布式爬虫)

    通过使用Scrapy、Scrapy-Redis和Redis等技术工具,开发者可以轻松构建一个高效的分布式爬虫系统。 Python distributed web crawling is a method for improving data collection efficiency by sharing crawling ...

    有趣的Python爬虫和Python数据分析小项目(Some interesting Python crawlers and d

    有趣的Python爬虫和Python数据分析小项目(Some interesting Python crawlers and data analysis projects) 可以用Python实现的有趣的小项目,内容包括Python爬虫、Python数据分析、机器学习、深度学习等

    Web-Crawler:用Python编写的Web爬网程序模板

    总结起来,"Web-Crawler"模板提供了一个完整的Python网络爬虫框架,方便开发者快速搭建和定制自己的爬虫项目。通过学习和实践这个模板,你可以掌握网络爬虫的基本技能,并能应对各种数据抓取需求。同时,随着经验的...

Global site tag (gtag.js) - Google Analytics