`
Ryee
  • 浏览: 284988 次
  • 性别: Icon_minigender_1
  • 来自: 上海
社区版块
存档分类
最新评论

爬虫访问优先级别与索引逻辑(爬虫更新频率)

阅读更多
众所周知,搜索引擎爬虫对页面的更新频率主要依靠链接的广泛度(流行度)来判断的,也就是说那些有较多外链和内链的页面会有较高的更新频率。
* 首页通常有最多的外链
* 其次是产品分类,二级分类 到三级分类等逐级衰减
* 最后在内容或产品页面会获得很少的关注

所以网站的架构决定了,爬虫索引的优先级别。下图是一个经典的网站结构层级



重要页面获得优先索引,这在算法上市非常友好的。



紫色节点是最重要的,我们可以看到这也是首要的入口。其下面页面通过它来逐级传递因为这种路径结构决定了搜索引擎的爬虫路径,必然越向下级的页面将获得很少的关注和索引机会。

例如分类站点,他包含了很多的内容如同上图一样有主要的分类,子分类和搜索结果页面等等。这些页面较主页有较低的权重,但他们的索引结果影响到其他的内容-detail信息、广告等。这些重要的页面却起源于List,而且在list上展现的广告相比list本身又是很少更新的。

国外的测试研究,通过有分类和没有分类的类目页面对比索引量,该索引量通过两种方式获得,1)site命令 2)Google Webmaster Tools(GWT) 结果如图:



我们看到的结论是什么?
1、 页面数量越多,收录的可能性越低;
2、 Site命令和GWT的数值有较大的偏差,但总体趋势相同;
3、 对于翻页后的收录量大致按页衰减1.2-1.3%/page

1 2 3 4 5 .....>>

衰减是否按照顺序和入口机会来很衡量的。很简单他们又做了改进测试;
改进方案:
1 2 3 4 5 ... 10  ...15  .....>>


一个月后观察到结果是



说明,页面收录的机会是相等的。新增页面的入口并没有给相邻的页面带来权重的提高也就是说爬虫并不是严格按照结构顺序索引的。

越多的页面链接指向list,他们将会获得较好的收录和索引机会;
页面距离入口地址越远,收录的机会越小。建议不要创建过深的网站结构,页面间的关联会提升入口的索引优先。

  • 大小: 32.7 KB
  • 大小: 32.3 KB
  • 大小: 17.1 KB
  • 大小: 15.4 KB
分享到:
评论

相关推荐

    自己动手写网络爬虫

    - **反爬虫策略**:网站通常会采取限制IP访问频率、验证码等方式防止爬虫。应对策略包括使用代理IP池、模拟真实用户行为等。 - **数据清洗**:爬取的数据可能存在格式不一致、缺失值等问题。需要通过正则表达式、...

    网络爬虫源代码

    《网络爬虫源代码解析与实现》 网络爬虫,又称网页蜘蛛,是互联网上的一种自动化程序,用于遍历Web并抓取信息。本篇将深入解析提供的网络爬虫源代码,了解其基本架构和主要功能。 首先,我们看到一个名为`Spider`...

    更新给出selenium库的爬虫,效率很高,且能直接用.zip

    遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施...

    基于Python的网络爬虫技术_钱程

    在实际的网络爬虫实现过程中,还需注意遵守目标网站的robots.txt规则,合理控制爬取频率防止对网站造成过大的访问压力,并处理可能出现的反爬虫策略。 总结来说,基于Python的网络爬虫技术具有实现简单、运行高效、...

    基于Python的网络爬虫-开题报告.docx

    2. **登录与验证码**:很多网站需要用户登录后才能访问特定内容,爬虫需要模拟用户登录过程,包括处理验证码。验证码的识别可以借助OCR技术或人工打码服务。 3. **聚焦爬虫**:通用搜索引擎可能无法满足特定领域的...

    C#版本的网络爬虫,抓取网络资源

    - **IP限制与代理**:有些网站会限制同一个IP地址的访问频率,这时可以考虑使用代理服务器来避免被封禁。 - **遵守robots.txt**:尊重网站的robots.txt协议,不抓取禁止抓取的页面。 - **数据清洗与存储**:抓取的...

    使用C++语言编写的搜索引擎爬虫源码

    在搜索引擎构建中,爬虫是至关重要的组成部分,因为它负责获取并更新网络上的大量数据,供搜索引擎索引和检索。 描述中的“网络爬虫 网络爬虫”重复强调了这一主题,暗示了这个源码可能包含有关如何设计和实现一个...

    java写的搜索引擎网络爬虫源码

    - 为了应对网站的反爬机制,Java爬虫可能需要实现模拟登录、设置User-Agent、控制请求频率、处理验证码等功能。 8. **异常处理与错误恢复**: - 网络爬虫在运行过程中可能会遇到各种问题,如超时、连接失败、...

    基于P2P的分布式主题爬虫系统的设计与实现

    3. **资源共享与负载均衡**:爬虫系统之间的资源共享不仅可以减少重复工作,降低网络负载,还能提高信息更新频率,而不会对网络造成额外负担。 4. **动态扩展与容错机制**:系统设计需考虑节点的动态变化,包括节点...

    ASP源码—陌落搜索引擎爬虫 WAP搜索.zip

    7. **延迟与速率控制**:为了避免对目标网站造成过大的压力,爬虫需要控制请求的频率,实现延时和速率限制。 8. **异常处理与错误恢复**:良好的错误处理机制可以确保爬虫在遇到问题时能够恢复并继续运行。 9. **...

    etao爬虫抓取系统的那些事

    ### etao爬虫抓取系统的关键知识点 ...通过对上述知识点的深入探讨,我们可以更全面地理解etao爬虫抓取系统的构建逻辑和技术挑战。在未来的发展中,持续的技术创新和合规性将是推动爬虫系统进步的关键因素。

    爬虫开发常见面试题.pdf

    - 搜索引擎优化:帮助搜索引擎快速更新和扩充索引库。 - 竞品分析:企业可利用爬虫获取竞品的信息,进行市场分析。 - 监控与报警:实时监测特定信息的变化,并及时通知用户。 #### 2. 请简要介绍一下爬虫开发的...

    网站怎样获得高效的索引.pptx

    信息更新频率会影响搜索引擎爬虫的爬行习惯,频繁更新的网站会得到更频繁的爬取。 6. **链接策略**:内链应构建有逻辑的语义关联,如正文关键词链接、辅助导航和Tag标签关联。同时,优质的外部链接,特别是来自原创...

    基于java httpparser实现的一个网络爬虫.zip

    - **更新与维护**:随着时间推移,网站结构可能会变化,爬虫需要具备一定的适应性。 通过深入理解HTTP协议、HTTPParser库的使用以及网络爬虫的基本原理,我们可以更好地分析和改进这个基于Java的网络爬虫项目。

    C++ 高性能爬虫代码,带UI

    2. **网络爬虫**:网络爬虫,也称为网页蜘蛛或网络机器人,是一种自动遍历和索引互联网上信息的程序。它通过模拟浏览器的行为,发送HTTP请求获取网页内容,并解析这些内容以提取所需的数据。在本项目中,C++爬虫可能...

    基于python开发的论文爬虫搜索引擎

    此外,为了确保爬虫的运行效率和网站的友好性,通常还需要设置合理的爬取频率和遵循robots.txt规则。 【标签】 1. **搜索引擎**:这是系统的核心功能,负责处理用户输入的查询,对比数据库中的论文信息,返回最相关...

    ASP源码—炒股资讯ASP爬虫伪静态采集程序 v1.zip

    在这个程序中,ASP被用来创建和运行爬虫逻辑以及生成伪静态页面。 2. **爬虫技术**: 爬虫是一种自动化程序,能够遍历互联网上的网页,抓取所需信息。在这个特定的源码中,爬虫部分负责定期访问股票资讯网站,收集...

    爬虫程序开发指南(java)

    爬虫程序是一种自动抓取互联网页面信息的软件,通常用于数据挖掘、搜索引擎索引、网站维护等用途。在Java中开发爬虫程序需要理解网络请求、HTML解析、数据存储等多个技术领域。本文将详细介绍如何使用Java进行爬虫...

    爬虫开发实战案例:构建电商商品信息抓取系统.pdf

    - 分析目标网站的反爬虫机制,如验证码、登录验证、请求频率限制等。 2. **数据字段确定** - 根据业务需求确定需要抓取的数据字段,如商品ID、名称、价格、销量、评价数、上架时间等。 3. **数据存储** - 设计...

Global site tag (gtag.js) - Google Analytics