`
Ryee
  • 浏览: 283262 次
  • 性别: Icon_minigender_1
  • 来自: 上海
社区版块
存档分类
最新评论

百度爬虫类型(Baiduspider)及robots设置方法

阅读更多
Baiduspider的user-agent是什么?百度各个产品使用不同的user-agent:
产品名称 对应user-agent
无线搜索 Baiduspider-mobile
图片搜索 Baiduspider-image
视频搜索 Baiduspider-video
新闻搜索 Baiduspider-news
百度搜藏 Baiduspider-favo
百度联盟 Baiduspider-cpro
网页以及其他搜索 Baiduspider


你可以根据各产品不同的user-agent设置不同的抓取规则,如果你想完全禁止百度所有的产品收录,可以直接对Baiduspider设置禁止抓取。在robots.txt中禁止爬虫抓取(robots.txt写作方法

以下robots实现禁止所有来自百度的抓取:
User-agent: Baiduspider
Disallow: /

以下robots实现仅禁止来自百度视频搜索的抓取:
User-agent: Baiduspider-video
Disallow: /

以下robots实现禁止所有来自百度的抓取但允许图片搜索抓取/image/目录:
User-agent: Baiduspider
Disallow: /

User-agent: Baiduspider-image
Allow: /image/
请注意:Baiduspider-cpro抓取的网页并不会建入索引,只是执行与客户约定的操作,所以不遵守robots协议,如果 Baiduspider-cpro给您造成了困扰,请联系union1@baidu.com。






分享到:
评论

相关推荐

    BaiduSpider,一个爬取百度搜索结果的爬虫.zip

    遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施...

    robots.txt在SEO中作用

    百度爬虫同样遵循robots.txt协议,所以通过设置User-agent为“Baiduspider”,可以专门控制百度爬虫的抓取行为。 ```text User-agent: Baiduspider Disallow: /baidu_only/ ``` 以上代码禁止百度爬虫访问`/baidu_...

    robots文件.docx

    总结来说,`robots.txt` 文件是网站管理员管理搜索引擎爬虫行为的关键工具,通过它能保护隐私、优化资源抓取、控制链接权重传递及快照显示。正确理解和使用 `robots.txt` 文件,有助于提升网站的搜索引擎优化(SEO)...

    IVBD『限制百度蜘蛛抓取txt代码』

    "IVBD『限制百度蜘蛛抓取txt代码』"这个主题涉及到如何通过编写`robots.txt`文件来管理搜索引擎爬虫的访问权限。`robots.txt`是一种简单的文本文件,它告诉搜索引擎哪些页面可以抓取,哪些应避免抓取。在这个场景中...

    Java爬虫实例附源代码和说明

    例如,Google的爬虫标识为GoogleBot,百度的为BaiDuSpider,雅虎的为Inktomi Slurp。 为了与网络爬虫沟通,网站会提供一个名为Robots.txt的文件,存放在服务器的根目录下。这个文件用于指示爬虫哪些目录或页面不应...

    BaiduSpider.zip

    一个爬取百度搜索结果的爬虫,目前支持百度网页搜索,百度图片搜索,百度知道搜索,百度视频搜索,百度资讯搜索,百度文库搜索,百度经验搜索和百度百科搜索。 爬虫(Web Crawler)是一种自动化程序,用于从互联网上...

    java网络爬虫实例2020

    此外,网站可以通过`robots.txt`文件指示爬虫哪些部分不应抓取,哪些部分应定期更新。 6. **身份识别**:网络蜘蛛在请求网页时会携带User-agent信息,表明其身份,如GoogleBot、BaiDuSpider等。网站管理员可以通过...

    robots写法.txt

    通过合理设置 `robots.txt` 文件,可以帮助网站管理者更好地控制网站内容被搜索引擎收录的方式与范围。 #### 二、基本语法 `robots.txt` 文件主要包含以下几种指令: - **User-agent**:指定该规则适用于哪个或...

    robots的写法

    - 解决方法是创建一个空的 robots.txt 文件,并确保其存在且可访问。 **2. 如何正确设置 User-agent 字段?** - 使用 `*` 代表所有爬虫。 - 使用具体的爬虫名称,如 `Googlebot`,只针对特定爬虫设置规则。 - 示例...

    搜索蜘蛛:什么是robots.txt,要怎么写?

    - **User-agent**: 指定规则适用于哪些类型的爬虫。 - **Disallow**: 指定不允许爬虫访问的URL路径。 示例: ```txt User-agent: * Disallow: /admin/ ``` 这条规则表示所有爬虫都不允许访问`/admin/`目录下的内容...

    阿西百度蜘蛛爬行记录追踪系统

    在互联网上,搜索引擎爬虫,如百度的"百度蜘蛛"(Baiduspider),负责抓取网页内容并建立索引,以便用户搜索时能够快速找到相关信息。这个系统的主要目标是帮助网站提升被搜索引擎发现和索引的效率,从而增加网站的...

    网站日志分析工具 爬虫分析

    2. **爬虫行为**:分析抓取模式,可以了解爬虫的访问规律,比如是否遵循robots.txt文件的指示,是否存在过度抓取或忽视某些页面的情况。 3. **抓取频率**:统计爬虫在特定时间内的访问次数,有助于评估网站对服务器...

    您所查看的网页不允许百度保存其快照的设置方法

    本文将详细介绍如何设置禁止百度以及其他搜索引擎保存网页快照的方法。 首先,针对百度快照,我们可以利用HTML元标签(meta tag)来实现这一目的。在网页的标签与标签之间添加以下代码: ```html <meta name="...

    网站不收录代码

    对于像百度爬虫(Baiduspider)这样的特定爬虫,可以允许其访问所有内容: ``` User-agent: Baiduspider Allow: / ``` 5. **限制部分目录的访问**: 要禁止搜索引擎访问某些特定目录,比如 `/cgi-bin/`, `/...

    基于PHP的抓虫助手 搜索引擎爬虫监控助手.zip

    6. **性能优化建议**:根据爬虫访问情况,提供网站优化建议,比如缓存策略、CDN使用、robots.txt配置等。 7. **报告生成**:定期自动生成报告,展示爬虫活动的概况,便于用户理解和决策。 【标签】"php" 表明整个...

    蜘蛛劫持代码

    - **条件逻辑处理**:使用条件语句判断爬虫类型,并据此生成不同的页面内容。 - **潜在风险**:虽然蜘蛛劫持技术能够快速提高某些页面在搜索引擎中的排名,但它违反了搜索引擎的政策,一旦被发现可能会导致网站被...

    php 向访客和爬虫显示不同的内容

    'Baiduspider', // 百度爬虫 'Yahoo! Slurp', // 雅虎爬虫 'YodaoBot', // 有道爬虫 'msnbot' // Bing爬虫 // 更多爬虫关键字 ); foreach ($spiders as $spider) { $spider = strtolower($spider); if ...

    基于PHP的搜索引擎蜘蛛跟踪器源码.zip

    6. **优化建议**:根据爬虫的抓取模式,提供优化网站结构、内容更新策略或robots.txt文件设置的建议。 总之,这个基于PHP的搜索引擎蜘蛛跟踪器源码对于网站优化、内容管理以及理解搜索引擎工作原理具有很高的价值。...

    如何禁止网站内容被搜索引擎收录的几种方法讲解

    需要注意的是,某些百度产品如 `Baiduspider-cpro` 和 `Baiduspider-ads` 不遵循robots协议,需要直接联系百度解决。 **方法二:使用网页元标签(Meta Tags)** 在网页的 `<head>` 部分添加特定的元标签可以控制...

    禁止搜索引擎 爬网站网页

    对于这些需求,可以通过设置`robots.txt`文件以及在网页头部使用`<meta>`标签来实现对搜索引擎爬虫的行为限制。 #### 1. 使用`robots.txt`文件 `robots.txt`是一个放置在网站根目录下的文本文件,用于告知搜索引擎...

Global site tag (gtag.js) - Google Analytics