`
mtou
  • 浏览: 158370 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

如何使用robots.txt保护网站上的某些内容不被搜索引擎收入

阅读更多

转载自谷歌中文网站管理员博客

robots.txt 文件对抓取网络的搜索引擎漫游器(称为漫游器)进行限制。这些漫游器是自动的,在它们访问网页前会查看是否存在限制其访问特定网页的 robots.txt 文件。如果你想保护网站上的某些内容不被搜索引擎收入的话,robots.txt 是一个简单有效的工具。这里简单介绍一下怎么使用它。

如何放置 Robots.txt 文件

robots.txt 自身是一个文本文件。它必须位于域名的根目录中并 被命名为"robots.txt"。位于子目录中的 robots.txt 文件无效,因为漫游器只在域名的根目录中查找此文件。例如,http://www.example.com/robots.txt 是有效位置,http://www.example.com/mysite/robots.txt 则不是。

这里举一个robots.txt的例子:

User-agent: *

Disallow: /cgi-bin/

Disallow: /tmp/

Disallow: /~name/

使用 robots.txt 文件拦截或删除整个网站

要从搜索引擎中删除您的网站,并防止所有漫游器在以后抓取您的网站,请将以下 robots.txt 文件放入您服务器的根目录:

User-agent: *
Disallow: /

要只从 Google 中删除您的网站,并只是防止 Googlebot 将来抓取您的网站,请将以下 robots.txt 文件放入您服务器的根目录:

User-agent: Googlebot
Disallow: /

每 个端口都应有自己的 robots.txt 文件。尤其是您通过 http 和 https 托管内容的时候,这些协议都需要有各自的 robots.txt 文件。例如,要让 Googlebot 只为所有的 http 网页而不为 https 网页编制索引,应使用下面的 robots.txt 文件。

对于 http 协议 (http://yourserver.com/robots.txt):

User-agent: *
Allow: /

对于 https 协议 (https://yourserver.com/robots.txt):

User-agent: *
Disallow: /

允许所有的漫游器访问您的网页

User-agent: *
Disallow:

(另一种方法: 建立一个空的 "/robots.txt" 文件, 或者不使用robot.txt。)

使用 robots.txt 文件拦截或删除网页

您 可以使用 robots.txt 文件来阻止 Googlebot 抓取您网站上的网页。 例如,如果您正在手动创建 robots.txt 文件以阻止 Googlebot 抓取某一特定目录下(例如,private)的所有网页,可使用以下 robots.txt 条目:

User-agent: Googlebot
Disallow: /private

要阻止 Googlebot 抓取特定文件类型(例如,.gif)的所有文件,可使用以下 robots.txt 条目:

User-agent: Googlebot
Disallow: /*.gif$

要阻止 Googlebot 抓取所有包含 ? 的网址(具体地说,这种网址以您的域名开头,后接任意字符串,然后是问号,而后又是任意字符串),可使用以下条目:

User-agent: Googlebot
Disallow: /*?

尽 管我们不抓取被 robots.txt 拦截的网页内容或为其编制索引,但如果我们在网络上的其他网页中发现这些内容,我们仍然会抓取其网址并编制索引。因此,网页网址及其他公开的信息,例如指 向该网站的链接中的定位文字,有可能会出现在 Google 搜索结果中。不过,您网页上的内容不会被抓取、编制索引和显示。


作为网站管理员工具的一部分,Google提供了robots.txt分析工具 。它可以按照 Googlebot 读取 robots.txt 文件的相同方式读取该文件,并且可为 Google user-agents(如 Googlebot)提供结果。我们强烈建议您使用它。 在创建一个 robots.txt 文件之前,有必要考虑一下哪些内容可以被用户搜得到,而哪些则不应该被搜得到。 这样的话,通过合理地使用 robots.txt , 搜索引擎在把用户带到您网站的同时,又能保证隐私信息不被收录。

分享到:
评论

相关推荐

    搜索引擎机器人文件robots.txt让你的网站得到更好的优化

    3. **避免过度使用**:虽然robots.txt可以用来隐藏某些页面,但过度使用可能会导致搜索引擎无法索引重要的内容。建议仅对确实需要保护的页面进行限制。 4. **结合使用其他方法**:例如,使用元标签(如`noindex`和`...

    robots.txt用法与写法

    robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。Robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。 当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果...

    搜索蜘蛛:什么是robots.txt,要怎么写?

    - **控制爬虫行为**:通过`robots.txt`文件,网站管理员可以指定不允许爬虫访问的URL,从而保护敏感信息或限制搜索引擎抓取某些特定页面。 - **提高索引效率**:通过合理设置,可以使搜索引擎更高效地抓取网站的重要...

    robots.txt解析器_Ruby_下载.zip

    在IT行业中,`robots.txt` 文件是一个非常重要的概念,它被用来指导网络爬虫如何抓取网站内容。这个压缩包“robots.txt解析器_Ruby_下载.zip”显然包含了一个使用Ruby编程语言编写的用于解析`robots.txt`文件的工具...

    如何写robots.txt?

    robots.txt是一种特殊的纯文本文件,通常放置在网站的根目录下,用于告诉搜索引擎哪些页面可以被抓取、哪些页面不能被抓取。它遵循一个叫做“Robots Exclusion Protocol”的协议,通过简单的指令来实现这一功能。 #...

    用来生成robotstxt文件的Vuepress插件

    6. **SEO优化**:正确的 `robots.txt` 文件对于SEO(搜索引擎优化)至关重要,因为它可以帮助搜索引擎理解网站结构,避免抓取不希望被索引的内容,同时确保重要页面得到适当的爬取。 7. **隐私保护**:通过限制搜索...

    robots写法.txt

    通过合理设置 `robots.txt` 文件,可以帮助网站管理者更好地控制网站内容被搜索引擎收录的方式与范围。 #### 二、基本语法 `robots.txt` 文件主要包含以下几种指令: - **User-agent**:指定该规则适用于哪个或...

    robots.txt文件在线生成工具.zip

    robots.txt可以告诉搜索引擎您的网站哪些页面可以被收录,哪些页面不可以被收录,如果您不想让搜索引擎收录您网站的某些内容,请用robots.txt文件指定搜索引擎在您网站上的抓取范围。 此工具本人找了很久,源码...

    robots.txt使用方法 反爬虫 SEO.zip

    robots.txt使用方法 反爬虫 SEO.zip

    禁止搜索引擎/蜘蛛抓取的规则文件 robots.txt模板

    通过以上分析可以看出,合理的 `robots.txt` 文件可以帮助网站更好地管理和控制搜索引擎的行为,保护敏感信息不被公开索引,同时也能提高搜索引擎的索引质量和效率。希望本篇文章能帮助大家更好地理解和使用 `robots...

    robots.txt在SEO中作用

    3. **非强制性**:不是所有搜索引擎都遵循robots.txt,因此不应依赖此文件作为唯一的隐私保护手段。 4. **不适用于用户**:robots.txt对实际用户没有作用,只针对爬虫。 ### 七、百度蜘蛛与robots.txt 在中文环境...

    易优cms robots文件生成器插件.zip

    综上所述,"易优cms robots文件生成器插件"是易优CMS系统中提高SEO效率的重要工具,它简化了robots.txt的管理和维护,对于优化网站的搜索引擎可见性和用户体验有着显著的帮助。通过熟练掌握和使用这款插件,可以更好...

    robots.txt的NuxtJS模块_TypeScript_JavaScript_下载.zip

    而robots.txt是网站与搜索引擎爬虫之间的一种通信协议,用于指导爬虫哪些页面可以抓取,哪些应该被禁止。 首先,让我们理解`robots.txt`的作用。robots.txt文件位于网站的根目录下,它的主要功能是定义搜索引擎爬虫...

    Laravel开发-laravel-robotstxt

    总结起来,`laravel-robotstxt`是一个非常实用的工具,能够帮助开发者根据Laravel应用的不同环境轻松管理`robots.txt`文件,从而更好地控制搜索引擎的爬取行为,保护隐私,同时优化网站的SEO策略。通过灵活的配置和...

    帝国CMS中robots.txt文件用法

    3. **百度官方建议**:只有当网站包含不想被搜索引擎收录的内容时,才需要创建`robots.txt`文件。如果希望所有内容都能被搜索引擎索引,就不需要创建此文件。 总之,正确理解和使用帝国CMS中的`robots.txt`文件,...

    如何写robots,robots.txt是一个纯文本文件

    对于网站管理员来说,正确设置 `robots.txt` 文件至关重要,因为它能帮助控制搜索引擎收录的内容,保护隐私信息,以及优化网站的SEO表现。 **基本结构与语法** `robots.txt` 文件通常包含以下两个主要部分: 1. *...

    一个经典的wordpress的robots.txt的写法

    一个经典的wordpress的robots.txt的写法 下载后直接复制就行了 略微调一下也行的 文件来自:www.52jiwai.com 分享时请注明来处!

    Robots_txt-Specifications.pdf

    从适用性上来说,任何想要控制其网站内容被搜索引擎索引方式的网站管理员都可以使用robots.txt文件。不过,Robots.txt协议并非强制性的,它更多依赖于爬虫的遵循程度。遵守robots.txt文件是互联网中搜索引擎遵循的...

    一个经典的zencart的robots.txt的写法

    通过以上分析可以看出,这个`robots.txt`文件非常全面地考虑到了ZenCart网站的各种需求,既保护了敏感信息,又确保了重要的网页能够被搜索引擎正确地索引。对于使用ZenCart构建的电子商务网站来说,这是一个非常实用...

    Laravel开发-laravel-robots-txt

    robots.txt文件对于搜索引擎优化(SEO)至关重要,因为它指导爬虫哪些页面可以抓取,哪些应被禁止。而HTML元标签则能提供关于网页内容的额外信息,如关键词、描述等,同样影响着搜索引擎的索引和展示。 首先,让...

Global site tag (gtag.js) - Google Analytics