转载自谷歌中文网站管理员博客
robots.txt
文件对抓取网络的搜索引擎漫游器(称为漫游器)进行限制。这些漫游器是自动的,在它们访问网页前会查看是否存在限制其访问特定网页的
robots.txt 文件。如果你想保护网站上的某些内容不被搜索引擎收入的话,robots.txt
是一个简单有效的工具。这里简单介绍一下怎么使用它。
如何放置 Robots.txt 文件
robots.txt
自身是一个文本文件。它必须位于域名的根目录中并 被命名为"robots.txt"。位于子目录中的 robots.txt
文件无效,因为漫游器只在域名的根目录中查找此文件。例如,http://www.example.com/robots.txt
是有效位置,http://www.example.com/mysite/robots.txt 则不是。
这里举一个robots.txt的例子:
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~name/
使用 robots.txt 文件拦截或删除整个网站
要从搜索引擎中删除您的网站,并防止所有漫游器在以后抓取您的网站,请将以下 robots.txt 文件放入您服务器的根目录:
User-agent: *
Disallow: /
要只从 Google 中删除您的网站,并只是防止 Googlebot 将来抓取您的网站,请将以下 robots.txt 文件放入您服务器的根目录:
User-agent: Googlebot
Disallow: /
每
个端口都应有自己的 robots.txt 文件。尤其是您通过 http 和 https 托管内容的时候,这些协议都需要有各自的
robots.txt 文件。例如,要让 Googlebot 只为所有的 http 网页而不为 https 网页编制索引,应使用下面的
robots.txt 文件。
对于 http 协议 (http://yourserver.com/robots.txt):
User-agent: *
Allow: /
对于 https 协议 (https://yourserver.com/robots.txt):
User-agent: *
Disallow: /
允许所有的漫游器访问您的网页
User-agent: *
Disallow:
(另一种方法: 建立一个空的 "/robots.txt" 文件, 或者不使用robot.txt。)
使用 robots.txt 文件拦截或删除网页
您
可以使用 robots.txt 文件来阻止 Googlebot 抓取您网站上的网页。 例如,如果您正在手动创建 robots.txt
文件以阻止 Googlebot 抓取某一特定目录下(例如,private)的所有网页,可使用以下 robots.txt 条目:
User-agent: Googlebot
Disallow: /private
要阻止 Googlebot 抓取特定文件类型(例如,.gif)的所有文件,可使用以下 robots.txt 条目:
User-agent: Googlebot
Disallow: /*.gif$
要阻止 Googlebot 抓取所有包含 ? 的网址(具体地说,这种网址以您的域名开头,后接任意字符串,然后是问号,而后又是任意字符串),可使用以下条目:
User-agent: Googlebot
Disallow: /*?
尽
管我们不抓取被 robots.txt
拦截的网页内容或为其编制索引,但如果我们在网络上的其他网页中发现这些内容,我们仍然会抓取其网址并编制索引。因此,网页网址及其他公开的信息,例如指
向该网站的链接中的定位文字,有可能会出现在 Google 搜索结果中。不过,您网页上的内容不会被抓取、编制索引和显示。
作为网站管理员工具的一部分,Google提供了robots.txt分析工具
。它可以按照 Googlebot 读取 robots.txt 文件的相同方式读取该文件,并且可为 Google user-agents(如
Googlebot)提供结果。我们强烈建议您使用它。 在创建一个 robots.txt
文件之前,有必要考虑一下哪些内容可以被用户搜得到,而哪些则不应该被搜得到。 这样的话,通过合理地使用 robots.txt ,
搜索引擎在把用户带到您网站的同时,又能保证隐私信息不被收录。
分享到:
相关推荐
- **robots.txt和robots meta标签:**告诉搜索引擎哪些页面应该抓取或忽略。 ##### 3. 对搜索引擎排名不利的因素 - **框架网页:**不利于搜索引擎识别内容。 - **Flash网页:**无法被搜索引擎正确读取。 - **不...
WordPress是全球最受...通过这些插件,即使没有深入的SEO知识,也能显著提升WordPress网站的搜索引擎优化效果,同时方便地管理广告投放,增加收入。使用这些工具,博主可以专注于内容创作,而不必过于担心技术细节。
6. `robots.txt`:这是一个告知搜索引擎哪些页面不应被抓取的文件。在飞天侠淘宝客尊享版中,可能用于避免敏感信息被搜索引擎索引。 7. `data`、`install`、`app`、`static`:这些都是软件的不同组成部分。`data`...
10. `robots.txt`:这是一个告诉搜索引擎哪些页面可以索引,哪些禁止索引的文件。在飞天侠淘宝客系统中,可能用于避免敏感信息被搜索引擎抓取。 通过这些文件,我们可以推断飞天侠淘宝客4.1至尊版提供了完整的安装...
6. **robots.txt**:这是一个标准的网站文件,用于指示搜索引擎爬虫哪些页面可以抓取,哪些应被禁止。对于博客系统来说,可能包含某些隐私设置或后台管理页面的屏蔽规则。 7. **css**目录:这个目录包含了CSS...