`
lingo169
  • 浏览: 6730 次
  • 性别: Icon_minigender_1
  • 来自: 广州
文章分类
社区版块
存档分类
最新评论

如何使用robots.txt

阅读更多
    robots.txt 文件对抓取网络的搜索引擎漫游器(称为漫游器)进行限制。这些漫游器是自动的,在它们访问网页前会查看是否存在限制其访问特定网页的 robots.txt 文件。如果你想保护网站上的某些内容不被搜索引擎收入的话,robots.txt是一个简单有效的工具。这里简单介绍一下怎么使用它。

如何放置Robots.txt文件

robots.txt自身是一个文本文件。它必须位于域名的根目录中并 被命名为"robots.txt"。位于子目录中的 robots.txt 文件无效,因为漫游器只在域名的根目录中查找此文件。例如,http://www.example.com/robots.txt 是有效位置,http://www.example.com/mysite/robots.txt 则不是。

这里举一个robots.txt的例子:

User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~name/

使用 robots.txt 文件拦截或删除整个网站

要从搜索引擎中删除您的网站,并防止所有漫游器在以后抓取您的网站,请将以下 robots.txt 文件放入您服务器的根目录:

User-agent: *
Disallow: /

要只从 Google 中删除您的网站,并只是防止 Googlebot 将来抓取您的网站,请将以下 robots.txt 文件放入您服务器的根目录:

User-agent: Googlebot
Disallow: /

每个端口都应有自己的 robots.txt 文件。尤其是您通过 http 和 https 托管内容的时候,这些协议都需要有各自的 robots.txt 文件。例如,要让 Googlebot 只为所有的 http 网页而不为 https 网页编制索引,应使用下面的 robots.txt 文件。

对于 http 协议 (http://yourserver.com/robots.txt):

User-agent: *
Allow: /

对于 https 协议 (https://yourserver.com/robots.txt):

User-agent: *
Disallow: /

允许所有的漫游器访问您的网页

User-agent: *
Disallow:

(另一种方法: 建立一个空的 "/robots.txt" 文件, 或者不使用robot.txt。)

使用 robots.txt 文件拦截或删除网页

您可以使用 robots.txt 文件来阻止 Googlebot 抓取您网站上的网页。 例如,如果您正在手动创建 robots.txt 文件以阻止 Googlebot 抓取某一特定目录下(例如,private)的所有网页,可使用以下 robots.txt 条目:

User-agent: Googlebot
Disallow: /private

要阻止 Googlebot 抓取特定文件类型(例如,.gif)的所有文件,可使用以下 robots.txt 条目:

User-agent: Googlebot
Disallow: /*.gif$

要阻止 Googlebot 抓取所有包含 ? 的网址(具体地说,这种网址以您的域名开头,后接任意字符串,然后是问号,而后又是任意字符串),可使用以下条目:

User-agent: Googlebot
Disallow: /*?

尽管我们不抓取被 robots.txt 拦截的网页内容或为其编制索引,但如果我们在网络上的其他网页中发现这些内容,我们仍然会抓取其网址并编制索引。因此,网页网址及其他公开的信息,例如指向该网站的链接中的定位文字,有可能会出现在 Google 搜索结果中。不过,您网页上的内容不会被抓取、编制索引和显示。

作为网站管理员工具的一部分,Google提供了robots.txt分析工具。它可以按照 Googlebot 读取 robots.txt 文件的相同方式读取该文件,并且可为 Google user-agents(如 Googlebot)提供结果。我们强烈建议您使用它。 在创建一个robots.txt文件之前,有必要考虑一下哪些内容可以被用户搜得到,而哪些则不应该被搜得到。 这样的话,通过合理地使用robots.txt, 搜索引擎在把用户带到您网站的同时,又能保证隐私信息不被收录。
分享到:
评论

相关推荐

    robots.txt用法与写法

    robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。Robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。 当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果...

    如何写robots.txt?

    除了使用robots.txt文件外,还可以在网页的HTML代码中使用Robots META标签来控制单个页面是否允许被索引。这些标签一般放在部分,并且具有不同的属性值,以控制爬虫的行为: - `index`: 允许页面被索引。 - `no...

    robots.txt解析器_Ruby_下载.zip

    这个压缩包“robots.txt解析器_Ruby_下载.zip”显然包含了一个使用Ruby编程语言编写的用于解析`robots.txt`文件的工具。让我们深入探讨一下`robots.txt`文件、Ruby编程语言以及解析器的相关知识。 `robots.txt` ...

    搜索蜘蛛:什么是robots.txt,要怎么写?

    ### 搜索蜘蛛:什么是robots.txt,要怎么写? 在探讨如何编写`robots.txt`之前,我们首先需要了解这个文件的基本概念及其在网站管理和搜索引擎优化(SEO)中的作用。`robots.txt`是一个放置在网站根目录下的文本...

    搜索引擎机器人文件robots.txt让你的网站得到更好的优化

    4. **结合使用其他方法**:例如,使用元标签(如`noindex`和`nofollow`)可以更精细地控制单个页面的行为,而robots.txt则更多用于整个站点或子目录级别的控制。 5. **注意安全问题**:robots.txt文件是公开可见的...

    robots.txt使用方法 反爬虫 SEO.zip

    robots.txt使用方法 反爬虫 SEO.zip

    robots.txt的NuxtJS模块_TypeScript_JavaScript_下载.zip

    在本文中,我们将深入探讨如何在NuxtJS框架中使用robots.txt,并结合TypeScript和JavaScript进行高效开发。NuxtJS是一个基于Vue.js的SSR(服务器端渲染)框架,它极大地简化了Vue应用的构建过程。而robots.txt是网站...

    用来生成robotstxt文件的Vuepress插件

    针对这个需求,Vuepress 提供了一个插件——"用来生成robotstxt文件的Vuepress插件",用于自动化生成 `robots.txt` 文件,以确保网站的SEO优化和隐私保护。 这个插件的使用主要是为了方便 Vuepress 用户自定义他们...

    robots写法.txt

    2. **通配符与正则表达式**:`robots.txt` 支持使用通配符(如 `*` 和 `?`)和简单的正则表达式来定义路径模式。 3. **文件格式**:确保 `robots.txt` 文件格式正确,否则可能导致搜索引擎无法识别。 总之,通过...

    robots.txt文件在线生成工具.zip

    robots.txt可以告诉搜索引擎您的网站哪些页面可以被收录,哪些页面不可以被收录,如果您不想让搜索引擎收录您网站的某些内容,请用robots.txt文件指定搜索引擎在您网站上的抓取范围。 此工具本人找了很久,源码...

    一个经典的wordpress的robots.txt的写法

    一个经典的wordpress的robots.txt的写法 下载后直接复制就行了 略微调一下也行的 文件来自:www.52jiwai.com 分享时请注明来处!

    Robots_txt-Specifications.pdf

    对于返回5xx状态码的网站,如果robots.txt文件在超过30天的时间内无法访问,Google会使用最后一次缓存的副本,或者在无法使用的情况下,假定没有爬取限制。此外,对于请求失败或数据不完整,Google会将其视为服务器...

    帝国CMS中robots.txt文件用法

    在帝国CMS中,`robots....总之,正确理解和使用帝国CMS中的`robots.txt`文件,能够有效地维护网站的隐私和安全,同时优化搜索引擎的抓取效率,提升网站的SEO表现。希望本文提供的信息对你的帝国CMS建站工作有所帮助。

    robots.txt在SEO中作用

    **robots.txt在SEO中的作用详解** robots.txt是一个网站的重要组成部分,它是搜索引擎爬虫与网站管理员之间的沟通桥梁。通过这个文件,网站所有者可以指示搜索引擎哪些页面可以被爬取,哪些应该被禁止。本文将深入...

    Laravel开发-laravel-robotstxt

    4. **设置规则**:在`config/robotstxt.php`配置文件中,你可以根据环境(如`production`、`development`等)定义一组规则。规则包括允许(`User-agent: *`)和禁止(`Disallow: /`)爬虫访问特定路径。 5. **...

    robots.js:用于robots.txt的用于node.js的解析器

    这是使用robots.js的示例: var robots = require ( 'robots' ) , parser = new robots . RobotsParser ( ) ; parser . setUrl ( 'http://nodeguide.ru/robots.txt' , function ( parser , success ) { if ( ...

    易优cms robots文件生成器插件.zip

    4. **测试验证**:生成robots.txt后,可以使用Google的Robots Testing Tool或其他在线工具进行验证,确保其按预期工作。 综上所述,"易优cms robots文件生成器插件"是易优CMS系统中提高SEO效率的重要工具,它简化了...

    禁止搜索引擎/蜘蛛抓取的规则文件 robots.txt模板

    - 可以使用谷歌的“检测 robots.txt”工具或类似的在线工具来验证文件的有效性。 2. **兼容性和更新**: - 不同的搜索引擎可能对 `robots.txt` 的解析有所不同,因此最好查阅目标搜索引擎的官方文档。 - 定期检查...

    Go语言的robots.txt排除协议实现_Go_Shell_下载.zip

    本篇文章将深入探讨如何使用 Go 语言来实现 `robots.txt` 排除协议。我们将主要关注以下几个关键知识点: 1. **robots.txt 文件结构**: `robots.txt` 文件由一系列的 "User-agent" 和 "Disallow" 规则组成。"User...

    自动为您的站点创建robots.txt的Gatsby插件_JavaScript_下载.zip

    现在,我们深入探讨一下`robots.txt`文件和Gatsby插件的使用: 1. **robots.txt文件**:这是一个纯文本文件,位于网站根目录下。它通过使用`User-agent`和`Disallow`指令来指定对特定爬虫的行为。例如,`User-agent...

Global site tag (gtag.js) - Google Analytics