`
563525042
  • 浏览: 49657 次
  • 性别: Icon_minigender_1
  • 来自: 厦门
社区版块
存档分类
最新评论

robots.txt的常见写法

    博客分类:
  • SEO
阅读更多
robots.txt的常见写法

    禁止所有搜索引擎访问网站的任何部分:
    User-agent: *
    Disallow: /
    允许所有的robot访问
    User-agent: *
    Disallow:
    或者你也可以建一个空文件:robots.txt
    禁止所有搜索引擎访问网站的几个部分(如下例中的cgi-bin、tmp、private目录)
    User-agent: *
    Disallow: /cgi-bin/
    Disallow: /tmp/
    Disallow: /private/
    禁止某个搜索引擎的访问(下例中的BadBot)
    User-agent: BadBot
    Disallow: /
    只允许某个搜索引擎的访问(下例中的WebCrawler)
    User-agent: WebCrawler
    Disallow:
    下面是一些著名站点的robots.txt,你也可以参考他们的写法。
    http://www.google.com/robots.txt
    http://www.ibm.com/robots.txt
    http://www.sun.com/robots.txt
    http://www.baidu.com/robots.txt

常见搜索引擎Robots名字

    Baiduspider  http://www.baidu.com
    Googlebot  http://www.google.com
    Scooter  http://www.altavista.com
    ia_archiver  http://www.alexa.com
    Inktomi Slurp  http://www.yahoo.com
    FAST-WebCrawler http://www.alltheweb.com
    MSNbot   http://search.msn.com
分享到:
评论

相关推荐

    robots.txt用法与写法

    robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。Robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。 当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果...

    一个经典的wordpress的robots.txt的写法

    一个经典的wordpress的robots.txt的写法 下载后直接复制就行了 略微调一下也行的 文件来自:www.52jiwai.com 分享时请注明来处!

    robots.txt解析器_Ruby_下载.zip

    在IT行业中,`robots.txt` 文件是一个非常重要的概念,它被用来指导网络爬虫如何抓取网站内容。这个压缩包“robots.txt解析器_Ruby_下载.zip”显然包含了一个使用Ruby编程语言编写的用于解析`robots.txt`文件的工具...

    一个经典的zencart的robots.txt的写法

    ### 一个经典的ZenCart的robots.txt的写法详解 在探讨经典的ZenCart的`robots.txt`文件之前,我们首先需要了解`robots.txt`的基本概念及其作用。`robots.txt`文件是一种标准的协议文件,用于告诉网络爬虫(如搜索...

    搜索蜘蛛:什么是robots.txt,要怎么写?

    ### 搜索蜘蛛:什么是robots.txt,要怎么写? 在探讨如何编写`robots.txt`之前,我们首先需要了解这个文件的基本概念及其在网站管理和搜索引擎优化(SEO)中的作用。`robots.txt`是一个放置在网站根目录下的文本...

    搜索引擎机器人文件robots.txt让你的网站得到更好的优化

    ### 搜索引擎机器人文件robots.txt让你的网站得到更好的优化 #### robots.txt文件详解与最佳实践 在探讨如何通过robots.txt文件来优化网站之前,我们首先需要了解什么是robots.txt以及它在搜索引擎优化(SEO)中的...

    如何写robots.txt?

    ### 如何编写robots.txt文件 在互联网世界里,搜索引擎蜘蛛(也称为爬虫或机器人)是网站流量的重要来源之一。为了更好地控制哪些页面被搜索引擎收录,哪些页面不被收录,就需要用到一个非常重要的文件——robots....

    robots写法.txt

    ### robots.txt 文件详解 #### 一、概述 `robots.txt` 是一个位于网站根目录下的文本文件,用于告诉搜索引擎爬虫哪些页面可以抓取、哪些页面不可以抓取。通过合理设置 `robots.txt` 文件,可以帮助网站管理者更好...

    robots.txt使用方法 反爬虫 SEO.zip

    robots.txt使用方法 反爬虫 SEO.zip

    用来生成robotstxt文件的Vuepress插件

    在Web开发中,`robots.txt` 文件是网站与搜索引擎爬虫之间的一种通信方式,指示哪些页面可以被爬取,哪些禁止访问。针对这个需求,Vuepress 提供了一个插件——"用来生成robotstxt文件的Vuepress插件",用于自动化...

    robots.txt文件在线生成工具.zip

    robots.txt可以告诉搜索引擎您的网站哪些页面可以被收录,哪些页面不可以被收录,如果您不想让搜索引擎收录您网站的某些内容,请用robots.txt文件指定搜索引擎在您网站上的抓取范围。 此工具本人找了很久,源码...

    robots.txt在SEO中作用

    **robots.txt在SEO中的作用详解** robots.txt是一个网站的重要组成部分,它是搜索引擎爬虫与网站管理员之间的沟通桥梁。通过这个文件,网站所有者可以指示搜索引擎哪些页面可以被爬取,哪些应该被禁止。本文将深入...

    帝国CMS中robots.txt文件用法

    在帝国CMS中,`robots.txt`文件是一个至关重要的元素,它用于指导搜索引擎爬虫如何抓取网站的内容。本文将详细探讨`robots.txt`文件的原理、作用以及在帝国CMS中的具体应用。 **robots协议的原理** `robots协议`,...

    robots.txt的NuxtJS模块_TypeScript_JavaScript_下载.zip

    这段代码会检查请求路径是否为`/robots.txt`,如果是,则返回一个基本的robots.txt内容,允许所有爬虫访问`/about`页面,但禁止访问`/admin`页面。如果请求路径不是`/robots.txt`,则调用`next()`函数继续处理其他...

    Laravel开发-laravel-robotstxt

    在Laravel框架中,`laravel-robotstxt`是一个扩展包,用于根据应用程序的当前环境动态生成`robots.txt`文件。`robots.txt`文件是一个简单的文本文件,它告诉网络爬虫(如Googlebot)哪些页面可以抓取,哪些应该避免...

    易优cms robots文件生成器插件.zip

    在SEO优化方面,robots.txt文件扮演着至关重要的角色,它是搜索引擎爬虫访问网站时首先查看的文件,用于告知爬虫哪些页面可以抓取,哪些应禁止抓取。"易优cms robots文件生成器插件"就是为了方便用户自定义和管理这...

    wordpress robots.txt优化你的博客

    WordPress博客的robots.txt文件写法得根据自身网站情况来定,当然我们可以借鉴一些知名网站的robots.txt写法,比如可以看wordpress教程网的robots.txt,可以通过访问:http://www.shouce.ren/robots.txt 获取 ...

    robots.js:用于robots.txt的用于node.js的解析器

    setUrl ( 'http://nodeguide.ru/robots.txt' , function ( parser , success ) { if ( success ) { parser . canFetch ( '*' , '/doc/dailyjs-nodepad/' , function ( access ) { if ( access ) { // parse url

    自动为您的站点创建robots.txt的Gatsby插件_JavaScript_下载.zip

    标题中的“自动为您的站点创建robots.txt的Gatsby插件”指的是一个专为Gatsby构建的JavaScript插件,它的主要功能是自动生成`robots.txt`文件。`robots.txt`文件对于任何网站来说都是至关重要的,它告诉搜索引擎爬虫...

    Go语言的robots.txt排除协议实现_Go_Shell_下载.zip

    在互联网上,`robots.txt` 是一个非常重要的文件,它用于告知搜索引擎爬虫哪些页面可以抓取,哪些页面应被禁止。本篇文章将深入探讨如何使用 Go 语言来实现 `robots.txt` 排除协议。我们将主要关注以下几个关键知识...

Global site tag (gtag.js) - Google Analytics