`
zangwenyang
  • 浏览: 127735 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

如何写robots

 
阅读更多

转载自: http://www.dunsh.org/2006/08/02/robotstxt/

 

在国内,网站管理者似乎对robots.txt并没有引起多大重视,应一些朋友之请求,今天想通过这篇文章来简单谈一下robots.txt的写作。

 

robots.txt基本介绍

robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。

当一个搜索机器人(有的叫搜索蜘蛛)访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,那么搜索机器人就沿着链接抓取。

另外,robots.txt必须放置在一个站点的根目录下,而且文件名必须全部小写。

robots.txt写作语法

首先,我们来看一个robots.txt范例:http://www.seovip.cn/robots.txt

访问以上具体地址,我们可以看到robots.txt的具体内容如下:

# Robots.txt file from http://www.seovip.cn
# All robots will spider the domain

User-agent: *
Disallow:

以上文本表达的意思是允许所有的搜索机器人访问www.seovip.cn站点下的所有文件。

具体语法分析:其中#后面文字为说明信息;User-agent:后面为搜索机器人的名称,后面如果是*,则泛指所有的搜索机器人;Disallow:后面为不允许访问的文件目录。

下面,我将列举一些robots.txt的具体用法:

允许所有的robot访问

User-agent: *
Disallow:

或者也可以建一个空文件 "/robots.txt" file

禁止所有搜索引擎访问网站的任何部分

User-agent: *
Disallow: /

禁止所有搜索引擎访问网站的几个部分(下例中的01、02、03目录)

User-agent: *
Disallow: /01/
Disallow: /02/
Disallow: /03/

禁止某个搜索引擎的访问(下例中的BadBot)

User-agent: BadBot
Disallow: /

只允许某个搜索引擎的访问(下例中的Crawler)

User-agent: Crawler
Disallow:

User-agent: *
Disallow: /

另外,我觉得有必要进行拓展说明,对robots meta进行一些介绍:

Robots META标签则主要是针对一个个具体的页面。和其他的META标签(如使用的语言、页面的描述、关键词等)一样,Robots META标签也是放在页面的<head></head>中,专门用来告诉搜索引擎ROBOTS如何抓取该页的内容。

Robots META标签的写法:

Robots META标签中没有大小写之分,name=”Robots”表示所有的搜索引擎,可以针对某个具体搜索引擎写为name=”BaiduSpider”。 content部分有四个指令选项:index、noindex、follow、nofollow,指令间以“,”分隔。

INDEX 指令告诉搜索机器人抓取该页面;

FOLLOW 指令表示搜索机器人可以沿着该页面上的链接继续抓取下去;

Robots Meta标签的缺省值是INDEX和FOLLOW,只有inktomi除外,对于它,缺省值是INDEX,NOFOLLOW。

这样,一共有四种组合:

<META NAME="ROBOTS" CONTENT="INDEX,FOLLOW">
<META NAME="ROBOTS" CONTENT="NOINDEX,FOLLOW">
<META NAME="ROBOTS" CONTENT="INDEX,NOFOLLOW">
<META NAME="ROBOTS" CONTENT="NOINDEX,NOFOLLOW">

其中

<META NAME="ROBOTS" CONTENT="INDEX,FOLLOW">可以写成<META NAME="ROBOTS" CONTENT="ALL">;

<META NAME="ROBOTS" CONTENT="NOINDEX,NOFOLLOW">可以写成<META NAME="ROBOTS" CONTENT="NONE">

目前看来,绝大多数的搜索引擎机器人都遵守robots.txt的规则,而对于Robots META标签,目前支持的并不多,但是正在逐渐增加,如著名搜索引擎GOOGLE就完全支持,而且GOOGLE还增加了一个指令“archive”,可以限制GOOGLE是否保留网页快照。例如:

<META NAME="googlebot" CONTENT="index,follow,noarchive">

表示抓取该站点中页面并沿着页面中链接抓取,但是不在GOOLGE上保留该页面的网页快照。

特别说明,本文章的写作参考了一些网络信息,robin只是按照自己的思路对信息进行整理。

分享到:
评论

相关推荐

    如何写robots教程

    现在,让我们看下“如何写robots.doc”文档,它可能包含了更详细的步骤、示例和最佳实践,帮助你更好地理解和编写自己的robots.txt文件。这个文档应该覆盖了各种情况,包括处理动态URL、管理多语言站点以及处理隐私...

    如何写robots.txt?

    ### 如何编写robots.txt文件 在互联网世界里,搜索引擎蜘蛛(也称为爬虫或机器人)是网站流量的重要来源之一。为了更好地控制哪些页面被搜索引擎收录,哪些页面不被收录,就需要用到一个非常重要的文件——robots....

    如何写robots,robots.txt是一个纯文本文件

    如果留空或写成 `/`,则表示允许访问所有页面。 例如,以下是一个简单的 `robots.txt` 文件: ``` User-agent: * Disallow: ``` 这表示允许所有爬虫访问网站的所有页面。 **示例用法** - **允许所有搜索引擎访问...

    帝国CMS中robots.txt文件用法

    在帝国CMS中,`robots.txt`文件是一个至关重要的元素,它用于指导搜索引擎爬虫如何抓取网站的内容。本文将详细探讨`robots.txt`文件的原理、作用以及在帝国CMS中的具体应用。 **robots协议的原理** `robots协议`,...

    搜索蜘蛛:什么是robots.txt,要怎么写?

    ### 搜索蜘蛛:什么是robots.txt,要怎么写? 在探讨如何编写`robots.txt`之前,我们首先需要了解这个文件的基本概念及其在网站管理和搜索引擎优化(SEO)中的作用。`robots.txt`是一个放置在网站根目录下的文本...

    robots(写出有关机器人的单词.pptx

    robots(写出有关机器人的单词.pptx

    屏蔽一切搜索引擎的robots

    如果想要禁止访问整个网站,可以简单地写成 `Disallow: /`。 3. **示例**: ``` User-agent: * Disallow: / ``` 上述代码意味着对所有搜索引擎机器人而言,网站的所有内容都被禁止访问。 4. **注意事项**: ...

    very-angry-robots-android

    《very-angry-robots-android》是一款基于LibGDX框架开发的Android游戏示例项目,其设计理念在于为开发者提供一个可学习和借鉴的基础模板。LibGDX是一个强大的跨平台游戏开发框架,支持Android、iOS、桌面(Windows...

    legged robots that balance

    波士顿动力创始人写的 16页 论文,不是书,图片彩版,很好的讲述了四足机器人的起源和技术基础

    选修七Unit2 Robots Period 1.doc

    【教师】针对“选修七Unit2 Robots Period 1”的教学设计主要围绕着提升学生的英语综合运用能力,结合新课程理念,将课堂教学融入具体的情景之中。本单元以机器人和科幻小说为主题,引导学生了解科幻作品的特点,...

    精品资料(2021-2022收藏)Unit 1 Will people have robots.doc

    【Unit 1 Will people have robots】是一份教育精品资料,主要教授初中阶段英语课程中关于一般将来时态的使用。本单元围绕“谈论问题”和“提出建议”这两个主题展开,旨在让学生掌握如何在实际情境中运用一般将来时...

    尊重网络礼仪:Python 爬虫遵循 robots.txt 文件规范

    Python 爬虫,通常被称为 Python Spider 或 Python Web Scraper,是一种使用 Python 编程语言编写的自动化脚本或程序,用于从...7. **爬取策略**:遵守 `robots.txt` 文件的规则,合理设置爬取频率,避免对网站服务

    Unit_1_Will_people_have_robots?教学设计2.doc

    本教学设计围绕的是《Unit 1 Will people have robots?》这一主题,主要目的是让学生掌握关键的词汇和语言目标,提升他们的听、说、读、写能力,并通过学习激发他们对未来的思考,树立远大目标并坚定追求的决心。 ...

    node-Robots:节点爬行动物

    **Node.js 爬虫与 Robots 协议详解** 在 Web 开发中,爬虫是一种自动提取网页数据的程序,而 `node-Robots` 是一个基于 Node.js 的爬虫框架,它允许开发者轻松地创建自己的网络爬虫,用于抓取和分析网页信息。Node....

    选修七Unit2 Robots Period 7.doc

    3. 提高学生的写作能力,要求他们以机器宠物的视角写一篇日记,锻炼他们从不同角度思考问题的能力。 【教学过程】 1. **口语任务** 鼓励学生分组进行讨论,发挥想象力,探讨未来可能被使用的各种类型的机器人,...

    Java Robots-开源

    Java Robots开源项目是一个基于Java语言开发的机器人模拟平台,它为开发者提供了一个有趣且实用的环境,用于学习和实践编程技巧,特别是在人工智能、算法和游戏编程方面。该项目源自《构建Java机器人的权威指南》这...

    java写爬虫代码.pdf

    文件《java写爬虫代码.pdf》中提到了使用Java语言编写网络爬虫程序的相关知识点。从提供的部分代码内容和注释来看,内容涉及到以下技术点: 1. Java基础:文件中使用了Java的标准输入输出类(如BufferedReader、...

Global site tag (gtag.js) - Google Analytics