`

网站robots.txt文件说明(2)

阅读更多
今天一天之内,准确的说相隔不到3个小时,就有两个朋友在QQ上让我帮他看看网站,为什么搜索引擎不收录。从我个人角度来看,他们的站做的还不错,除了个别地方(如有几页标题相同之类)不够,没有导致不收录的因素。最后一查看robots.txt,“Disallow: /”。 回想起来,找我咨询的朋友中,还真有不少的一部分都是这样的问题,所以写出来,供不熟悉的朋友参考。 1、robots.txt是什么? robots.txt是一个纯文本文件,用来告诉网络蜘蛛(不仅限搜索引擎蜘蛛)本站中哪些位置允许抓取,哪些位置不允许抓取。 2、如何正确放置robots.txt? 首先,robots.txt文件必须放置在网站根目录;有域名指向到次目录,在次目录放置的robots.txt文件只对此域名有效。 其次,文件名必须小写,如Robots.txt、roBots.txt、robots.TXT都是错误的。 3、robots.txt内容应该如何写? 文件应该同时包含2个域,“User-agent:”和“Disallow:”,每条指令独立一行。 (1)User-agent: 指定允许哪些蜘蛛抓取,如果给出参数,则只有指定的蜘蛛能够抓取;如值为通配符“*”号,代表允许所有蜘蛛抓取。如: User-agent: Googlebot 只允许Google的蜘蛛抓取; User-agent: * 允许所有蜘蛛抓取。 注意:User-agent必须出现在第一行(有意义的行,注释除外),首先声明用户代理。 (2)Disallow: 指定禁止蜘蛛抓取的目录或文件,如: Disallow: /help.php 禁止抓取根目录下help.php文件; Disallow: /admin/ 禁止抓取根目录下的admin子目录中任何内容; Disallow: 值为空时,表示不限制,蜘蛛可以抓取站内任何内容。 如果需要指定多个目录或文件,可以用多个“Disallow: 文件或目录名”来指定,但必须每一项单独一行。 这就是前面说到的那两位朋友网站robots.txt的问题,他们用“Disallow: /”禁止了蜘蛛抓取根目录下的所有内容。 4、robots.txt需要注意的几个问题: robots.txt文件中任意一行Disallow的值为空,其他指定的项都将失效,整站允许User-agent指定的蜘蛛抓取; robots.txt文件中允许使用注释,以“#”开头的内容被认作注释;但注释最好独立成一行,尽量不要加在参数后面,如“Disallow: /admin/ #manage dir”,某些蜘蛛可能将注释当作值的一部分。 尽量不要在一行的前面出现空格,如“ Disallow: /”,可能某些蜘蛛无法正确读取。 推荐一个robots.txt检查工具:http://tool.motoricerca.info/robots-checker.phtml 5、将你的XML格式Sitemap地址放到robots.txt中 Robin新发现,并率先在国内提出的,大家可以到点石博客中下载Robin的“网站如何被高效索引”演讲稿阅读。 加入Sitemap地址的作用是,如果搜索引擎蜘蛛能够识别此行,就能快速获知网站的XML地图文件地址,并将地图文件作为一个URL参考进行高效索引(具体哪些搜索引擎蜘蛛能够识别目前我还不清楚)。 如樂思蜀SEO博客的robots.txt,紧接着User-agent的第二行: Sitemap: http://www.baidu.com/sitemap.xml 最后,给大家一个建议,不要太刻意的在robots.txt中设置过多禁止文件或目录,只设置确实不希望被搜索引擎索引的目录和文件就可以了。 特别是在不清楚文件或目录的作用时,不要轻易禁止抓取。前阵一位做旅游的朋友,网站中有大量的旅游景点图片,几大搜索引擎中却都没有索引,后来对网站检查时发现图片目录upload在管理目录admin下,被robots.txt禁止抓取了。 我知道可以通过Google 网站管理员工具向 Google 提交网站地图 Sitemap,那么我如何向百度、雅虎等其他搜索引擎提交呢?我是否需要制作一个类似 Google Sitemap 一样的 baidu Sitemap 呢? 答案:搜索引擎都遵循一样的 Sitemap 协议,baidu Sitemap 内容和形式可以和 Google Sitemap 完全一样。但因为百度还没开通类似 Google 网站管理员工具的提交后台,所以,我们需要采用以下方式提交"baidu Sitemap" 。 我们可以通过在 robots.txt 文件中添加以下代码行来告诉搜索引擎 Sitemap 的存放位置。包括 XML Sitemap 和 文本形式的 Sitemap。 Sitemap:<sitemap_location><sitemap_location> 填写 Sitemap 的完整网址 如:http://www.example.com/sitemap.xml. http://www.example.com/sitemap.txt 如果有很多个.xml 或 .txt 文件,则你可以先建立一个索引文件,把这些.xml 或 .txt 文件的完整网址列在其中。<sitemap_location> 中填写完整的该索引文件的网址。 以上代码行放在 robots.txt 文件的任何位置都可以。 Google 网站管理员工具可以清楚看到 Sitemap 文件是否正确以及其他索引统计信息,所以除了以上的设置,我们建议你通过 Google 管理员工具再提交一次,以方便 Google 对你网站的更好收录。 虽然网上关于robots的文章已经很多了,发现都不尽全面,整理了一下供参考。 向Google、Yahoo!、MSN、Ask和百度提交sitemap 向Google提交网站地图Sitemap: 通过网址http://www.google.com/webmasters管理提交; 向Yahoo!提交网站地图Sitemap: 通过网址http://siteexplorer.search.yahoo.com管理提交; 向MSN提交网站地图Sitemap: 用URL直接提交:http://api.moreover.com/ping?u=http://your.domainname/sitemap.xml 这是向MSN直接提交网站地图的后门URL 向ASK提交网站地图Sitemap: 直接提交。http://submissions.ask.com/ping? ... ainname/sitemap.xml 向网店联盟提交地址:http://www.dianmeng.com/ 向百度Baidu提交网站地图Sitemap: 没办法,现在百度不支持Sitemap。但可通过http://www.baidu.com/search/url_submit.html来提交你的网址。百度会自行搜索,更新速度很快。</sitemap_location></sitemap_location></sitemap_location>
分享到:
评论

相关推荐

    Nop.Plugin.Misc.CustomRobotsTxt:nopCommerce 插件来管理 robots.txt 文件

    nopCommerce 插件来管理 robots.txt 文件。 安装 从下载最新的 nopCommerce 源代码,如果您已有 nopCommerce 源代码,则跳过此步骤。 下载插件源代码。 将 Nop.Plugin.Misc.CustomRobotsTxt 文件夹复制到 ...

    搜索引擎爬虫管理插件(RobotsMng)v1.0 For Zblog.rar

    搜索引擎爬虫管理插件(RobotsMng)是一款可以帮助新手管理你的Robots.txt文件的插件,如果你还不知道什么是Robots.txt请百度一下先。写这个插件的初衷在于帮助不懂Robots.txt写作规范和语法的同学们,通过这个插件,...

    搜索引擎爬虫管理插件 for Z-blog.rar

    插件简介:搜索引擎爬虫管理插件(RobotsMng)是一款可以帮助新手管理你的Robots.txt文件的插件,如果你还不知道什么是Robots.txt请百度一下先。写这个插件的初衷在于帮助不懂Robots.txt写作规范和语法的同学们,通过...

    怎么删除自己网页的百度快照.docx

    3. **设置robots.txt**:在完成以上步骤后,需要更新您网站的robots.txt文件。这是一个文本文件,用于告诉搜索引擎哪些页面可以抓取,哪些不可以。在robots.txt文件中,您可以添加禁止搜索引擎抓取特定页面的规则,...

    java写爬虫代码.pdf

    4. robots.txt协议:文档提到了robots.txt文件以及爬虫对它的处理方式。robots.txt是位于网站根目录下的一个文件,用于告知爬虫哪些页面可以抓取,哪些不可以。代码中涉及到了解析robots.txt文件,以及基于其中定义...

    seo优化中Robots是什么.docx

    该文件可以通过互联网访问,例如,如果您的网站地址是http://xuexuexi.com/,那么,该文件可以通过http://xuexuexi.com/robots.txt访问。 二、Robots协议的格式 Robots协议的格式主要包括两个部分:User-agent和...

    婚庆网站源码

    5. **文档和说明**:`说明.htm`、`下载说明.txt`和`robots.txt`等文件提供了关于如何使用和维护网站的指南,`robots.txt`则告诉搜索引擎哪些页面可以抓取,哪些应被禁止。 6. **其他辅助文件**:`robots.txt`是网站...

    【PHP源码】紫色商务礼品销售企业网站模板.rar

    `模板使用说明.txt`提供了关于如何安装和使用这个模板的指南。用户可以通过阅读这份文档了解如何将模板导入到他们的PHP环境中,以及如何自定义模板的颜色、字体、布局等设置。 `robots.txt`是一个重要的文件,它...

    网站链接抓取器(自动抓取).zip

    在抓取过程中,程序可能会遵循robots.txt文件的规则,这是一个网站管理员用来告诉爬虫哪些页面可以抓取,哪些不能。此外,它可能还会排除重复的链接,确保网站地图的准确性和效率。 "软件说明.txt"文件通常包含了...

    大气自适应宠物工作室网站源码 v1.0.zip

    robots.txt文件告诉搜索引擎哪些页面可以抓取,哪些不能,而sitemap.xml则帮助搜索引擎更好地索引网站内容。 五、文件结构解析 - `web.config`:ASP.NET应用程序的配置文件。 - `.htaccess`:Apache服务器的配置...

    Golang_GoHTTP 403绕过工具.zip

    4. **robots.txt禁止**:网站的robots.txt文件明确禁止了爬虫或某些URL的访问。 5. **过于频繁的请求**:服务器认为请求过于频繁,可能是为了防止DDoS攻击。 对于上述情况,GoHTTP库可以提供以下解决方案: 1. **...

    PHP易优乐器古筝书画培训类网站源码.zip

    【标题】"PHP易优乐器古筝书画培训类网站源码.zip" ...同时,`.htaccess`和`robots.txt`等文件的设置对于优化网站的搜索引擎表现和安全性也起着关键作用。在实际使用前,需按照`说明.htm`中的指示进行正确安装和配置。

    前端学生作业毕设实训素材-绿色墙绘装饰设计公司网站模板.rar

    robots.txt文件是网站的搜索引擎优化(SEO)的一部分,它告诉搜索引擎哪些页面可以抓取,哪些不能。.txt文件可能是一个文本文件,可能包含了额外的说明或注释。织梦CMS整站源码通用安装说明.url可能是指向织梦内容...

    PHP易优汽车租赁网站源码.zip

    2. `说明.htm`:通常包含项目的基本介绍、使用指南或安装步骤。 3. `favicon.ico`:网站的图标,显示在浏览器地址栏和收藏夹中,增强网站的识别度。 4. `login.php`:用户登录页面的PHP脚本,处理用户登录请求,验证...

    PHP易优广告印刷公司网站源码.zip

    2. `说明.htm`:这是一个HTML文档,通常包含源码的安装指南、使用说明或开发者信息,对于初次使用者非常重要。 3. `favicon.ico`:这是网站的图标,显示在浏览器的地址栏和书签中,为网站提供独特的视觉标识。 4. ...

    PHP易优游戏竞技公司网站源码.zip

    2. `说明.htm`:可能包含关于如何安装、配置和使用这个源码的详细指南。 3. `favicon.ico`:网站的图标,显示在浏览器的地址栏和书签中,有助于提升品牌识别度。 4. `login.php`:登录页面的PHP脚本,处理用户登录...

    PHP易优精密机器机械制造网站源码.zip

    2. `说明.htm`:这可能是源码的使用指南或介绍,包含如何安装、配置以及运行网站的关键信息。 3. `favicon.ico`:网站的图标,通常在浏览器的地址栏和书签中显示,有助于提升品牌识别度。 4. `robots.txt`:这是一...

    食品餐饮小吃类网站模板.zip

    5. **新手必读.url**:这可能是一个链接文件,指向一份新手指南或者使用说明文档,帮助用户理解如何安装和使用这个网站模板。 6. **sitemap.xml**:站点地图文件,列出网站的所有页面,方便搜索引擎爬虫理解和索引...

    aboutrobots:我一个,欢迎我们的新机器人霸主

    这个页面通常包含一些与robots.txt文件相关的信息,以及一些关于浏览器如何遵循和处理robots.txt规则的说明。robots.txt文件是网站服务器根目录下的一个纯文本文件,它告诉网络爬虫哪些目录或页面可以被爬取,哪些应...

Global site tag (gtag.js) - Google Analytics