`

网站robots.txt文件说明(2)

阅读更多
今天一天之内,准确的说相隔不到3个小时,就有两个朋友在QQ上让我帮他看看网站,为什么搜索引擎不收录。从我个人角度来看,他们的站做的还不错,除了个别地方(如有几页标题相同之类)不够,没有导致不收录的因素。最后一查看robots.txt,“Disallow: /”。 回想起来,找我咨询的朋友中,还真有不少的一部分都是这样的问题,所以写出来,供不熟悉的朋友参考。 1、robots.txt是什么? robots.txt是一个纯文本文件,用来告诉网络蜘蛛(不仅限搜索引擎蜘蛛)本站中哪些位置允许抓取,哪些位置不允许抓取。 2、如何正确放置robots.txt? 首先,robots.txt文件必须放置在网站根目录;有域名指向到次目录,在次目录放置的robots.txt文件只对此域名有效。 其次,文件名必须小写,如Robots.txt、roBots.txt、robots.TXT都是错误的。 3、robots.txt内容应该如何写? 文件应该同时包含2个域,“User-agent:”和“Disallow:”,每条指令独立一行。 (1)User-agent: 指定允许哪些蜘蛛抓取,如果给出参数,则只有指定的蜘蛛能够抓取;如值为通配符“*”号,代表允许所有蜘蛛抓取。如: User-agent: Googlebot 只允许Google的蜘蛛抓取; User-agent: * 允许所有蜘蛛抓取。 注意:User-agent必须出现在第一行(有意义的行,注释除外),首先声明用户代理。 (2)Disallow: 指定禁止蜘蛛抓取的目录或文件,如: Disallow: /help.php 禁止抓取根目录下help.php文件; Disallow: /admin/ 禁止抓取根目录下的admin子目录中任何内容; Disallow: 值为空时,表示不限制,蜘蛛可以抓取站内任何内容。 如果需要指定多个目录或文件,可以用多个“Disallow: 文件或目录名”来指定,但必须每一项单独一行。 这就是前面说到的那两位朋友网站robots.txt的问题,他们用“Disallow: /”禁止了蜘蛛抓取根目录下的所有内容。 4、robots.txt需要注意的几个问题: robots.txt文件中任意一行Disallow的值为空,其他指定的项都将失效,整站允许User-agent指定的蜘蛛抓取; robots.txt文件中允许使用注释,以“#”开头的内容被认作注释;但注释最好独立成一行,尽量不要加在参数后面,如“Disallow: /admin/ #manage dir”,某些蜘蛛可能将注释当作值的一部分。 尽量不要在一行的前面出现空格,如“ Disallow: /”,可能某些蜘蛛无法正确读取。 推荐一个robots.txt检查工具:http://tool.motoricerca.info/robots-checker.phtml 5、将你的XML格式Sitemap地址放到robots.txt中 Robin新发现,并率先在国内提出的,大家可以到点石博客中下载Robin的“网站如何被高效索引”演讲稿阅读。 加入Sitemap地址的作用是,如果搜索引擎蜘蛛能够识别此行,就能快速获知网站的XML地图文件地址,并将地图文件作为一个URL参考进行高效索引(具体哪些搜索引擎蜘蛛能够识别目前我还不清楚)。 如樂思蜀SEO博客的robots.txt,紧接着User-agent的第二行: Sitemap: http://www.baidu.com/sitemap.xml 最后,给大家一个建议,不要太刻意的在robots.txt中设置过多禁止文件或目录,只设置确实不希望被搜索引擎索引的目录和文件就可以了。 特别是在不清楚文件或目录的作用时,不要轻易禁止抓取。前阵一位做旅游的朋友,网站中有大量的旅游景点图片,几大搜索引擎中却都没有索引,后来对网站检查时发现图片目录upload在管理目录admin下,被robots.txt禁止抓取了。 我知道可以通过Google 网站管理员工具向 Google 提交网站地图 Sitemap,那么我如何向百度、雅虎等其他搜索引擎提交呢?我是否需要制作一个类似 Google Sitemap 一样的 baidu Sitemap 呢? 答案:搜索引擎都遵循一样的 Sitemap 协议,baidu Sitemap 内容和形式可以和 Google Sitemap 完全一样。但因为百度还没开通类似 Google 网站管理员工具的提交后台,所以,我们需要采用以下方式提交"baidu Sitemap" 。 我们可以通过在 robots.txt 文件中添加以下代码行来告诉搜索引擎 Sitemap 的存放位置。包括 XML Sitemap 和 文本形式的 Sitemap。 Sitemap:<sitemap_location><sitemap_location> 填写 Sitemap 的完整网址 如:http://www.example.com/sitemap.xml. http://www.example.com/sitemap.txt 如果有很多个.xml 或 .txt 文件,则你可以先建立一个索引文件,把这些.xml 或 .txt 文件的完整网址列在其中。<sitemap_location> 中填写完整的该索引文件的网址。 以上代码行放在 robots.txt 文件的任何位置都可以。 Google 网站管理员工具可以清楚看到 Sitemap 文件是否正确以及其他索引统计信息,所以除了以上的设置,我们建议你通过 Google 管理员工具再提交一次,以方便 Google 对你网站的更好收录。 虽然网上关于robots的文章已经很多了,发现都不尽全面,整理了一下供参考。 向Google、Yahoo!、MSN、Ask和百度提交sitemap 向Google提交网站地图Sitemap: 通过网址http://www.google.com/webmasters管理提交; 向Yahoo!提交网站地图Sitemap: 通过网址http://siteexplorer.search.yahoo.com管理提交; 向MSN提交网站地图Sitemap: 用URL直接提交:http://api.moreover.com/ping?u=http://your.domainname/sitemap.xml 这是向MSN直接提交网站地图的后门URL 向ASK提交网站地图Sitemap: 直接提交。http://submissions.ask.com/ping? ... ainname/sitemap.xml 向网店联盟提交地址:http://www.dianmeng.com/ 向百度Baidu提交网站地图Sitemap: 没办法,现在百度不支持Sitemap。但可通过http://www.baidu.com/search/url_submit.html来提交你的网址。百度会自行搜索,更新速度很快。</sitemap_location></sitemap_location></sitemap_location>
分享到:
评论

相关推荐

    Nop.Plugin.Misc.CustomRobotsTxt:nopCommerce 插件来管理 robots.txt 文件

    nopCommerce 插件来管理 robots.txt 文件。 安装 从下载最新的 nopCommerce 源代码,如果您已有 nopCommerce 源代码,则跳过此步骤。 下载插件源代码。 将 Nop.Plugin.Misc.CustomRobotsTxt 文件夹复制到 ...

    搜索引擎爬虫管理插件(RobotsMng)v1.0 For Zblog.rar

    搜索引擎爬虫管理插件(RobotsMng)是一款可以帮助新手管理你的Robots.txt文件的插件,如果你还不知道什么是Robots.txt请百度一下先。写这个插件的初衷在于帮助不懂Robots.txt写作规范和语法的同学们,通过这个插件,...

    搜索引擎爬虫管理插件 for Z-blog.rar

    插件简介:搜索引擎爬虫管理插件(RobotsMng)是一款可以帮助新手管理你的Robots.txt文件的插件,如果你还不知道什么是Robots.txt请百度一下先。写这个插件的初衷在于帮助不懂Robots.txt写作规范和语法的同学们,通过...

    怎么删除自己网页的百度快照.docx

    3. **设置robots.txt**:在完成以上步骤后,需要更新您网站的robots.txt文件。这是一个文本文件,用于告诉搜索引擎哪些页面可以抓取,哪些不可以。在robots.txt文件中,您可以添加禁止搜索引擎抓取特定页面的规则,...

    爬虫爬取MP4程序代码.txt

    3. 目标网站的robots.txt文件:大多数网站会在根目录下放置一个名为robots.txt的文件,用于告诉爬虫哪些页面可以抓取,哪些不可以。在进行爬虫操作前,应先检查该文件以确保遵守网站的规定。 4. 法律法规遵守:不同...

    java写爬虫代码.pdf

    4. robots.txt协议:文档提到了robots.txt文件以及爬虫对它的处理方式。robots.txt是位于网站根目录下的一个文件,用于告知爬虫哪些页面可以抓取,哪些不可以。代码中涉及到了解析robots.txt文件,以及基于其中定义...

    渔具批发钓具装备网站模板_网站整站打包下载.zip

    同时,robots.txt文件的设置可以帮助网站管理员控制搜索引擎爬虫访问网站的哪些部分,避免索引到不希望公开的页面。 5. 网站安全:.htaccess文件可以用于设置网站的安全规则,如禁止非法访问特定目录或文件,以及...

    收费依旧可用音乐爬虫代码.txt

    10. 遵循robots.txt协议的重要性:虽然本文件中没有显示,但是利用爬虫抓取网站数据时,应遵守网站的robots.txt协议,避免抓取禁止爬取的内容。 11. 遵守法律法规:网络爬虫在抓取数据时应当遵守相关法律法规,不...

    响应式家政服务保洁公司网站模板_网站整站打包下载.zip

    对于保洁公司网站而言,合理的设置robots.txt文件能够帮助搜索引擎优化,保护敏感数据不被索引,同时确保重要的页面如服务页面、联系方式等能够被搜索引擎收录。 4. 新手必读.url文件:这可能是一个文本文件,包含...

    seo优化中Robots是什么.docx

    该文件可以通过互联网访问,例如,如果您的网站地址是http://xuexuexi.com/,那么,该文件可以通过http://xuexuexi.com/robots.txt访问。 二、Robots协议的格式 Robots协议的格式主要包括两个部分:User-agent和...

    响应式护肤美容化妆品类网站模板_网站整站打包下载.zip

    login.php文件则是网站登录页面的核心代码文件,而robots.txt文件则告诉搜索引擎爬虫哪些页面可以抓取,哪些不可以。 此外,安装文件夹通常包含了用于安装网站的脚本和文件,以及可能的数据库文件,这些是实现网站...

    rar文件爬虫程序代码QZQ.txt

    在实际使用爬虫程序时,需要遵守相关法律法规,以及网站的robots.txt文件定义的抓取协议。未经允许抓取和分发网站内容可能涉及侵犯版权、违反隐私权或违反服务条款等法律问题。此外,频繁的请求也可能对服务器造成过...

    节日礼品首饰企业网站模板_服饰箱包礼品玩具类网站整站打包下载.zip

    3. robots.txt文件是网站的一个重要组成部分,它用来指示搜索引擎爬虫哪些页面可以抓取,哪些页面不可以。通过合理的配置robots.txt,可以帮助网站提高搜索引擎的友好度,从而提升网站的可见度。 4. 新手必读.url...

    基于PHP、HTML、JavaScript、CSS、Shell的ThinkSAAS开源社区设计源码

    composer.json文件是PHP项目中用于管理依赖关系的标准文件,LICENSE.TXT文件包含了开源协议,INSTALL.TXT和readme.txt提供了安装指南和项目说明,robots.txt文件则是用来告诉搜索引擎爬虫哪些页面可以抓取,哪些不...

    单位部门网站模板_网站整站打包下载.zip

    例如,.htaccess和robots.txt文件的存在说明模板在网站维护和优化方面已经具备了基本设置。login.php文件的存在则说明模板支持基本的用户权限管理功能。 对于想要创建一个单位部门网站的用户来说,这样的模板不仅...

    婚庆网站源码

    5. **文档和说明**:`说明.htm`、`下载说明.txt`和`robots.txt`等文件提供了关于如何使用和维护网站的指南,`robots.txt`则告诉搜索引擎哪些页面可以抓取,哪些应被禁止。 6. **其他辅助文件**:`robots.txt`是网站...

    【PHP源码】紫色商务礼品销售企业网站模板.rar

    `模板使用说明.txt`提供了关于如何安装和使用这个模板的指南。用户可以通过阅读这份文档了解如何将模板导入到他们的PHP环境中,以及如何自定义模板的颜色、字体、布局等设置。 `robots.txt`是一个重要的文件,它...

    无线数码门铃网站模板_网站整站打包下载.zip

    robots.txt文件是一个文本文件,告诉搜索引擎爬虫哪些页面可以抓取,哪些不可以。它是网站管理的重要文件之一,通过配置robots.txt可以避免搜索引擎索引到敏感页面或者不必要的内容,同时保护网站数据安全和提升搜索...

    响应式高端家居定制网站模板_建材家居家具电器类下载有预览图在博客首页.zip

    这些文件包括了网站开发和优化中常见的配置文件,例如 .htaccess、robots.txt、sitemap.xml,这些文件对于网站的优化和搜索引擎的爬取行为有着重要的作用。其中.htaccess 文件通常用于控制网站服务器的配置,如URL...

    网站链接抓取器(自动抓取).zip

    在抓取过程中,程序可能会遵循robots.txt文件的规则,这是一个网站管理员用来告诉爬虫哪些页面可以抓取,哪些不能。此外,它可能还会排除重复的链接,确保网站地图的准确性和效率。 "软件说明.txt"文件通常包含了...

Global site tag (gtag.js) - Google Analytics