`

巧用robots删除已收录页面

阅读更多
在网站优化的过程当中,相信很多朋友遇到过这样的问题,已经被搜索引擎收录的页面,由于网站的改动或者适应搜索引擎的需要,而删除这些已经被收录的页面,那么应该如何对这些页面删除,而不对网站造成影响呢?河北刺猬教你巧用robots屏蔽已收录信息。
首先你需要确实哪个页面是你想要删除的,并且找出它所在的目录级别,同时确认那个是你需要保留的。比如  …/ABC/ 或者  …/ABC/index.html 这个页面保留,而删除…/ABC/abc/    ..ABC/abc/123/  这些。你可以通过Disallow: /ABC/abc/,这样可以连 acb目录下的123都删除掉。
同时你也可以直接在谷歌管理员工具里面去添加,然后直接生成robots文件,这样更加直观和准确一些。
另外一般情况下,设置了删除页面以后,并不是这些收录的页面就会马上生效的,一般情况需要等待一到两个小时,所以在这期间不要着急。保定seo原创,转载注明。
分享到:
评论

相关推荐

    用什么方法能让搜索引擎及时更新你的网站收录数据.doc

    7. **robots协议**:如果你不希望某个部分或整个网站被搜索引擎收录,可以在robots.txt文件中进行设置。 8. **网站稳定性**:确保网站的稳定性和可访问性,避免频繁的服务器故障或长时间的维护状态,这会影响搜索...

    自动秒收录网址导航 v3.10.1.zip

    7. `zdmsl_admin`:这是管理员界面的文件夹,包含后台管理系统的所有页面,如添加、编辑和删除网址,管理用户反馈,查看统计信息等。 8. `zdmsl_404`:这可能是一个自定义的404错误页面,当用户尝试访问不存在的...

    百度不收录怎么办.docx

    这是百度官方提供的服务,允许网站管理员主动提交新页面或更新页面的URL,以便快速被搜索引擎抓取。 4. **使用教程**: - 步骤一:准备URL列表文件,可以是手动创建或现有文件。 - 步骤二:访问百度站长平台获取...

    网站改版时需要注意的事项 避免降权.docx

    3. **页面内容的保留**:不要轻易删除已收录的页面,即使它们对业务帮助不大。页面的删除可能导致空链接或死链,严重影响搜索引擎的抓取和用户体验。若需调整,可更新或隐藏页面,而非直接删除。 4. **栏目管理**:...

    “百度与站长”更新:关于网站收录,删除,seo等

    #### 一、网页收录与删除机制 **1.1 如何让网站被百度收录?** 百度收录网站的基本原则是网页内容必须符合用户的搜索体验。为了加速百度爬虫(Spider)发现您的站点,可以通过提交网站入口网址的方式告知百度。...

    seo中的加减法.docx

    处理死链可通过301重定向将旧链接指向新页面,或在robots.txt文件中阻止搜索引擎抓取已删除的页面。 2. **减少网站打开时间**:快速的加载速度对用户体验和搜索引擎排名都有积极影响。优化图片大小,压缩代码,选择...

    asp 订单系统

    对于订单系统而言,可能需要保护某些敏感信息不被搜索引擎收录,如用户个人信息和后台管理页面。 6. **文件夹结构** - **Include**:这个文件夹通常包含可重用的代码片段,如函数库、数据库连接文件等,以提高代码...

    高质量链接的十大特点.doc

    9) **可爬取的链接**:确保链接所在的页面已被搜索引擎收录且未被删除或惩罚。同时,检查robots.txt文件和noindex/nofollow属性,避免链接被阻止抓取。 10) **链接所在页面PR值**:即使链接不在首页,只要页面的...

    站长 sitemap索引文件以及提交到百度

    当添加新的页面或删除旧页面时,应及时更新Sitemap。 7. **工具的使用**: 有许多在线工具和插件可以帮助生成和维护Sitemap,比如WordPress的Yoast SEO插件,或者Google的XML Sitemap Generator等。这些工具能够...

    SEO研究中心:不同行业网站在百度排名算法中有哪些区别.pdf

    百度虽然遵守robots协议,但对之前已收录的页面不会立即删除;而360则无视robots,即使网站被屏蔽,仍可能继续收录。这意味着针对不同搜索引擎,制定robots.txt策略时要考虑其特性。 其次,不同行业间的SEO差距在于...

    PHP版网站百度谷歌所有搜索引擎蜘蛛查看器

    【PHP版网站百度谷歌所有搜索引擎...如果发现某些页面未被爬取,可能需要检查robots.txt设置或者页面的可达性。总的来说,【PHP版网站百度谷歌所有搜索引擎蜘蛛查看器】是提升网站SEO策略和用户体验的重要辅助工具。

    如何才能保护个人隐私防止被谷歌窥探.docx

    4. 使用HTML 'robots'标签:在自己的网站上,通过添加`<meta name="robots" content="noindex,nofollow">`标签,可以防止搜索引擎收录页面。若只想阻止谷歌,可以将'robots'改为'googlebot'。 5. 联系网站管理员:...

    Discuz论坛的SEO优化方案.docx

    - `robots.txt`文件用于指示搜索引擎哪些页面可以抓取,哪些禁止。对于Discuz论坛,可能需要禁止某些版面或特定帖子的搜索引擎收录,以保护隐私或避免重复内容问题。定期检查和更新robots.txt,确保符合当前论坛...

    seo基础测试题目.docx

    - **死链接**: 指无法正常访问的链接,可能是因为页面已被删除或者移动。过多的死链接会影响用户体验,也会对SEO产生负面影响。 - **404页面**: 当用户尝试访问一个不存在的页面时,服务器返回的错误页面。一个好的...

    wordpress优化心得参考.pdf

    如果使用默认模板,记得删除无用链接。 2. **避免过度使用Tag**: - Tag页面可能产生大量重复内容,对搜索引擎不友好。建议减少Tag的使用或对其进行更精确的配置。 3. **评论链接处理**: - 可以通过函数将评论...

    baidu_sitemap使用教程

    3. **编辑网站地图**:生成的网站地图可能需要手动调整,比如添加或删除某些URL,设置每个页面的更新频率和优先级。 4. **保存为XML格式**:保存你的网站地图为.xml文件,这是百度所接受的标准格式。 5. **验证...

    快车蜘蛛池站群程序 v2.0.rar

    13 程序默认屏蔽谷歌蜘蛛,如需要谷歌蜘蛛请在robots.txt中删除 (注意:非快车seo网付费会员将随机出现我们提供的广告) 快车蜘蛛池站群程序使用教程(懒人模式) 先安装配置,配置好后将自动进入后台, 后台...

    互联网网络科技类网站模板

    【robots.txt】是一个文本文件,告诉搜索引擎哪些页面可以抓取,哪些禁止抓取。对于不想被搜索引擎收录的部分,可以通过修改此文件来实现。 【新手必读.url】可能是一个链接文件,指向新手教程或帮助文档,帮助初次...

    企业网站SEO优化方案.pdf

    安全漏洞和黑链可能导致搜索引擎惩罚,需要立即修复所有已知漏洞并删除黑链,确保网站的正常运行和良好的搜索引擎表现。 三、死链接处理 死链接会损害用户体验和搜索引擎爬虫的抓取效率。应通过正确设置404错误...

    如何最大程度的减少网站搬家带来的“阵痛”.docx

    4. **优化网站结构**:利用`robots.txt`和404页面管理错误链接,提升用户体验和搜索引擎友好度。 5. **集中首页权重**:通过`nofollow`标签管理内部链接,避免权重分散,助力首页恢复排名。 总之,网站搬家是一个...

Global site tag (gtag.js) - Google Analytics