robots添加Sitemap链接位置

简介: robots.txt声明网站中哪些目录不让搜索引擎收录,执行顺序从上到下,robots.txt写法,添加sitemap链接,什么是robots协议对seo的影响。sitemap是谷歌创造出来的,搜索引擎会优先读取sitemap.xml文件,如果没有就逐个抓取URL。

robots.txt声明网站中哪些目录不让搜索引擎收录,执行顺序从上到下,robots.txt写法,添加sitemap链接,什么robots协议对seo的影响。sitemap是谷歌创造出来的,搜索引擎会优先读取sitemap.xml文件,如果没有就逐个抓取URL。

网络异常,图片无法展示
|

基本语法    

User-agent:定义禁止搜索引擎名字。百度(Baiduspide)、谷歌(Googlebot)、360(360Spider)等。*号代表全部搜索引擎
Disallow:不允许收录
Allow:允许收录
#:注释

复制

全站屏蔽所有蜘蛛

     网站改版之前,为了避免蜘蛛抓取错误或临时的链接,可以采用全站屏蔽蜘蛛的操作,在根目录建立robots.txt,添加如下内容:

User-agent:*
Disallow:/

复制

屏蔽某个目录、文件

      案例:屏蔽所有蜘蛛抓取根目录下的inc文件夹及里面的所有内容,根目录下的wap目录下的index.html文件。robots.txt文件添加如下内容:

User-agent:*
Disallow:/inc/
Disallow:/wap/index.html

复制

屏蔽某个目录,但抓取目录下的文件或文件夹

①案例:屏蔽所有蜘蛛抓取根目录下的wap文件夹,但抓取里面后缀名为html的文件

User-agent:*
Disallow:/wap/
Allow:/wap/*.html

复制

      注意:上面的写法,wap带“/”代表根目录下的wap目录下的内容。并不会禁止比如根目录下waptest的文件夹及文件夹所有内容。

②案例:禁止抓取根目录下所有前面带“wap”字符的文件夹及文件

User-agent:*
Disallow:/wap

复制

      禁止了如:/wap/,/wap/12.html,/waptest/,/wapabc.html。

③案例:保护隐私文件夹或文件

      在别让网站的robots成为最大的安全漏洞一文说到,禁止搜索引擎抓取某些私密文件夹的同时,也暴露了网站的目录结构,猜出网站后台管理系统、后台等。

      比如:禁止抓取/include,就可以写成如下,当然前提是你的根目录里面没有前面带这些字符的文件夹或文件给蜘蛛抓取。

User-agent:*
Disallow:/inc

复制

屏蔽动态URL

      网站有些动态页面可能会和静态页面相同,造成重复收录。

①案例:用robots屏蔽动态URL

User-agent:*
Disallow:/*?*

复制

②案例:仅允许访问“.html”为后缀的URL

User-agent:*
Allow:.html$
Disallow:/

复制

屏蔽死链接

      网站改版、删除文章后,原来的URL如果已经被搜索引擎索引,出现404错误。一般的做法如下:

①查看网站日志,找出这些死链,用百度提交死链工具提交,慢慢的会删除这些死链;

②如果这个链接已经更换,也可以用301跳转到新的链接,301跳转后原页面和新页面处理办法

③robots禁止蜘蛛抓取死链,写法同上,最好带完整路径

User-agent:*
Disallow:http://www.vi586.com/web/22.html

复制

屏蔽不参与排名的页面链接

      比如会员中心、登陆界面、联系我们等。这些虽然有实际用途,蜘蛛一样会爬取这些页面链接,这些页面也会分权,因此为了集中权重,一些完全不参与排名的页面应该用robots屏蔽。也可以在该页面的</head>之前添加<meta>声明,指向该页面的链接加上nofollow标签。

<meta name="robots" content="noindex,nofollow"/>
<a rel="nofollow" href="/member/login">登陆</a>

复制

sitemap索引在robots.txt的位置

      sitamap索引的位置最好放在robots.txt的最下面,蜘蛛先遵循前面的原则,再按照网站地图爬取。

Sitemap: http://www.vi586.com/sitemap.xml
Sitemap: http://www.vi586.com/sitemap.html

以上就是robots添加Sitemap链接位置的详细内容,更多资料请关注米米素材网其它相关文章!

原文链接:https://www.mimisucai.com/teach/biancheng/915.html

相关文章
|
编解码
解决Hexo博客导航栏链接URL乱码问题
今年的计划之一是搭建一个博客,开始写博客。于是在网上找了一些博客程序发现用Hexo在gitHub上搭建自己的个人博客是比较简单而且易于维护的做法。 在网上找了一些教程后开始搭建,用自己比较中意的hexo-theme-next模板,发现搭建成功后导航栏链接不对,出现了URL乱码的问题。在网上搜索了一把发现有些网友也碰到了类似的问题不过都还没有解决。
145 0
|
6月前
|
XML C# 数据格式
C# 生成sitemap.txt文件
C# 生成sitemap.txt文件
52 0
|
6月前
markdown增加目录索引,实现点击目录跳转到对应的内容目录标题
markdown增加目录索引,实现点击目录跳转到对应的内容目录标题
342 0
|
SQL 存储 数据库
如何快速替换typecho的图片链接
这篇文章介绍了作者如何快速替换typecho博客中的图片链接。由于作者习惯将图片直接存储在自己的服务器上,当域名到期后,文章中的图片链接失效。作者通过登录phpMyAdmin,进入博客数据库并执行SQL语句来替换所有文章中的图片链接。文章提供了相关的SQL语句和执行方法。
397 1
|
移动开发 前端开发 HTML5
web前端学习(四)——HTML5的超链接标签设置(页面间链接、锚链接以及邮件链接)
web前端学习(四)——HTML5的超链接标签设置(页面间链接、锚链接以及邮件链接)
web前端学习(四)——HTML5的超链接标签设置(页面间链接、锚链接以及邮件链接)
|
数据采集 算法 搜索推荐
了解sitemap(站点地图)和如何判定你的网站是否需要提交站点地图
了解sitemap(站点地图)和如何判定你的网站是否需要提交站点地图
392 0
|
数据采集 Web App开发 搜索推荐
爬虫的另一种思路 -- 从 robots.txt 中找到抓取入口
近两年出现曾报道一些关于非法抓取数据的程序员被告上法庭的事例, 而非法抓取的一个典型做法就是不遵守网站的 robots.txt 规则进行爬取. 早年就曾有搜索引擎不遵守淘宝的 robots.txt 还去收录网站的信息被告的案例.
1990 0
|
搜索推荐 索引 定位技术
搜索引擎篇:网站根目录 “robots.txt” 文件写法
robots.txt写法。添加sitemap链接。 搜索引擎会优先读取sitemap.xml文件,如果没有就逐个抓取URL。
1766 0
|
搜索推荐 UED JavaScript
使用WP-NoExternalLinks插件让外链变文本
往往在网站的运营过程中为了达到更好的用户体验,就需要插入一些外部链接,来进行相关文章的推荐阅读,但过多外链会导致自己站点权重转移,对SEO是十分不利的。
1371 0