robots讲解

简介:

在SEO网站优化中robots.txt文件的编写直接影响网站优化的成果。

正所谓,细节决定成败,robots.txt文件要怎么写?

1240

一、为什么要写robots.txt文件,它的作用是什么?

        robots.txt是用来告诉搜索引擎网站上哪些内容可以被访问、哪些不能被访问。

           当搜索引擎访问一个网站的时候,   它首先会检查网站是否存在robots.txt,如果有则会根据文件命令访问有权限的文件。

        每个网站需要根据自身的要求写好robots.txt文件,robots.txt文件长什么样子?我们可以看看几个网站

        的robots.txt文件。

1240

淘宝robots.txt文件

1240

百度robots.txt文件

网站为什么要写robots.txt,主要有四点:

1、保护网站安全

2、节省流量

3、禁止搜索引擎收录部分页面

4、引导蜘蛛爬网站地图

二、robots.txt的写法与步骤

1、定义搜索引擎

      用User-agent:来定义搜索引擎,其中*表示所有,Baiduspider表示百度蜘蛛,Googlebot表示谷歌蜘蛛。

      也就是说User-agent:*表示定义所有蜘蛛,User-agent:Baiduspider表示定义百度蜘蛛。

2、禁止与允许访问

       Disallow: /表示禁止访问,Allow: /表示允许访问。

       在写robots.txt时需特别注意的是,/前面有一个英文状态下的空格(必须是英文状态下的空格)。

3、禁止搜索引擎访问网站中的某几个文件夹,以a、b、c为例,写法分别如下:

      Disallow: /a/

      Disallow: /b/

      Disallow: /c/

    3-1、禁止搜索引擎访问文件夹中的某一类文件,以a文件夹中的js文件为例,写法如下:

               Disallow: /a/*.js

4、只允许某个搜索引擎访问,以Baiduspider为例,写法如下:

       User-agent: Baiduspider

       Disallow:

5、禁止访问网站中的动态页面

       User-agent: *

       Disallow: /*?*

6、只允许搜索引擎访问某类文件,以htm为例,写法如下:

       User-agent: *

      Allow: .htm$

      Disallow: /

7、禁止某个搜索引擎抓取网站上的所有图片,以Baiduspider为例,写法如下:

      User-agent: F

      Disallow: .jpg$

      Disallow: .jpeg$

      Disallow: .gif$

     Disallow: .png$

     Disallow: .bmp$

三、robots.txt文件存放位置

        robots.txt文件存放在网站根目录下,并且文件名所有字母都必须小写。

四、特别注意事项

        在写robots.txt文件时语法一定要用对,User-agent、Disallow、Allow、Sitemap这些词都必须是第一个字母大写,

       后面的字母小写,而且在:后面必须带一个英文字符下的空格。

       网站上线之前切记写robots.txt文件禁止蜘蛛访问网站,如果不会写就先了解清楚写法之后再写,以免给网站收录

       带来不必要的麻烦。

       robots.txt文件生效时间在几天至一个月之间,站长自身无法控制。但是,站长可以在百度统计中

       查看网站robots.txt  文件是否生效。


中国站长站robots文件在线生成:

http://tool.chinaz.com/robots/



本文转自 boy461205160 51CTO博客,原文链接:http://blog.51cto.com/461205160/1945389

相关文章
|
3月前
|
XML C# 数据格式
C# 生成sitemap.txt文件
C# 生成sitemap.txt文件
20 0
robots.txt文件示例
robots.txt文件示例
76 0
|
搜索推荐 机器人 定位技术
怎样写Robots文件?
在SEO优化网站结构时,控制网页抓取、索引是常用的技术。常用工具包括: 机器人文件。
132 0
怎样写Robots文件?
|
搜索推荐 定位技术 索引
robots添加Sitemap链接位置
robots.txt声明网站中哪些目录不让搜索引擎收录,执行顺序从上到下,robots.txt写法,添加sitemap链接,什么是robots协议对seo的影响。sitemap是谷歌创造出来的,搜索引擎会优先读取sitemap.xml文件,如果没有就逐个抓取URL。
|
前端开发 搜索推荐 PHP
robots是什么?robots.txt怎么写?效果才好呢
一、啥是robots.txt? robots是网页和应用软件备忘录的纯文本公文,当两个应用软件青蛙来到访停靠站的时侯,首先两栖类复查根产品目录是否普遍存在这个公文。除非普遍存在假如,那么就会根据公文的以下内容来确定到访范围,除非没更有甚者话青蛙就会沿镜像进行截取,robots置于项目的根产品目录下。 robots是啥?robots.txt怎么写? BLOG瞳子 BLOG.tongziol.net
146 0
robots是什么?robots.txt怎么写?效果才好呢
|
缓存 搜索推荐 前端开发
Robots.txt协议文件你了解多少,最详细的Robots.txt协议解读
Robots.txt协议文件你了解多少,最详细的Robots.txt协议解读在这,很多站长即使知道robots协议是干什么,但对于其深入的机制并没有了解,因此这里有必要说明一下。
Robots.txt协议文件你了解多少,最详细的Robots.txt协议解读
|
搜索推荐 索引 定位技术
搜索引擎篇:网站根目录 “robots.txt” 文件写法
robots.txt写法。添加sitemap链接。 搜索引擎会优先读取sitemap.xml文件,如果没有就逐个抓取URL。
1663 0
|
搜索推荐 机器人
|
数据采集 搜索推荐 机器人
|
数据采集 搜索推荐 机器人