网站的robots 文件写法 附自动生成工具网址

简介:

现在网站站长为了网站内容更多被各大搜索引擎收录,会在robots.txt中写入各种规则,

现介绍一个方便的方法,到一个网站自动生成:

网址如下:http://tool.chinaz.com/robots/


另引用一下robots的基本写法:


robots.txt是网站seo优化中起着很重要的作用,robots.txt是搜索引擎访问网站时需要查看的第一个文件,搜索引擎蜘蛛来到一个站点,首先要检查站点根目录下是否存在robots.txt,如果有,就会按照该文件中的内容确定访问范围,如果该文件不存在就会随意抓取,可能会抓到到重复路径或错误页面。下面我就和大家说说 rotbots.txt写法 ,希望对大家有所帮助。


robots.txt写法举例:

1、阻止全部搜索引擎访问网站的任何部门,也便是是阻止全部引擎收录你的网站。

User-agent: *

Disallow: /


2、容许全部的搜索引擎访问你的网站的任何部门,这是通常的用法。

User-agent: *

Disallow:

大概

User-agent: *

Allow: /


3、要是你网站的某个目录不想被搜索引擎收录,写法如下:

User-agent: *

Disallow: /目录名称1/

Disallow: /目录名称2/

Disallow: /目录名称3/

过细:不能写成Disallow: /目录名称1/ /目录名称2/ 这样的情势,每个目录要单独另起一行特别阐明。


4、仅仅容许某一搜索引擎访问你的网站。同样百度是baiduspider Google是googlebot

User-agent: baiduspider

Allow:


User-agent: googlebot

Allow:


5、仅克制某一搜索引擎访问你的网站。 Google是googlebot 百度是baiduspider

User-agent: baiduspider

Disallow: /


User-agent: googlebot

Disallow: /


6、阻止搜索引擎访问网站中全部的动态页面(动态页面便是URL中任何带有“?”的页面)


User-agent: *

Disallow: /*?*


7、仅仅容许搜索引擎访问某一特定文件后缀形式的网页。

User-agent: *

Allow: .后缀形式(如.html、.htm、.php等等)$

Disallow: /


8、容许搜索引擎访问特定目录中的网页

User-agent: *

Allow: /目录1/目录2(容许访问目录2中的网页)

Allow: /目录3/目录4(容许访问目录4中的网页)

Allow: /目录5/目录6(容许访问目录6中的网页)

Disallow: /目录1/

Disallow: /目录3/

Disallow: /目录5/


9、限定搜索引擎访问某一特定文件后缀形式的网页。

User-agent: *

Disallow: /*.后缀形式(如.html、.htm、.php等等)


10、阻止搜索擎访问网站特定某一文件格式的文件(注意不是网页)

User-agent: *

Disallow: /*.(文件格局:如gif、jpg等等)$


以上是一些常用的格式。具体的写法还要以各个网站需求而定。


写robots.txt还要注意以下一些问题:


1、robots.txt文件因此纯文本格式存在的txt文件。


2、robots.txt必须放置在网站的根目录中。最上层的robots.txt文件必须这样被访问:如广州seo网站写的robots.txt http://g.moonseo.cn/robots.txt


3、写robots.txt时要严格根据以上大小写形式誊写


4、通常你的网站比较简单,那么以上的格式足够你利用的了。要是比较庞大,必要访问这里而又不必要访问那边,阻止这个文件又要容许那个文件,容许访问访问带有“?”标记的特定网页等等,那么你必要联合以上格式详细研究切合于你网站的robots.txt文件写法。


5、robots.txt通常在某个分目录中还可以存在,但是要是与顶级目录中的robots.txt有不同,则以顶级目录中robots.txt为准。


6、仅当您的网站包括不希望被搜索引擎收录的内容时,才要利用robots.txt文件。要是您希望搜索引擎收录网站上全部内容,请勿创建 robots.txt文件,不要创建一个内容为空的robots.txt文件。这一点通常被人们马虎,实际上创建空的robots.txt文件对搜刮引擎非常不友好。


7、要是你不想自己动手写robots.txt文件,那么请Google帮你写。登录Google平台,有生成robots.txt文件的。


8、


User-agent: *

Disallow: /

这种格式不但仅是阻止抓取页面,更主要的是你的网站被收录了,然后又把robots.txt文件修改成以上格局,那么你的网站将在搜索引擎中被删除,整个地删除。


9、元标志对一样平常的网站来说可有可无,不过你还是得认识:

<META NAME=”ROBOTS” CONTENT=”NOINDEX,NOFOLLOW”>(不容许抓取该页面,不容许跟着该页面上的链连续续抓取)


<META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW”>(容许抓取该页面,容许跟着该页面上的链连续续抓取)


<META NAME=”ROBOTS” CONTENT=”INDEX,NOFOLLOW”>(容许抓取该页面,不容许跟着该页面上的链连续续抓取)


<META NAME=”ROBOTS” CONTENT=”NOINDEX,FOLLOW”>(不容许抓取该页面,容许跟着该页面上的链连续续抓取)




本文转自成杭 51CTO博客,原文链接:http://blog.51cto.com/hangtc/1403699,如需转载请自行联系原作者

相关文章
|
数据采集 搜索推荐 机器人
Web---robots协议详解
Web---robots协议详解
1031 1
|
弹性计算 人工智能 网络安全
ECS实例问题之增加GPU显卡失败如何解决
ECS实例指的是在阿里云ECS服务中创建的虚拟计算环境,用户可在此环境中运行应用程序和服务;本合集将介绍ECS实例的创建、管理、监控和维护流程,及常见问题处理方法,助力用户保障实例的稳定运行。
|
缓存 Java 开发者
Java多线程并发编程:同步机制与实践应用
本文深入探讨Java多线程中的同步机制,分析了多线程并发带来的数据不一致等问题,详细介绍了`synchronized`关键字、`ReentrantLock`显式锁及`ReentrantReadWriteLock`读写锁的应用,结合代码示例展示了如何有效解决竞态条件,提升程序性能与稳定性。
836 6
|
人工智能
初涉歌词创作:写歌词的技巧和方法你知道多少,妙笔生词智能写歌词软件
对于初涉歌词创作的人来说,掌握关键技巧和使用“妙笔生词智能写歌词软件”能大大提升创作效率。该软件提供AI智能写词、押韵优化、歌词续写等功能,帮助捕捉灵感,明确主题,优化结构,使语言表达更加简洁生动,助你创作出感人至深的作品。
|
12月前
|
Web App开发 机器学习/深度学习 人工智能
Magic Copy:开源的 AI 抠图工具,在浏览器中自动识别图像进行抠图
Magic Copy 是一款开源的 AI 抠图工具,支持 Chrome 浏览器扩展。它基于 Meta 的 Segment Anything Model 技术,能够自动识别图像中的前景对象并提取出来,简化用户从图片中提取特定元素的过程,提高工作效率。
617 7
Magic Copy:开源的 AI 抠图工具,在浏览器中自动识别图像进行抠图
|
数据采集 搜索推荐 机器人
|
存储 资源调度
pnpm的安装和使用(全网最详细)
pnpm的安装和使用(全网最详细)
7220 0
|
编解码
vlc可以播放这个m3u8但是LivePlayer只有声音没画面
vlc可以播放这个m3u8但是LivePlayer只有声音没画面
2457 0