一文搞懂SEO优化之站点robots.txt

简介: 建站后千万别忘记配置 `robots.txt` 爬虫规则,对于搜索引擎发现你的站点非常重要,除了主动到搜索引擎平台提交网站之外,也要主动告诉搜索引擎网站里都有哪些网页?哪些希望被抓取?哪些不希望被抓取?

建站后千万别忘记配置 robots.txt 爬虫规则,对于搜索引擎发现你的站点非常重要,除了主动到搜索引擎平台提交网站之外,也要主动告诉搜索引擎网站里都有哪些网页?哪些希望被抓取?哪些不希望被抓取?

🔍 1 robots.txt 是什么?

robots.txt 是一个纯文本协议文件,放置在网站根目录(如 https://example.com/robots.txt),用于指导搜索引擎爬虫(如 Googlebot、Baiduspider)的抓取行为,是站点级别规定哪些页面可被引擎爬虫抓取,哪些禁止抓取(当然还有页面级别的,这个有机会介绍)。用于声明网站中禁止或允许被爬虫访问的目录/文件,控制内容收录范围。此规范非强制命令,而是行业通行的约定。

核心价值

  • 隐私保护:屏蔽敏感目录(如 /admin/、用户后台);
  • 优化性能:减少爬虫对无效页面(如死链、图片库)的请求,节省带宽;
  • SEO 辅助:引导爬虫优先抓取重要页面,提升索引效率。

⚙️ 2 核心语法与指令解析

2.1 基础结构

User-agent: [爬虫名称]  # 指定目标爬虫(* 代表所有)
Disallow: [禁止路径]    # 定义禁止访问的URL
Allow: [允许路径]       # 定义例外规则(需在 Disallow 后使用)
Sitemap: [网站地图URL]  # 提交 XML 站点地图(可选)

值得注意

  • 指令区分大小写,路径以 / 开头,# 后为注释。比如:Allow: /blogAllow: /Blog 是不同的。
  • Sitemap指令是需要写全包含域名的全路径。
  • 指令 Crawl-delay 表示抓取请求的频率,不过谷歌暂不支持。写法如:Crawl-delay: 15 表示爬虫抓取间隔不能小于15秒。比如 github 就有针对百度爬虫这样约束(https://github.com/robots.txt)
User-agent: baidu
crawl-delay: 1
  • 可以针对不同爬虫单独指定爬取内容,通过换行进行分组,比如知乎就针对不同爬虫单独定义(部分截取)
User-agent: Googlebot
Disallow: /login
Disallow: /*?guide*

User-agent: Baiduspider-render
Disallow: /login
Disallow: /*?guide*

User-agent: Baiduspider-image
Disallow: /login
Disallow: /*?guide*

User-agent: Sogou web spider
Allow: /tardis/sogou/
Disallow: /

User-Agent: *
Disallow: /

当然相同的爬取内容,可以同时指定多个爬虫,如上面可简写成:

User-agent: Googlebot
User-agent: Baiduspider-render
User-agent: Baiduspider-image
Disallow: /login
Disallow: /*?guide*

User-agent: Sogou web spider
Allow: /tardis/sogou/
Disallow: /

User-Agent: *
Disallow: /

2.2 指令详解

指令 作用 示例 说明
User-agent 指定规则适用的爬虫(如 Googlebot* 表示通用规则) User-agent: Baiduspider 针对百度爬虫生效
Disallow 禁止爬虫访问的路径(支持目录或文件) Disallow: /private/ 禁止访问 /private/ 下所有内容
Allow 在禁止范围内设置例外(优先级高于 Disallow Allow: /public/image.jpg 允许抓取被禁目录中的特定文件
Sitemap 声明 XML 站点地图位置(便于爬虫发现新页面) Sitemap: https://xxx/sitemap.xml 需填写完整 URL

2.3 路径匹配规则

  • 目录屏蔽Disallow: /data/ → 禁止访问 /data/ 及其子目录(如 /data/file.html);:

  • 文件屏蔽Disallow: /tmp/file.txt → 仅禁止特定文件;

  • 通配符扩展

    • Disallow: /*.jpg$ → 禁止抓取所有 JPG 文件;
    • Disallow: /*?* → 屏蔽带问号参数的动态 URL(如 search?q=foo)。

📂 3 文件放置与生效条件

位置强制要求

必须位于网站根目录(如 https://domain.com/robots.txt),子目录无效。比如:

  • 文件位置:https://example.com/robots.txt
# 生效:
https://example.com/

# 不生效:
https://other.example.com/
http://example.com/
  • 文件位置:https://www.example.com/robots.txt
# 生效:
https://www.example.com/

# 不生效:
https://example.com/
  • 文件位置:https://example.com:443/robots.txt。标准端口号(HTTP 为 80,HTTPS 为 443,FTP 为 21)等同于其默认的主机名。所以以下都生效,
# 生效:
https://example.com:443/
https://example.com/

文件名规范

仅接受全小写 robots.txt,其他格式(如 Robots.TXT)无效。所以先看某网站的爬虫配置可在域名后直接添加 robots.txt 访问。

空文件处理

若文件为空或不存在,默认允许爬虫抓取全站。

🛠️ 4 实用配置示例

场景 1:全站开放抓取

User-agent: *
Disallow:          # 留空表示允许所有

场景 2:禁止所有爬虫抓取

User-agent: *
Disallow: /        # 屏蔽根目录下所有内容

场景 3:部分目录限制

User-agent: *
Disallow: /admin/   # 屏蔽后台
Disallow: /tmp/     # 屏蔽缓存目录
Allow: /blog/       # 允许抓取被禁目录中的博客
Sitemap: https://example.com/sitemap.xml

场景 4:针对特定爬虫设置

User-agent: Googlebot   # 仅对谷歌生效
Disallow: /ads/

User-agent: *           # 其他爬虫规则
Disallow: /private/

⚠️ 5 关键注意事项

  1. 非强制约束:恶意爬虫可能无视 robots.txt,敏感内容需额外加密(如登录验证)。
  2. 语法严谨性:路径错误(如漏写 /)会导致规则失效。
  3. 搜索引擎差异:部分指令(如 Crawl-delay 设置抓取延迟)仅特定引擎支持。
  4. 与 Meta Robots 互补:页面级控制(如 noindex)需在 HTML 中添加 <meta name="robots" content="noindex">

💎 最后

robots.txt 是网站与搜索引擎沟通的基础协议,合理配置可平衡收录需求与隐私保护。重点遵循👉:

根目录放置 + 精准路径语法 + 定期规则校验

原文地址:一文搞懂SEO优化之站点robots.txt

相关文章
|
Ubuntu Linux
在Linux中如何解压 .xz 和 tar.xz 文件?
【4月更文挑战第17天】
14029 6
在Linux中如何解压 .xz 和 tar.xz 文件?
|
5月前
|
JSON BI API
全网最全面介绍闲鱼API接口指南
闲鱼是阿里巴巴旗下的二手交易平台,提供RESTful API支持商品管理、订单处理、用户操作与数据统计。开发者可通过OAuth 2.0认证,使用App Key和access_token调用接口,实现自动化运营与第三方集成。本指南详解API核心功能、接入步骤、代码示例及最佳实践,助您高效开发。
3836 1
|
Web App开发 域名解析 缓存
如何在 Ubuntu 20.04 上安装 Node.js 和 npm
本文我们主要为大家介绍在 Ubuntu 20.04 上安装 Node.js 和 npm 的三种不同的方式。
168275 7
如何在 Ubuntu 20.04 上安装 Node.js 和 npm
|
11月前
|
数据采集 Web App开发 iOS开发
Python 爬虫如何伪装 Referer?从随机生成到动态匹配
Python 爬虫如何伪装 Referer?从随机生成到动态匹配
|
5月前
|
机器学习/深度学习 人工智能 自然语言处理
如何准确检测AI生成内容?这三大技术是关键
如何准确检测AI生成内容?这三大技术是关键
923 116
|
9月前
|
自然语言处理 数据可视化 API
解锁 Qwen3 的Agent能力,CookBook来咯!
Qwen3系列模型具备强大Agent能力,但从模型到Agent仍存技术难题。为此,我们推出基于Qwen-Agent框架的3个CookBook示例,展示如何让Qwen3丝滑调用MCP Server全过程。不论是本地部署还是API调用模型,开发者均可通过Qwen-Agent完成复杂任务。CookBook包括自然语言驱动数据库操作、云端高德API地理服务及文档转思维导图等功能。Qwen-Agent封装了工具调用模板和解析器,原生支持MCP协议,大幅降低开发成本。欢迎体验并反馈。
998 1
|
SQL 安全 数据库
SQLServer 实现数据库表复制到另一个数据库_kaic
SQLServer 实现数据库表复制到另一个数据库_kaic
|
SQL 关系型数据库 MySQL
深入解析MySQL的EXPLAIN:指标详解与索引优化
MySQL 中的 `EXPLAIN` 语句用于分析和优化 SQL 查询,帮助你了解查询优化器的执行计划。本文详细介绍了 `EXPLAIN` 输出的各项指标,如 `id`、`select_type`、`table`、`type`、`key` 等,并提供了如何利用这些指标优化索引结构和 SQL 语句的具体方法。通过实战案例,展示了如何通过创建合适索引和调整查询语句来提升查询性能。
3022 10
|
9月前
|
监控 安全 应用服务中间件
网站出现“SSL handshake failed“?SSL握手失败(525)的错误修复指南
本文详细解析了Cloudflare中常见的SSL握手失败(525)错误,从问题定义到根源分析,再到具体解决方案,提供了一站式修复指南。通过检查证书域名匹配、有效性及时钟同步等问题,结合Nginx/Apache配置调整与Cloudflare设置优化,帮助用户彻底解决525错误。同时,文章还提供了预防措施,如自动续期和SSL状态监控,确保网站长期稳定运行。跟随步骤操作,可有效避免SSL相关故障,保障网站安全访问。
6862 0
网站出现“SSL handshake failed“?SSL握手失败(525)的错误修复指南

热门文章

最新文章