一文搞懂SEO优化之站点robots.txt

简介: 建站后千万别忘记配置 `robots.txt` 爬虫规则,对于搜索引擎发现你的站点非常重要,除了主动到搜索引擎平台提交网站之外,也要主动告诉搜索引擎网站里都有哪些网页?哪些希望被抓取?哪些不希望被抓取?

建站后千万别忘记配置 robots.txt 爬虫规则,对于搜索引擎发现你的站点非常重要,除了主动到搜索引擎平台提交网站之外,也要主动告诉搜索引擎网站里都有哪些网页?哪些希望被抓取?哪些不希望被抓取?

🔍 1 robots.txt 是什么?

robots.txt 是一个纯文本协议文件,放置在网站根目录(如 https://example.com/robots.txt),用于指导搜索引擎爬虫(如 Googlebot、Baiduspider)的抓取行为,是站点级别规定哪些页面可被引擎爬虫抓取,哪些禁止抓取(当然还有页面级别的,这个有机会介绍)。用于声明网站中禁止或允许被爬虫访问的目录/文件,控制内容收录范围。此规范非强制命令,而是行业通行的约定。

核心价值

  • 隐私保护:屏蔽敏感目录(如 /admin/、用户后台);
  • 优化性能:减少爬虫对无效页面(如死链、图片库)的请求,节省带宽;
  • SEO 辅助:引导爬虫优先抓取重要页面,提升索引效率。

⚙️ 2 核心语法与指令解析

2.1 基础结构

User-agent: [爬虫名称]  # 指定目标爬虫(* 代表所有)
Disallow: [禁止路径]    # 定义禁止访问的URL
Allow: [允许路径]       # 定义例外规则(需在 Disallow 后使用)
Sitemap: [网站地图URL]  # 提交 XML 站点地图(可选)

值得注意

  • 指令区分大小写,路径以 / 开头,# 后为注释。比如:Allow: /blogAllow: /Blog 是不同的。
  • Sitemap指令是需要写全包含域名的全路径。
  • 指令 Crawl-delay 表示抓取请求的频率,不过谷歌暂不支持。写法如:Crawl-delay: 15 表示爬虫抓取间隔不能小于15秒。比如 github 就有针对百度爬虫这样约束(https://github.com/robots.txt)
User-agent: baidu
crawl-delay: 1
  • 可以针对不同爬虫单独指定爬取内容,通过换行进行分组,比如知乎就针对不同爬虫单独定义(部分截取)
User-agent: Googlebot
Disallow: /login
Disallow: /*?guide*

User-agent: Baiduspider-render
Disallow: /login
Disallow: /*?guide*

User-agent: Baiduspider-image
Disallow: /login
Disallow: /*?guide*

User-agent: Sogou web spider
Allow: /tardis/sogou/
Disallow: /

User-Agent: *
Disallow: /

当然相同的爬取内容,可以同时指定多个爬虫,如上面可简写成:

User-agent: Googlebot
User-agent: Baiduspider-render
User-agent: Baiduspider-image
Disallow: /login
Disallow: /*?guide*

User-agent: Sogou web spider
Allow: /tardis/sogou/
Disallow: /

User-Agent: *
Disallow: /

2.2 指令详解

指令 作用 示例 说明
User-agent 指定规则适用的爬虫(如 Googlebot* 表示通用规则) User-agent: Baiduspider 针对百度爬虫生效
Disallow 禁止爬虫访问的路径(支持目录或文件) Disallow: /private/ 禁止访问 /private/ 下所有内容
Allow 在禁止范围内设置例外(优先级高于 Disallow Allow: /public/image.jpg 允许抓取被禁目录中的特定文件
Sitemap 声明 XML 站点地图位置(便于爬虫发现新页面) Sitemap: https://xxx/sitemap.xml 需填写完整 URL

2.3 路径匹配规则

  • 目录屏蔽Disallow: /data/ → 禁止访问 /data/ 及其子目录(如 /data/file.html);:

  • 文件屏蔽Disallow: /tmp/file.txt → 仅禁止特定文件;

  • 通配符扩展

    • Disallow: /*.jpg$ → 禁止抓取所有 JPG 文件;
    • Disallow: /*?* → 屏蔽带问号参数的动态 URL(如 search?q=foo)。

📂 3 文件放置与生效条件

位置强制要求

必须位于网站根目录(如 https://domain.com/robots.txt),子目录无效。比如:

  • 文件位置:https://example.com/robots.txt
# 生效:
https://example.com/

# 不生效:
https://other.example.com/
http://example.com/
  • 文件位置:https://www.example.com/robots.txt
# 生效:
https://www.example.com/

# 不生效:
https://example.com/
  • 文件位置:https://example.com:443/robots.txt。标准端口号(HTTP 为 80,HTTPS 为 443,FTP 为 21)等同于其默认的主机名。所以以下都生效,
# 生效:
https://example.com:443/
https://example.com/

文件名规范

仅接受全小写 robots.txt,其他格式(如 Robots.TXT)无效。所以先看某网站的爬虫配置可在域名后直接添加 robots.txt 访问。

空文件处理

若文件为空或不存在,默认允许爬虫抓取全站。

🛠️ 4 实用配置示例

场景 1:全站开放抓取

User-agent: *
Disallow:          # 留空表示允许所有

场景 2:禁止所有爬虫抓取

User-agent: *
Disallow: /        # 屏蔽根目录下所有内容

场景 3:部分目录限制

User-agent: *
Disallow: /admin/   # 屏蔽后台
Disallow: /tmp/     # 屏蔽缓存目录
Allow: /blog/       # 允许抓取被禁目录中的博客
Sitemap: https://example.com/sitemap.xml

场景 4:针对特定爬虫设置

User-agent: Googlebot   # 仅对谷歌生效
Disallow: /ads/

User-agent: *           # 其他爬虫规则
Disallow: /private/

⚠️ 5 关键注意事项

  1. 非强制约束:恶意爬虫可能无视 robots.txt,敏感内容需额外加密(如登录验证)。
  2. 语法严谨性:路径错误(如漏写 /)会导致规则失效。
  3. 搜索引擎差异:部分指令(如 Crawl-delay 设置抓取延迟)仅特定引擎支持。
  4. 与 Meta Robots 互补:页面级控制(如 noindex)需在 HTML 中添加 <meta name="robots" content="noindex">

💎 最后

robots.txt 是网站与搜索引擎沟通的基础协议,合理配置可平衡收录需求与隐私保护。重点遵循👉:

根目录放置 + 精准路径语法 + 定期规则校验

原文地址:一文搞懂SEO优化之站点robots.txt

相关文章
|
3天前
|
监控 Java 物联网
Java 开发中基于 Spring Boot 框架实现 MQTT 消息推送与订阅功能详解
本文介绍基于Spring Boot集成MQTT协议实现消息推送与订阅的技术方案。涵盖MQTT协议概述、核心概念(Broker、Client、Topic、QoS)及应用场景,详细说明在Spring Boot中通过配置依赖、连接信息、客户端工厂及消息通道实现消息发布与订阅服务。提供物联网设备监控系统的应用实例,包括设备状态上报、服务器指令下发和实时数据处理。同时,探讨单元测试方法、生产环境部署注意事项(安全配置、性能优化、高可用性)以及总结MQTT在高效可靠消息通信系统中的应用价值。资源链接:[点击查看](https://pan.quark.cn/s/14fcf913bae6)。
138 34
|
13天前
|
人工智能 调度 芯片
《大模型背后的隐形战场:异构计算调度全解析》
在大模型训练中,CPU、GPU和AI芯片各司其职:CPU擅长逻辑控制,GPU专攻并行计算,AI芯片则针对特定AI任务优化。然而,实现三者的高效协同面临诸多挑战,如任务分配、通信延迟及资源管理等问题。通过动态任务分配、通信优化与资源调整等策略,可提升训练效率。未来,随着硬件进步和算法智能化,异构计算协同调度将更加高效,并结合云计算、边缘计算等技术拓展应用范围,推动人工智能技术发展。
83 15
|
4天前
|
人工智能 数据可视化 物联网
工业4.0数字孪生新引擎:星图云开发者平台全景评测
在“中国制造2025”战略推动下,工业互联网平台迎来爆发式增长,但也面临数据孤岛、分析能力不足等技术瓶颈。中科星图推出的“星图云开发者平台”通过低代码开发、多源数据融合和智能分析等创新技术,解决了工业数字化转型中的关键问题。该平台不仅支持三维可视化渲染和遥感数据分析,还兼容多种主流GIS标准协议,实现空天地一体化数据融合。其丰富的行业模板覆盖能源、园区、水务等领域,大幅降低开发门槛。评测显示,相比传统低代码平台,星图云在3D建模、GIS支持和IoT设备接入等方面表现突出,为工业数字孪生提供了全面解决方案,助力智能化升级与跨行业应用拓展。
|
15天前
|
机器学习/深度学习 人工智能 并行计算
《算力觉醒!ONNX Runtime + DirectML如何点燃Windows ARM设备的AI引擎》
ONNX Runtime 是一个跨平台高性能推理引擎,可运行不同框架转为 ONNX 格式的模型,通过深度分析与优化计算图提升效率。在 Windows ARM 设备上,它针对硬件特性优化,结合微软 DirectML API,充分利用 GPU 并行计算能力加速 AI 推理。两者深度融合,灵活调整参数以满足实时性或高精度需求,在文本分类、图像识别、智能安防等领域显著提升性能,为多样化应用场景提供高效支持。
55 16
|
15天前
|
开发框架 前端开发 JavaScript
【HarmonyOS Next之旅】基于ArkTS开发(二) -> UI开发一
本文介绍了方舟开发框架(ArkUI)及其两种开发范式:基于ArkTS的声明式开发范式和类Web开发范式。ArkUI是用于构建HarmonyOS应用界面的UI框架,提供极简UI语法和基础设施。声明式开发范式使用ArkTS语言,以组件、动画和状态管理为核心,适合复杂团队协作;类Web开发范式采用HML、CSS、JavaScript三段式开发,适用于简单界面应用,贴近Web开发者习惯。文中还概述了两者的架构和基础能力,帮助开发者选择合适的范式进行高效开发。
66 15
|
13天前
|
缓存 负载均衡 算法
负载均衡相关问题详细分享一下
负载均衡相关问题详细分享
151 67
|
15天前
|
存储 算法 调度
|
15天前
|
弹性计算 Kubernetes API
Kubernetes 驱动的 IaC,Crossplane 快速入门
Crossplane 是一个开源的 Kubernetes 扩展工具,允许用户通过声明式配置直接在 Kubernetes 中管理云资源。对于阿里云开发者,借助 Crossplane 和官方提供的 provider-upjet-alibabacloud,可以像管理 Pod 一样轻松操作 ECS 实例、VPC 和 OSS Bucket 等资源。本文介绍了 Crossplane 的核心概念,并通过快速入门指南演示了如何安装 Crossplane、配置阿里云认证并创建第一个 VPC 资源。
102 37
|
15天前
|
Android开发 Windows
Android studio 报错Connect to 127.0.0.1:8888 [/127.0.0.1] failed: Connection refused: connect(已解决)
这是一篇关于解决Android Studio报错“Connect to 127.0.0.1:8888 failed: Connection refused”的文章。问题通常因系统代理设置被Android Studio自动保存导致。解决方法是找到系统中Android Studio使用的gradle.properties文件(位于Windows的C:\Users\你的电脑用户名\.gradle或Mac的/Users/.{你的用户目录}/.gradle),删除或注释掉多余的代理配置后保存并重新Sync项目。希望此经验能帮助快速解决同类问题!
167 36
|
15天前
|
JavaScript 前端开发 开发者
Vue 动态添加 HTML 元素组件封装使用方法及长尾关键词优化指南
本文详细介绍了Vue中动态添加HTML元素的多种方法与组件封装技巧,涵盖条件渲染(v-if/v-show)、列表渲染(v-for)、动态组件(:is)、手动DOM操作及动态创建组件实例等内容。同时提供了性能优化建议,如批量更新DOM、使用v-show代替v-if以及懒加载大型组件等。通过合理封装组件,可提高代码复用性和维护性。文中还附有具体示例代码,帮助开发者更好地理解和应用相关技术。适用于前端开发人员学习和实践Vue动态元素处理与组件设计。
61 19