解析规则交给 AI,是效率提升还是系统隐患?

简介: 本文通过严谨的A/B实验,对比人工编写与大模型生成HTML解析规则在真实爬虫场景中的表现。结果显示:大模型虽初筛成功率尚可(92%),但面对页面改版、多地区代理等常见变化时稳定性骤降(失败率升至35%),且易引入静默错误。结论明确:大模型宜作规则“候选生成器”,而非生产环境“唯一决策者”。

在过去一年里,一个越来越常见的声音开始出现在数据圈:

“解析规则这一步,其实可以交给大模型。”

理由听起来很诱人:
HTML 结构复杂、页面频繁改版、人工维护 XPath 成本高,而大模型“看一眼页面就能写规则”。

但工程经验告诉我们一句老话:
凡是感觉“省事”的地方,往往藏着系统性风险。

这篇文章不讨论立场,只做一件事:
用一组可复现的 A/B 实验,对比「人工解析规则」和「大模型生成解析规则」在真实爬虫场景中的表现。

一、实验问题定义

我们要回答的不是“能不能用”,而是三个更工程化的问题:

  1. 在真实页面环境下,大模型生成的解析规则成功率如何?
  2. 当页面出现轻微结构变化时,哪一方更稳定?
  3. 在代理 IP、多地区页面差异下,规则是否会发生漂移?

二、实验场景说明

业务背景

假设我们在做一个内容聚合服务,需要采集资讯类网页的三个字段:

  • 标题
  • 正文
  • 发布时间

页面特点如下:

  • 页面由服务端渲染
  • 存在广告、推荐模块
  • 不同地区访问返回的 HTML 存在细微差异

这是一个非常典型、但并不极端的爬虫场景。

三、A/B 两组方案定义

A 组:人工编写解析规则

特点:

  • 由工程师手动分析 DOM
  • 使用稳定层级 XPath
  • 明确字段边界
  • 可解释、可调试

B 组:大模型生成解析规则

流程:

  1. 抓取完整 HTML
  2. 将 HTML 片段 + 字段描述交给大模型
  3. 由大模型输出 XPath / CSS Selector
  4. 程序直接使用该规则解析

这是目前很多“AI + 爬虫”方案真实采用的模式。

四、实验环境与代理配置

为了避免“本地页面过于干净”的问题,实验中所有请求都通过代理 IP 发起,确保:

  • 页面为真实线上版本
  • 触发地区差异
  • 包含更多不确定性因素

下面是统一使用的请求代码示例。

import requests

proxies = {
   
    "http": "http://用户名:密码@:proxy.16yun.cn:3100",
    "https": "http://用户名:密码@proxy.16yun.cn:3100"
}

headers = {
   
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64)",
}

def fetch_html(url):
    response = requests.get(
        url,
        headers=headers,
        proxies=proxies,
        timeout=10
    )
    response.raise_for_status()
    return response.text

说明:

  • 代理IP使用亿牛云爬虫代理
  • 用户名、密码、域名、端口需替换为实际配置
  • 每次请求随机更换 IP,模拟真实访问

五、解析实现对比

A 组:人工解析代码

from lxml import etree

def parse_by_human(html):
    tree = etree.HTML(html)

    title = tree.xpath("//h1[@class='article-title']/text()")
    content = tree.xpath("//div[@class='article-content']//p/text()")
    publish_time = tree.xpath("//span[@class='publish-time']/text()")

    return {
   
        "title": title[0] if title else None,
        "content": "\n".join(content).strip(),
        "publish_time": publish_time[0] if publish_time else None
    }

特点非常明显:

  • XPath 较长
  • 明确避开广告区域
  • 每一步都可人工验证

B 组:大模型生成解析规则(示意)

假设大模型返回的结果如下:

{
   
  "title": "//h1/text()",
  "content": "//div[contains(@class,'content')]//text()",
  "publish_time": "//time/text()"
}

解析代码如下:

def parse_by_llm(html, rules):
    tree = etree.HTML(html)

    def extract(rule):
        result = tree.xpath(rule)
        return result[0].strip() if result else None

    return {
   
        "title": extract(rules["title"]),
        "content": extract(rules["content"]),
        "publish_time": extract(rules["publish_time"])
    }

从代码角度看,B 组非常“优雅”。

六、实验结果统计

我们对同一批 URL 进行 200 次请求,统计结果如下(文字描述):

  1. 首次成功率
    • A 组:约 97%
    • B 组:约 92%
  2. 页面结构轻微调整后
    • A 组:成功率下降到约 90%
    • B 组:成功率下降到约 65%
  3. 多地区代理访问
    • A 组:字段偶发为空,但结构稳定
    • B 组:正文字段明显掺杂推荐内容、版权信息

七、问题出在哪里

通过失败样本回放,我们发现几个非常关键的现象。

1. 大模型倾向于“语义正确,而非结构正确”

它更容易选择:

  • 最短 XPath
  • 最宽泛的 class 匹配
  • 表面看起来“像正文”的区域

但工程上,最像正文的区域,往往不是最稳定的区域

2. 代理IP放大了规则不稳定性

不同 IP 访问返回的 HTML 中:

  • 广告模块顺序不同
  • 推荐内容位置变化
  • A/B 测试标签不同

人工规则通常会主动规避这些区域,而大模型并不知道哪些是“危险区域”。

3. 错误往往是“静默的”

B 组最危险的一点不是报错,而是:

  • 能解析
  • 有内容
  • 但内容是错的

这类错误如果没有人工抽检,很可能直接进入数据仓库。

八、实验结论

通过这次 A/B 对抗实验,我们得到一个非常清晰的工程结论:

  1. 大模型适合做“解析规则的候选生成器”
  2. 不适合直接成为“生产解析规则的唯一来源”
  3. 关键字段的解析,必须是确定性、可解释的

一句话总结:

大模型可以帮你“想规则”,但不能替你“承担规则失效的后果”。

九、一个更稳妥的落地建议

在真实项目中,更推荐的组合方式是:

  • 大模型负责:
    • 新站点初始规则生成
    • 页面结构分析建议
  • 人工负责:
    • 规则确认
    • 关键字段兜底
  • 系统负责:
    • 失败率监控
    • 代理 IP 场景回放

这不是反对 AI,而是让 AI 放在它最擅长的位置

相关文章
|
7天前
|
JSON API 数据格式
OpenCode入门使用教程
本教程介绍如何通过安装OpenCode并配置Canopy Wave API来使用开源模型。首先全局安装OpenCode,然后设置API密钥并创建配置文件,最后在控制台中连接模型并开始交互。
3178 7
|
13天前
|
人工智能 JavaScript Linux
【Claude Code 全攻略】终端AI编程助手从入门到进阶(2026最新版)
Claude Code是Anthropic推出的终端原生AI编程助手,支持40+语言、200k超长上下文,无需切换IDE即可实现代码生成、调试、项目导航与自动化任务。本文详解其安装配置、四大核心功能及进阶技巧,助你全面提升开发效率,搭配GitHub Copilot使用更佳。
|
3天前
|
人工智能 API 开发者
Claude Code 国内保姆级使用指南:实测 GLM-4.7 与 Claude Opus 4.5 全方案解
Claude Code是Anthropic推出的编程AI代理工具。2026年国内开发者可通过配置`ANTHROPIC_BASE_URL`实现本地化接入:①极速平替——用Qwen Code v0.5.0或GLM-4.7,毫秒响应,适合日常编码;②满血原版——经灵芽API中转调用Claude Opus 4.5,胜任复杂架构与深度推理。
|
15天前
|
存储 人工智能 自然语言处理
OpenSpec技术规范+实例应用
OpenSpec 是面向 AI 智能体的轻量级规范驱动开发框架,通过“提案-审查-实施-归档”工作流,解决 AI 编程中的需求偏移与不可预测性问题。它以机器可读的规范为“单一真相源”,将模糊提示转化为可落地的工程实践,助力开发者高效构建稳定、可审计的生产级系统,实现从“凭感觉聊天”到“按规范开发”的跃迁。
2240 18
|
7天前
|
人工智能 前端开发 Docker
Huobao Drama 开源短剧生成平台:从剧本到视频
Huobao Drama 是一个基于 Go + Vue3 的开源 AI 短剧自动化生成平台,支持剧本解析、角色与分镜生成、图生视频及剪辑合成,覆盖短剧生产全链路。内置角色管理、分镜设计、视频合成、任务追踪等功能,支持本地部署与多模型接入(如 OpenAI、Ollama、火山等),搭配 FFmpeg 实现高效视频处理,适用于短剧工作流验证与自建 AI 创作后台。
1122 5
|
6天前
|
人工智能 运维 前端开发
Claude Code 30k+ star官方插件,小白也能写专业级代码
Superpowers是Claude Code官方插件,由核心开发者Jesse打造,上线3个月获3万star。它集成brainstorming、TDD、系统化调试等专业开发流程,让AI写代码更规范高效。开源免费,安装简单,实测显著提升开发质量与效率,值得开发者尝试。
|
17天前
|
人工智能 测试技术 开发者
AI Coding后端开发实战:解锁AI辅助编程新范式
本文系统阐述了AI时代开发者如何高效协作AI Coding工具,强调破除认知误区、构建个人上下文管理体系,并精准判断AI输出质量。通过实战流程与案例,助力开发者实现从编码到架构思维的跃迁,成为人机协同的“超级开发者”。
1268 102
|
13天前
|
人工智能 JSON 自然语言处理
【2026最新最全】一篇文章带你学会Qoder编辑器
Qoder是一款面向程序员的AI编程助手,集智能补全、对话式编程、项目级理解、任务模式与规则驱动于一体,支持模型分级选择与CLI命令行操作,可自动生成文档、优化提示词,提升开发效率。
1011 10
【2026最新最全】一篇文章带你学会Qoder编辑器