解析规则交给 AI,是效率提升还是系统隐患?

简介: 本文通过严谨的A/B实验,对比人工编写与大模型生成HTML解析规则在真实爬虫场景中的表现。结果显示:大模型虽初筛成功率尚可(92%),但面对页面改版、多地区代理等常见变化时稳定性骤降(失败率升至35%),且易引入静默错误。结论明确:大模型宜作规则“候选生成器”,而非生产环境“唯一决策者”。

在过去一年里,一个越来越常见的声音开始出现在数据圈:

“解析规则这一步,其实可以交给大模型。”

理由听起来很诱人:
HTML 结构复杂、页面频繁改版、人工维护 XPath 成本高,而大模型“看一眼页面就能写规则”。

但工程经验告诉我们一句老话:
凡是感觉“省事”的地方,往往藏着系统性风险。

这篇文章不讨论立场,只做一件事:
用一组可复现的 A/B 实验,对比「人工解析规则」和「大模型生成解析规则」在真实爬虫场景中的表现。

一、实验问题定义

我们要回答的不是“能不能用”,而是三个更工程化的问题:

  1. 在真实页面环境下,大模型生成的解析规则成功率如何?
  2. 当页面出现轻微结构变化时,哪一方更稳定?
  3. 在代理 IP、多地区页面差异下,规则是否会发生漂移?

二、实验场景说明

业务背景

假设我们在做一个内容聚合服务,需要采集资讯类网页的三个字段:

  • 标题
  • 正文
  • 发布时间

页面特点如下:

  • 页面由服务端渲染
  • 存在广告、推荐模块
  • 不同地区访问返回的 HTML 存在细微差异

这是一个非常典型、但并不极端的爬虫场景。

三、A/B 两组方案定义

A 组:人工编写解析规则

特点:

  • 由工程师手动分析 DOM
  • 使用稳定层级 XPath
  • 明确字段边界
  • 可解释、可调试

B 组:大模型生成解析规则

流程:

  1. 抓取完整 HTML
  2. 将 HTML 片段 + 字段描述交给大模型
  3. 由大模型输出 XPath / CSS Selector
  4. 程序直接使用该规则解析

这是目前很多“AI + 爬虫”方案真实采用的模式。

四、实验环境与代理配置

为了避免“本地页面过于干净”的问题,实验中所有请求都通过代理 IP 发起,确保:

  • 页面为真实线上版本
  • 触发地区差异
  • 包含更多不确定性因素

下面是统一使用的请求代码示例。

import requests

proxies = {
   
    "http": "http://用户名:密码@:proxy.16yun.cn:3100",
    "https": "http://用户名:密码@proxy.16yun.cn:3100"
}

headers = {
   
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64)",
}

def fetch_html(url):
    response = requests.get(
        url,
        headers=headers,
        proxies=proxies,
        timeout=10
    )
    response.raise_for_status()
    return response.text

说明:

  • 代理IP使用亿牛云爬虫代理
  • 用户名、密码、域名、端口需替换为实际配置
  • 每次请求随机更换 IP,模拟真实访问

五、解析实现对比

A 组:人工解析代码

from lxml import etree

def parse_by_human(html):
    tree = etree.HTML(html)

    title = tree.xpath("//h1[@class='article-title']/text()")
    content = tree.xpath("//div[@class='article-content']//p/text()")
    publish_time = tree.xpath("//span[@class='publish-time']/text()")

    return {
   
        "title": title[0] if title else None,
        "content": "\n".join(content).strip(),
        "publish_time": publish_time[0] if publish_time else None
    }

特点非常明显:

  • XPath 较长
  • 明确避开广告区域
  • 每一步都可人工验证

B 组:大模型生成解析规则(示意)

假设大模型返回的结果如下:

{
   
  "title": "//h1/text()",
  "content": "//div[contains(@class,'content')]//text()",
  "publish_time": "//time/text()"
}

解析代码如下:

def parse_by_llm(html, rules):
    tree = etree.HTML(html)

    def extract(rule):
        result = tree.xpath(rule)
        return result[0].strip() if result else None

    return {
   
        "title": extract(rules["title"]),
        "content": extract(rules["content"]),
        "publish_time": extract(rules["publish_time"])
    }

从代码角度看,B 组非常“优雅”。

六、实验结果统计

我们对同一批 URL 进行 200 次请求,统计结果如下(文字描述):

  1. 首次成功率
    • A 组:约 97%
    • B 组:约 92%
  2. 页面结构轻微调整后
    • A 组:成功率下降到约 90%
    • B 组:成功率下降到约 65%
  3. 多地区代理访问
    • A 组:字段偶发为空,但结构稳定
    • B 组:正文字段明显掺杂推荐内容、版权信息

七、问题出在哪里

通过失败样本回放,我们发现几个非常关键的现象。

1. 大模型倾向于“语义正确,而非结构正确”

它更容易选择:

  • 最短 XPath
  • 最宽泛的 class 匹配
  • 表面看起来“像正文”的区域

但工程上,最像正文的区域,往往不是最稳定的区域

2. 代理IP放大了规则不稳定性

不同 IP 访问返回的 HTML 中:

  • 广告模块顺序不同
  • 推荐内容位置变化
  • A/B 测试标签不同

人工规则通常会主动规避这些区域,而大模型并不知道哪些是“危险区域”。

3. 错误往往是“静默的”

B 组最危险的一点不是报错,而是:

  • 能解析
  • 有内容
  • 但内容是错的

这类错误如果没有人工抽检,很可能直接进入数据仓库。

八、实验结论

通过这次 A/B 对抗实验,我们得到一个非常清晰的工程结论:

  1. 大模型适合做“解析规则的候选生成器”
  2. 不适合直接成为“生产解析规则的唯一来源”
  3. 关键字段的解析,必须是确定性、可解释的

一句话总结:

大模型可以帮你“想规则”,但不能替你“承担规则失效的后果”。

九、一个更稳妥的落地建议

在真实项目中,更推荐的组合方式是:

  • 大模型负责:
    • 新站点初始规则生成
    • 页面结构分析建议
  • 人工负责:
    • 规则确认
    • 关键字段兜底
  • 系统负责:
    • 失败率监控
    • 代理 IP 场景回放

这不是反对 AI,而是让 AI 放在它最擅长的位置

相关文章
|
存储 监控 负载均衡
走向IPv6,阿里巴巴IPv6规模化部署实践
IPv6是互联网升级演进的必然趋势,我国主流APP也正式进入到IPv4和IPv6的双栈时代。本文将从APP及云产品的角度,和大家分享一下我们在这个过程中的经验积累,为进一步推动IPv6规模化部署提供参考。
走向IPv6,阿里巴巴IPv6规模化部署实践
|
2月前
|
人工智能 运维 安全
从海外爆红到国内跟进,Clawdbot 为什么突然火了?
Clawdbot(现更名Moltbot)是2026年初爆火的可执行AI智能体,主打“替你动手”:本地/云端部署,直连邮箱、日历、飞书等,一句话完成文件转换、远程操作等任务。它标志AI从“对话”迈向“可执行系统”,虽存隐私与成本挑战,却已开启下一代AI形态的大门。
|
分布式数据库 Hbase
[Phoenix] 二、数据类型
目前Phoenix支持22种简单数据类型和1个一维Array的复杂类型。
10738 1
|
开发工具 C语言
C语言经典题目(23)
C语言经典题目(23)
C语言经典题目(23)
|
存储 IDE 开发工具
手把手教你做一款HID键盘
手把手教你做一款HID键盘
947 1
手把手教你做一款HID键盘
|
移动开发 安全 网络协议
https(ssl)安全证书配置【H5系统】
https(ssl)安全证书配置【H5系统】
田口实验法
数有 5 个:种群大小(P_size)、进化代数(G)、精英种群占比,优先级学习参 数,工厂学习参数。本节采用 5 个影响因子等级,不同参数值得组合情况如 表 5-1 所示。选择正交数组 L25(55)。对于每种参数组合情况,算法独立运行 30 次,并取 30 次运行所获得的平均完工时间作为实验指标。
田口实验法
|
网络协议
西门子S7-1200的PROFINET以太网通信
西门子S7-1200 CPU本体上集成了一个PROFINET通信接口,支持以太网和基于TCP/IP的通信标准。通过这个通信接口可以实现S7-1200 CPU与编程设备、CPU与HMI以及CPU与CPU之间的通信。
西门子S7-1200的PROFINET以太网通信
|
定位技术 SEO
【号外】-网站时光机
有些东西也只能留在时光机中了
1758 0
【号外】-网站时光机
|
SQL 弹性计算 关系型数据库
PostgreSQL 大宽表,全列索引,高并发合并写入(insert into on conflict, upsert, merge insert) - 实时adhoc query
标签 PostgreSQL , 全列索引 , 大宽表 , 写测试 , insert on conflict , upsert , merge insert , adhoc query 背景 OLAP系统中,adhoc query非常场景(任意维度查询分析)。 adhoc query,通常来说,可以加GIN倒排,或者每一列都加一个索引来实现。 《PostgreSQL 设计优化case
9110 0