随着生成式 AI 技术落地加速,大模型上线备案已成为合规运营的必经之路。不少开发者在备案过程中常陷入流程迷茫,尤其在语料安全规范和拒答能力评估环节屡屡踩坑。本文结合最新监管要求和实操经验,梳理出一套完整的备案指南,从备案前提判断到流程落地,再到核心环节攻坚,帮你少走弯路、高效通关。
一、先搞清楚:你的大模型需要备案吗?
不是所有生成式 AI 服务都需要备案,先对照以下标准精准判断,避免做无用功:
服务对象:面向境内公众提供服务(比如开放给普通用户使用的文生文、文生图工具,或To C端的AI对话产品);
服务内容:能生成文本、图片、音频、视频等内容,且具有“舆论属性或社会动员能力”(简单说,就是内容可能影响公众认知或引发群体行为的产品);
模型类型:无论自研、微调、魔改还是预训练模型,只要符合上述两点,都需要备案;若仅调用第三方已备案模型基座,未做任何微调且无自有语料,一般只需完成登记即可。
这里要特别注意:大模型备案和算法备案是两项独立要求,若你的服务涉及深度合成、个性化推送等5类特定算法,需另行完成算法备案,且备案材料中要同步说明算法备案情况。
二、备案全流程拆解:6步走稳通关路
整个备案流程需对接地方和中央两级网信部门,周期通常6-8个月,建议提前规划时间。从准备到拿证,核心分为6个关键步骤:
第一步:主动对接属地网信办,启动申请
备案的起点是联系公司注册地或实际经营地的省级/市级网信办,明确备案意向。工作人员会提供《生成式人工智能(大语言模型)备案信息采集表》,需详细填写企业基本信息(名称、性质、地址等)、服务功能(服务形式、领域范围)、算法机理(参数规模、开发方式、已有算法备案号)、训练语料(来源、规模、境内外数据占比)等核心信息,加盖公章后提交扫描件和可编辑文件至指定邮箱。
第二步:核心攻坚:材料准备与内部安全自评估
这是备案通过的关键,材料质量直接决定审核效率。需准备一套完整的申报材料,核心清单及要求如下:
材料名称
核心要求
《生成式人工智能上线备案表》
官方核心表格,信息填写需准确完整,加盖企业公章
《安全评估报告》
最核心材料(建议不少于30页),需覆盖语料安全、模型安全、生成内容安全、安全措施四大维度,逐条对应《生成式人工智能服务安全基本要求》给出“符合/不符合/不适用”评价
《语料标注规则》
明确标注人员资质、培训要求、流程细则(功能性+安全性标注)及质量核验方法,证明语料处理规范
《拦截关键词列表》
至少包含10000个关键词,覆盖政治、色情、暴力等17类安全风险,每类风险对应关键词不宜过少(如附录A.1类风险每类不少于200个)
《评估测试题集》
含生成内容测试题(≥2000题)、拒答测试题(≥500题),覆盖各类风险场景,抽检合格率不低于90%,敏感问题拒答率不低于95%
其他辅助材料
营业执照、法人及安全负责人身份证、工作证明;若使用第三方模型/语料,需提供授权或采购合同;国产芯片需求计划等
第三步:递交材料+配合官方技术测试
将全套材料提交至属地网信办后,先经过多轮材料审核(网信办会提出修改意见,需及时完善)。材料通过后,需配合完成技术测试:按要求适配模型API接口,提供5个实名认证的完整测试账号,供官方使用数万至十几万题的题库进行全面检测,涵盖基础风险、提示词注入攻击、多模态风险等场景。
第四步:属地公安机关安全检查
地方网信办初审通过后,属地公安机关可能开展实地检查,重点核查网络安全管理制度、数据安全保护措施是否落实到位,需提前做好相关制度文件和实操流程的准备。
第五步:中央网信办终审
地方审核通过的材料会上报至中央网信办进行最终审查,这一阶段主要核查材料的合规性、完整性和测试结果的有效性,耐心等待审核反馈即可。
第六步:获取备案编号+公示上线
中央网信办终审通过后,会下发备案编号,并在官方网站公示。拿到编号后,需在服务的显著位置(如官网、APP首页)标注备案号及公示链接,之后即可正式上线服务。
三、重点攻坚:语料安全规范与拒答能力评估
语料安全和拒答能力是备案审核的核心关注点,也是很多开发者的薄弱环节,这里结合实操要点详细拆解:
(一)语料安全:从源头规避合规风险
语料是大模型的“粮食”,其安全性直接决定备案根基,需严格遵循“合法来源+严格筛查+规范标注”三大原则:
来源合法是前提:自采语料需保留完整采集证明,商业语料需签订正式采购协议并审核来源资质;使用含个人信息的语料,需取得个人同意(敏感个人信息需单独同意);境外语料占比不得超过30%。
双重筛查控风险:采集前先评估语料来源,若违法不良信息占比超过5%,坚决不采集;采集后入库前再次核验,同样若不良信息占比超5%,不得使用。可通过关键词过滤、分类模型检测+人工抽检的方式,过滤违法、低俗、侵权等不良内容。
标注规范保质量:制定清晰的语料标注规则,明确标注人员的资质要求和培训流程;标注过程需区分功能性标注和安全性标注,建立质量核验机制(如交叉校验、抽检),确保标注结果准确。
(二)拒答能力评估:找对方法,平衡安全与体验
拒答能力直接体现模型的安全可控性,核心是通过科学评估确保模型能精准拒绝有害请求,同时避免过度拒答影响用户体验:
明确评估指标:核心指标是拒答率(RR),计算公式为“拒答查询数/总查询数”,即模型对有害请求的明确拒绝比例。敏感问题拒答率需不低于95%,同时要控制良性请求的误拒率,避免影响正常使用。
搭建高质量测试题库:拒答测试题需覆盖《生成式人工智能服务安全基本要求》附录A中的31种安全风险,包括政治敏感、暴力恐怖、色情低俗、虚假谣言等场景;同时搭配非拒答测试题,检验模型的区分能力。
优化拒答机制:若测试中发现拒答不精准(漏拒或误拒),可通过扩充关键词库、优化模型微调数据、调整拒答判断逻辑等方式优化。建议建立关键词库动态更新机制,及时覆盖新出现的风险词汇。
四、实操避坑:这些注意事项要记牢
提前规划时间:整个流程至少预留6-8个月,材料准备建议提前3-4个月启动,避免因材料修改、测试优化耽误上线进度。
区分备案类型:大模型备案≠算法备案,若服务涉及深度合成等5类算法,需单独完成算法备案,不要混淆遗漏。
特殊行业提前沟通:若模型应用于金融、医疗、教育等领域,除网信办备案外,需先与行业主管部门预沟通,经其审核把关后再推进备案。
内部先行自测:提交材料前,按官方标准开展内部安全自评估,重点核查语料合规性和拒答率指标,提前整改问题,提高审核通过率。
材料保持一致:所有申报材料的信息需前后统一,如模型参数规模、语料占比、服务范围等,避免出现逻辑矛盾。