网信办整治 AI 技术滥用,AI 企业如何合规运营

本文涉及的产品
多模态交互后付费免费试用,全链路、全Agent
简介: 中央网信办开展为期3个月的“清朗・整治AI技术滥用”专项行动,旨在规范AI服务与应用,保障公民权益,促进行业健康发展。文章从算法备案、数据合规管理、内容审核、标识要求、重点领域风险防控、防止侵权、杜绝网络水军及保护未成年人权益八个方面,详细解析了AI企业在运营中需遵循的具体要求与措施,强调企业应主动落实合规,推动AI行业健康有序发展。


近期,中央网信办印发通知,开展为期 3 个月的 “清朗・整治 AI 技术滥用” 专项行动,旨在规范 AI 服务和应用,促进行业健康有序发展,保障公民合法权益。作为 AI 领域的从业者,有必要深入理解此次专项行动的要求,并帮助AI科技企业在此基础上实现合规运营。

一、算法备案的重要性

算法备案是 AI 企业合规运营的基础环节。只要从事相关算法服务,无论是接入第三方模型还是提供大模型服务,无论是否需要大模型备案或者登记,均需做算法备案。其中开发的生成式人工智能技术向公众提供服务前,必须完成大模型备案或登记程序。这不仅是对法律法规的遵循,更是对用户负责的表现。备案过程中,企业需详细提供算法的原理、数据来源、应用场景等信息,以便监管部门进行评估和管理。例如,某 AI 企业开发了一款用于文本生成的模型,在备案时就需要明确说明该模型的训练数据是否合法获取,是否包含侵权内容等。

二、数据与训练语料的合规管理

数据是 AI 模型的基石,企业要确保训练语料的合法性和准确性。首先,要避免使用侵犯他人知识产权、隐私权等权益的信息,不得使用网上爬取的虚假、无效、不实内容,也不能使用非法来源的数据。其次,需建立完善的训练语料管理机制,定期排查清理违规语料。比如,一家图像生成 AI 企业,其训练数据中不能包含未经授权的他人肖像照片,且要对数据进行定期审核,剔除可能存在的问题数据。

三、强化内容审核与安全机制

企业应建立与业务规模相适应的内容审核、意图识别等安全措施。对于生成的内容,要能够有效识别其中可能存在的有害信息,如谣言、不实信息、色情低俗内容等,并及时进行处理。同时,要建立有效的违规账号管理机制,对利用 AI 技术从事违法活动的账号进行及时处置。不仅如此,企业还需定期开展安全自评估,检查自身安全措施的有效性和漏洞,并加以改进。以社交平台为例,对于通过 API 接口接入的 AI 自动回复等服务,平台要清楚其底数,并严格把关,防止有害内容的传播。

四、落实内容标识要求

服务提供者要对深度合成内容添加隐式、显式内容标识,并向使用者提供或提示显式内容标识功能。内容传播平台则要开展生成合成内容监测甄别,防止虚假信息误导公众。例如,某 AI 视频生成平台,在生成的视频中添加特定的标识码,让用户能够轻易辨别该视频是 AI 生成的,同时平台也要对上传的视频进行监测,识别其中是否包含未添加标识的 AI 合成内容。

五、重点领域风险防控

对于提供医疗、金融、未成年人等重点领域问答服务的已备案 AI 产品,企业要针对性设置行业领域安全审核和控制措施。避免出现 “AI 开处方”“诱导投资”“AI 幻觉” 等误导学生、患者,扰乱金融市场秩序的问题。比如,在医疗领域,AI 辅助诊断系统不能超越其辅助的定位,直接给出确诊结果和治疗方案,而应明确提示医生和患者其仅为参考工具,并对输出的内容进行严格的审核。

六、防止侵权与不当应用

企业要杜绝利用 AI 技术假冒他人实施侵权违法行为,如通过 AI 换脸、声音克隆等深度伪造技术,假冒专家、企业家、明星等公众人物,欺骗网民谋利,或对人物进行恶搞、抹黑、歪曲、异化等。同时,也不能利用 AI 冒充亲友进行网络诈骗,或不当使用 AI “复活逝者”,滥用逝者信息。例如,一些不法分子曾利用 AI 换脸技术制作虚假视频,冒充明星进行广告代言,给明星的名誉和公众的权益都带来了损害。

七、避免网络水军活动

企业不能利用 AI 技术 “养号”,模拟真人批量注册、运营社交账号,也不能使用 AI 内容农场或 AI 洗稿,批量生成发布低质同质化文案,博取流量。更要禁止使用 AI 群控软件、社交机器人批量点赞跟帖评论,刷量控评,制造热点话题上榜等行为。这些行为不仅破坏了网络生态,也损害了其他用户的合法权益。

八、保护未成年人权益

AI 企业要关注未成年人权益保护,避免应用程序诱导未成年人沉迷,确保在未成年人模式下不存在影响未成年人身心健康的内容。例如,一些 AI 游戏或娱乐应用,要在未成年人模式下对内容进行严格筛选,限制不适宜未成年人接触的功能和信息。

总之,网信办的 “清朗・整治 AI 技术滥用” 专项行动为 AI 企业敲响了警钟。企业应以此为契机,从算法备案、数据管理、内容审核、安全机制、重点领域风险防控等多方面入手,加强内部管理和自查自纠,积极主动地落实各项合规要求,共同推动 AI 行业健康、有序、可持续地发展。

相关文章
|
15天前
|
人工智能 数据安全/隐私保护
如何识别AI生成内容?探秘“AI指纹”检测技术
如何识别AI生成内容?探秘“AI指纹”检测技术
252 119
|
15天前
|
机器学习/深度学习 人工智能 自然语言处理
AI检测技术:如何识别机器生成的“数字指纹”?
AI检测技术:如何识别机器生成的“数字指纹”?
201 115
|
15天前
|
人工智能 自然语言处理 算法
揭秘AI文本:当前主流检测技术与挑战
揭秘AI文本:当前主流检测技术与挑战
242 115
|
15天前
|
机器学习/深度学习 人工智能 自然语言处理
如何准确检测AI生成内容?这三大技术是关键
如何准确检测AI生成内容?这三大技术是关键
328 116
|
机器学习/深度学习 传感器 人工智能
十种路径:让企业AI策略见效
这十类案例的共同点在于它们可以根据对客户交互、生产和服务流程的实时监控进行分析并提供操作建议,并且具有相当的准确性和效率。企业在初次使用人工智能的时候要构建基础数据结构和框架,以支持最具价值潜力的高级分析、机器学习和人工智能技术。
|
18天前
|
人工智能 运维 Kubernetes
Serverless 应用引擎 SAE:为传统应用托底,为 AI 创新加速
在容器技术持续演进与 AI 全面爆发的当下,企业既要稳健托管传统业务,又要高效落地 AI 创新,如何在复杂的基础设施与频繁的版本变化中保持敏捷、稳定与低成本,成了所有技术团队的共同挑战。阿里云 Serverless 应用引擎(SAE)正是为应对这一时代挑战而生的破局者,SAE 以“免运维、强稳定、极致降本”为核心,通过一站式的应用级托管能力,同时支撑传统应用与 AI 应用,让企业把更多精力投入到业务创新。
292 30
|
2月前
|
人工智能 安全 中间件
阿里云 AI 中间件重磅发布,打通 AI 应用落地“最后一公里”
9 月 26 日,2025 云栖大会 AI 中间件:AI 时代的中间件技术演进与创新实践论坛上,阿里云智能集团资深技术专家林清山发表主题演讲《未来已来:下一代 AI 中间件重磅发布,解锁 AI 应用架构新范式》,重磅发布阿里云 AI 中间件,提供面向分布式多 Agent 架构的基座,包括:AgentScope-Java(兼容 Spring AI Alibaba 生态),AI MQ(基于Apache RocketMQ 的 AI 能力升级),AI 网关 Higress,AI 注册与配置中心 Nacos,以及覆盖模型与算力的 AI 可观测体系。
665 35
|
1月前
|
消息中间件 人工智能 安全
云原生进化论:加速构建 AI 应用
本文将和大家分享过去一年在支持企业构建 AI 应用过程的一些实践和思考。
339 23
|
20天前
|
设计模式 人工智能 自然语言处理
3个月圈粉百万,这个AI应用在海外火了
不知道大家还记不记得,我之前推荐过一个叫 Agnes 的 AI 应用,也是当时在 WAIC 了解到的。
222 1