〇、前言
近日,由中国计算机学会计算机视觉专委会(CCF-CV)主办,合合信息承办,中国运筹学会数学与智能分会协办的《打造大模型时代的可信AI》论坛顺利举行。论坛特邀来自上海交通大学、电子技术标准化研究院、中国科学技术大学、中科院、合合信息等机构与企业的专家们,从立法、监管、前沿研究、技术实践等多个维度分享AI安全领域的最新进展,助力AI向善发展。
一、AI安全治理:产学研共话可信AI未来
随着以ChatGPT为代表的AI大语言模型技术的飞速发展,数据安全、知识产权、算法偏见和有害内容生成等大语言模型的内容安全问题日益凸显。如何确保AI大模型在生成内容的过程中遵循安全规范,成为业界关注的焦点。
论坛现场,嘉宾们纷纷就AI安全治理的热点话题发表了自己的见解。
上海交通大学人工智能研究院教授金耀辉指出,安全是一个抽象的概念,而安全对齐的过程则是一个从抽象到具体的模拟过程。通过这些手段,我们可以确保AI大模型在训练过程中就能够遵循安全规范,从而避免潜在的安全风险。
金耀辉教授提出“训练对齐、提示引导和文本过滤”三大安全保障手段,为AI安全治理这一问题的解决提供了新思路。
训练对齐是指在大模型训练过程中,通过引入安全相关的训练数据和优化算法,使模型能够学习到安全规范。
提示引导则是在模型生成内容的过程中,通过添加安全相关的提示信息,引导模型生成符合安全规范的内容。
文本过滤则是在模型生成内容后,通过特定的算法对内容进行过滤,以确保生成的内容不包含有害或敏感信息。
与此同时,中国电子标准院网安中心测评实验室副主任何延哲着重指出了规范标准在AI安全治理中的核心地位。他认为当前的人工智能安全检测主要聚焦于内容安全层面,且检测方法相对单一,缺乏全面性。
除了技术手段外,规范管理也是确保AI安全的重要手段。全国网络安全标准化技术委员会发布的《人工智能安全治理框架》为AI安全治理提供了重要的指导和参考。该框架从多个维度出发,构建了全面的AI安全治理体系,包括数据安全、算法安全、应用安全等方面。通过制定和实施这些规范标准,我们可以有效地降低AI技术的安全风险,推动AI技术的健康发展。
此前,中国信息通信研究院携手合合信息等科技企业,共同编制了《生成式人工智能个人信息保护技术要求》系列标准,为AI时代的个人信息保护筑起坚固防线。此举不仅为用户个人信息的权益保护提供了有力保障,也为企业在AI研发过程中降低了不确定性,促进了行业的健康有序发展。
《生成式人工智能个人信息保护技术要求》系列标准覆盖了生成式人工智能的设计、训练与应用三个阶段,主要围绕总则、隐私声明告知、训练数据构建、模型规制控制、供应链保障、二次开发管理、输出阶段管理、个人权利响应,共计从八个方面提出个人信息保护指引。
二、技术实践:让伪造痕迹无所遁形
随着AI技术的不断发展,合成图像伪造风险日益凸显。以Open AI最新推出的AI视频生成模型Sora为例,这类AI工具在给图像视频行业带来革新的同时,也引发了合成图像伪造的风险。
中国科学技术大学教授谢洪涛以特定人物深度伪造视频为研究对象,从主动防御和被动检测两个视角分享了具体治理方案。
被动检测方面,谢洪涛教授则介绍了图像级不一致性和时空身份不一致性检测技术。这些技术可以在视频传播或使用后评估其真实性,通过检测视频中的细微差异来识别出伪造的内容。这些技术的出现,无疑为打击合成图像伪造提供了有力的武器。
除视频图像外,当前文档类图像篡改检测同样面临诸多挑战,如跨域泛化检测性能低下、纯色背景篡改检测准确率较低等问题。大模型技术的出现为AI视觉安全的发展创造了新的可能,也为应对这些挑战提供了契机。
比方说文档类图像可能来自不同的设备、不同的拍摄环境,甚至不同的文件格式。这种多样性使得跨域泛化成为一项艰巨的任务,传统的检测方法可能在某些特定场景下表现良好,但在面对其他场景时则可能失效;在某些情况下,文档类图像可能具有纯色背景,如证件照或合同文件,纯色背景使得篡改痕迹更加难以察觉,因为篡改者可以通过调整颜色、亮度等参数来掩盖篡改痕迹。
合合信息图像算法研发总监郭丰俊透露,合合信息技术团队依托先进的数据驱动神经网络模型,成功研发出业界领先的图像篡改检测技术方案。该技术方案擅长捕捉篡改过程中留下的微妙线索,能够识别多种篡改手法。
合合信息智能文档处理技术覆盖了图像预处理、解析识别到AI安全等文档图像处理全生命周期。
此前,合合信息便基于深度学习的图像篡改检测方法,推出了“PS篡改检测”技术。该技术利用“多尺度特征提取模型”进行图像篡改检测及定位,让AI准确识别出图片篡改的不同类型并进行针对性地处理。例如,在身份证检测场景中,篡改检测准确率超99%。
- 高精度:基于深度学习的算法能够捕捉到图像中的细微差异,实现高精度的篡改检测。
- 广泛适用性:支持多种篡改方式的检测,包括复制粘贴、拼接、擦除、调色等。 高效性:处理速度快,能够在短时间内完成大量图片的篡改检测。
- 可视化展示:以热力图等形式展示篡改区域和篡改置信度,便于用户直观理解。
合合信息的图像篡改检测技术利用先进的深度学习和计算机视觉算法,能够精准分析图像的特征、纹理和结构,从而识别出多种形式的篡改,不仅能够应用于多种截图、转账记录、交易记录、聊天记录等自然场景,还能应用于资质证书、文档合同、银行保单等截图的鉴别上。针对图片生成式造假,合合信息基于空域与频域关系建模,利用多维度特征来分辨真实图片和生成式图片的细微差异,能够更准确地判断图片是否由AI生成,克服了生成式图片与真实图片相似度高的问题。
中国科学院自动化研究所研究员、IEEE/IAPR Fellow赫然博士从深度合成技术出发,详细分析了虚拟身份、身份重演和人脸驱动三种合成技术类型。他指出,深度合成技术的深入研究为鉴别提供了线索,例如模型指纹线索、图像拼接线索和时序闪烁线索等。这些线索可以形成多模态多线索的鉴伪方法,有助于我们更有效地识别出伪造的内容。
三、合合信息:持续深耕AI视觉安全领域
作为本次论坛的承办方之一,合合信息在AI视觉安全领域有着深厚的积累和丰富的经验。公司自成立以来,一直致力于推动AI技术的创新和应用发展。在AI视觉安全方面,合合信息凭借领先的技术实力和专业的研发团队,推出了多款具有自主知识产权的产品和解决方案。
合合信息发布了包括AI图像篡改检测与生成式图像鉴别等方案,有效抵御了恶意图像篡改、虚假生成图片及非法信息获取的威胁。这一系列举措,是其“科技向善”企业理念的有力佐证。并且在近年的国际性技术竞赛中,该方案凭借卓越的性能获得了冠军的荣誉。
四、结语:携手共进,共筑可信AI的未来
面对AI技术的快速发展和潜在风险,加强行业内部自律、从源头做好安全措施是守护AI健康成长的第一道防线。 随着AI技术的不断发展和应用领域的不断拓展,AI安全治理将面临更加复杂和多元的挑战,本次打造大模型时代的可信AI论坛正是产学研联合探索AI安全治理的一次有效尝试,通过汇聚来自不同领域的专家和学者,共同探讨AI安全领域的最新进展和挑战,为AI安全治理提供了新的思路和解决方案。
让我们携手共进,共筑可信AI的未来!