蚂蚁安全实验室斩获NeurIPS & Facebook AI联合竞赛冠军

本文涉及的产品
内容审核增强版开发者实践包,10万次资源包1年有效
简介: 12月10日,由国际人工智能顶会NeurIPS 与 Facebook AI联合举办的图像相似匹配竞赛ISC2021落下帷幕,本次比赛共有1635支参赛队伍参加,是今年NeurIPS会议上最具影响力的比赛之一。来自蚂蚁集团的TitanShield Team(titanshield2)以超越第二名10个百分点的成绩斩获图像表征赛道冠军。据悉,此次夺冠团队采用的技术方案是由蚂蚁集团独立自研的、“基于特征兼容自监督学习框架”的预训练模型,能够针对性地解决内容安全风控领域常见的敏感信息更迭速度快、风控模型训练不及时等问题。作为可信AI技术研究及应用中的一环,该技术上线后可降低80%的图像对抗风险,将有助

导读

12月10日,由国际人工智能顶会NeurIPS 与 Facebook AI联合举办的图像相似匹配竞赛ISC2021落下帷幕,本次比赛共有1635支参赛队伍参加,是今年NeurIPS会议上最具影响力的比赛之一。来自蚂蚁集团的TitanShield Team(titanshield2)以超越第二名10个百分点的成绩斩获图像表征赛道冠军。据悉,此次夺冠团队采用的技术方案是由蚂蚁集团独立自研的、“基于特征兼容自监督学习框架”的预训练模型,能够针对性地解决内容安全风控领域常见的敏感信息更迭速度快、风控模型训练不及时等问题。作为可信AI技术研究及应用中的一环,该技术上线后可降低80%的图像对抗风险,将有助于极大地提升在内容安全等相关应用领域中的AI鲁棒性(Robustness)。

鲁棒性:人工智能的第一场大考


作为人工智能下一阶段快速发展的瓶颈所在,安全和可信性决定了人工智能未来三十年的发展速度和应用深度;而AI的鲁棒性,即抗打击能力及稳定性,则成为了人工智能的第一场大考。以图片识别领域为例,无人驾驶车辆上加载的图像识别模型可能因为图像识别错误,而酿成车祸;版权保护场景下,盗版商通过图片的变形,试图绕开反盗版模型的审查;内容安全场景中,将涉毒涉黄信息隐匿在看似合法的图片中,更是黑产团伙获利的惯用伎俩。“如果抵挡不住攻击,识别结果不可信,那么AI模型不仅失去了它存在的意义,还会成为另一个风险敞口”,蚂蚁集团资深技术专家博山在采访中强调。


可信AI:做内容安全战场的定海神针


     一直以来,敏感信息复杂多变,模型训练样本不足,是各家企业内容安全风控的核心痛点。例如,新增的劣迹艺人、潮流商品的版权图片,AI不仅无法预判其出现的趋势,还需要在其出现后快速做出风控响应;而在儿童软色情等问题场景下,由于模型训练样本不足,如何让AI实现有效风控成为难题。不仅如此,在全行业分工协作程度不断加深的今天,各类企业、商户组成了庞大的生态服务链。任一薄弱环节,都可能成为黑产的突破口,对企业自身及关联企业带来巨大的负面影响。但由于训练样本的敏感性等,如何实现联合风控,成为行业共同面临的困境。


   而此次比赛中,夺冠团队所采用的“基于特征兼容的自监督学习框架”的预训练模型,在图像识别领域,极大地缓解和应对了上述问题。首先,该技术能够基于公开数据集进行预训练,帮助AI提前完成同类风险预演。其次,在传统的AI识别中,模型识别依赖人工投喂标注了“特征”的样本;而借助“自监督学习”技术,该模型可以通过自主学习抓取“特征”,帮助下游训练收敛加速,将标注需求量降低70%,训练时间也从原本的一周缩短至3天。同时,创新的“特征兼容”方案,能够实现在两个业务场景或两家企业间,借助“特征”信息的兼容共享,实现风险联防。


   据悉,该模型及相关技术作为蚂蚁集团内容安全风控决策引擎的重要组成部分,目前已在支付宝内容安全场景中全面上线,可整体降低80%的图像对抗风险。

相关文章
|
1月前
|
人工智能 安全 算法
AI与大数据:智慧城市安全的护航者与变革引擎
AI与大数据:智慧城市安全的护航者与变革引擎
73 1
|
22天前
|
存储 人工智能 Kubernetes
[AI OpenAI] 保护前沿AI研究基础设施的安全
概述支持OpenAI前沿AI模型安全训练的架构。
[AI OpenAI] 保护前沿AI研究基础设施的安全
|
20天前
|
机器学习/深度学习 人工智能 安全
智能之网:AI技术在互联网安全中的应用与挑战
【6月更文挑战第7天】随着人工智能技术的不断进步,其在网络安全领域的应用也日益广泛。本文将探讨AI技术如何助力互联网安全防护,包括自动化威胁检测、响应机制的智能化以及数据保护的创新方法。同时,我们也将讨论AI技术在这一过程中面临的主要挑战,如算法偏见、隐私保护和对抗性攻击等问题。
49 1
|
13天前
|
人工智能 安全 网络安全
网络犯罪分子开始利用AI绕过现代电子邮件安全措施
网络犯罪分子开始利用AI绕过现代电子邮件安全措施
|
1月前
|
人工智能 监控 安全
[译][AI OpenAI-doc] 安全最佳实践
这篇文章总结了安全最佳实践,涵盖了使用免费 Moderation API 减少不安全内容频率的建议,对抗性测试的重要性,人在环路中审查输出的必要性,以及限制用户输入输出标记和允许用户报告问题的方法。文章强调了理解和沟通模型的限制的重要性,并提供了关于最终用户 ID 的建议。
|
24天前
|
存储 人工智能 安全
大环境下AI发展迅速,如何保证AI的安全问题?
保障AI安全的关键措施包括:数据隐私保护(加密、访问控制、脱敏、共享协议)、模型安全(验证、鲁棒性、监测、更新)、用户信息保护(透明收集、匿名化、保密协议)、网络安全(实时监测、防护措施)和合规伦理(遵守法规、融入设计)。此外,安全培训和意识提升也是重要一环。多角度策略确保AI技术的安全、健康和可持续发展。
20 0
|
1月前
|
人工智能 安全 数据挖掘
AI大数据分析对安全隐私的保护
AI大数据分析对安全隐私的保护非常重要。随着大数据技术和人工智能的发展,个人和企业的数据越来越容易被收集和分析。这种数据分析可以为企业提供有价值的洞察和决策支持,但同时也带来了安全隐私的风险。
|
28天前
|
机器学习/深度学习 人工智能 安全
Gandalf AI 通关详解(大模型安全)
Gandalf AI 通关详解(大模型安全)
|
1月前
|
人工智能 安全 算法
AI与大数据:智慧城市安全的护航者与变革引擎
AI与大数据:智慧城市安全的护航者与变革引擎
|
1月前
|
机器学习/深度学习 人工智能 安全
模型被投毒攻击,如今有了新的安全手段,还被AI顶刊接收
【4月更文挑战第25天】研究人员提出了一种结合区块链和分布式账本技术的联邦学习系统,以增强对抗投毒攻击的安全性。该系统利用智能合约支持的点对点投票和奖励惩罚机制,提高模型聚合的鲁棒性。此创新方法首次将区块链应用于联邦学习,减少中心化服务器的风险,但同时也面临计算成本增加、延迟问题以及智能合约安全性的挑战。论文已被AI顶刊接收,为金融、医疗等领域提供更安全的机器学习解决方案。[[1](https://ieeexplore.ieee.org/document/10471193)]
36 3

热门文章

最新文章