蚂蚁安全实验室斩获NeurIPS & Facebook AI联合竞赛冠军

本文涉及的产品
内容审核增强版开发者实践包,10万次资源包1年有效
简介: 12月10日,由国际人工智能顶会NeurIPS 与 Facebook AI联合举办的图像相似匹配竞赛ISC2021落下帷幕,本次比赛共有1635支参赛队伍参加,是今年NeurIPS会议上最具影响力的比赛之一。来自蚂蚁集团的TitanShield Team(titanshield2)以超越第二名10个百分点的成绩斩获图像表征赛道冠军。据悉,此次夺冠团队采用的技术方案是由蚂蚁集团独立自研的、“基于特征兼容自监督学习框架”的预训练模型,能够针对性地解决内容安全风控领域常见的敏感信息更迭速度快、风控模型训练不及时等问题。作为可信AI技术研究及应用中的一环,该技术上线后可降低80%的图像对抗风险,将有助

导读

12月10日,由国际人工智能顶会NeurIPS 与 Facebook AI联合举办的图像相似匹配竞赛ISC2021落下帷幕,本次比赛共有1635支参赛队伍参加,是今年NeurIPS会议上最具影响力的比赛之一。来自蚂蚁集团的TitanShield Team(titanshield2)以超越第二名10个百分点的成绩斩获图像表征赛道冠军。据悉,此次夺冠团队采用的技术方案是由蚂蚁集团独立自研的、“基于特征兼容自监督学习框架”的预训练模型,能够针对性地解决内容安全风控领域常见的敏感信息更迭速度快、风控模型训练不及时等问题。作为可信AI技术研究及应用中的一环,该技术上线后可降低80%的图像对抗风险,将有助于极大地提升在内容安全等相关应用领域中的AI鲁棒性(Robustness)。

鲁棒性:人工智能的第一场大考


作为人工智能下一阶段快速发展的瓶颈所在,安全和可信性决定了人工智能未来三十年的发展速度和应用深度;而AI的鲁棒性,即抗打击能力及稳定性,则成为了人工智能的第一场大考。以图片识别领域为例,无人驾驶车辆上加载的图像识别模型可能因为图像识别错误,而酿成车祸;版权保护场景下,盗版商通过图片的变形,试图绕开反盗版模型的审查;内容安全场景中,将涉毒涉黄信息隐匿在看似合法的图片中,更是黑产团伙获利的惯用伎俩。“如果抵挡不住攻击,识别结果不可信,那么AI模型不仅失去了它存在的意义,还会成为另一个风险敞口”,蚂蚁集团资深技术专家博山在采访中强调。


可信AI:做内容安全战场的定海神针


     一直以来,敏感信息复杂多变,模型训练样本不足,是各家企业内容安全风控的核心痛点。例如,新增的劣迹艺人、潮流商品的版权图片,AI不仅无法预判其出现的趋势,还需要在其出现后快速做出风控响应;而在儿童软色情等问题场景下,由于模型训练样本不足,如何让AI实现有效风控成为难题。不仅如此,在全行业分工协作程度不断加深的今天,各类企业、商户组成了庞大的生态服务链。任一薄弱环节,都可能成为黑产的突破口,对企业自身及关联企业带来巨大的负面影响。但由于训练样本的敏感性等,如何实现联合风控,成为行业共同面临的困境。


   而此次比赛中,夺冠团队所采用的“基于特征兼容的自监督学习框架”的预训练模型,在图像识别领域,极大地缓解和应对了上述问题。首先,该技术能够基于公开数据集进行预训练,帮助AI提前完成同类风险预演。其次,在传统的AI识别中,模型识别依赖人工投喂标注了“特征”的样本;而借助“自监督学习”技术,该模型可以通过自主学习抓取“特征”,帮助下游训练收敛加速,将标注需求量降低70%,训练时间也从原本的一周缩短至3天。同时,创新的“特征兼容”方案,能够实现在两个业务场景或两家企业间,借助“特征”信息的兼容共享,实现风险联防。


   据悉,该模型及相关技术作为蚂蚁集团内容安全风控决策引擎的重要组成部分,目前已在支付宝内容安全场景中全面上线,可整体降低80%的图像对抗风险。

相关文章
|
1月前
|
云安全 人工智能 安全
阿里云欧阳欣:AI时代下的安全新范式
2024 云栖大会技术主论坛重磅发布
686 4
阿里云欧阳欣:AI时代下的安全新范式
|
1月前
|
云安全 人工智能 安全
|
1天前
|
人工智能 运维 安全
AI来袭,IT人的工作还安全吗?来自汽车行业CIO的探讨
AI来袭,IT人的工作还安全吗?来自汽车行业CIO的探讨
|
1月前
|
人工智能 安全 开发者
由于安全风险,安全领导者考虑禁止用AI生成代码
由于安全风险,安全领导者考虑禁止用AI生成代码
|
27天前
|
存储 人工智能 开发框架
蚂蚁集团开源项目 DB-GPT 和 VSAG 惊艳亮相,引领 AI 数据革命!
9月5日,在2024 Inclusion·外滩大会“从DATA for AI到AI for DATA”见解论坛上,由蚂蚁集团发起的,旨在提高数据库与大模型应用开发效率的“星辰智能社区”新发布了两个项目:AI原生数据应用开发框架DB-GPT新版本与向量索引库VSAG。
|
2月前
|
人工智能 安全 网络安全
网络犯罪分子开始利用AI绕过现代电子邮件安全措施
网络犯罪分子开始利用AI绕过现代电子邮件安全措施
|
2月前
|
人工智能 安全 测试技术
|
2月前
|
机器学习/深度学习 人工智能 安全
🔐安全升级,AI守护:职场信息安全,有它在就放心!
【8月更文挑战第1天】在信息爆炸的时代,职场信息安全至关重要。一家科技公司遭遇网络钓鱼攻击后,引入AI智能安全解决方案加强防护。AI通过集成到邮件服务器中智能识别并标记可疑邮件,分析员工行为模式识别异常操作,并具备持续学习能力以优化识别算法。通过AI守护,公司成功抵御攻击并提升了信息安全水平,展示了AI在信息安全领域的巨大潜力和应用价值。
81 0
|
4月前
|
存储 人工智能 Kubernetes
[AI OpenAI] 保护前沿AI研究基础设施的安全
概述支持OpenAI前沿AI模型安全训练的架构。
[AI OpenAI] 保护前沿AI研究基础设施的安全
|
3月前
|
存储 人工智能 安全
AI伦理与法规:确保技术安全可控
【7月更文第20天】随着人工智能(AI)技术的飞速发展,其在医疗、金融、教育、交通等领域的应用日益广泛,极大地推动了社会进步和经济发展。然而,AI的广泛应用也引发了诸多伦理问题和对个人隐私的潜在威胁,这些挑战要求我们在追求技术创新的同时,必须建立和完善相应的伦理规范与法律法规框架,以确保技术的安全可控。本文将探讨AI发展中的主要伦理问题、隐私保护策略以及相关的法律法规,并通过代码示例展示如何在实践中实施隐私保护措施。
148 0

热门文章

最新文章