科技云报道:大模型引领技术浪潮,AI安全治理面临“大考”

简介: 大模型狂飙突进,AI安全隐忧何解?

科技云报道原创。

从文生文到文生图,再到文生视频,近年来,以ChatGPT、Sora等为代表的大模型引领了全球人工智能技术与产业的新一轮浪潮。2024年更是被业内称为大模型应用爆发元年。

年初,Sora横空出世验证了Scalling Law在视频生成方面的有效性。但Sora始终止步于公开的60秒Demo,产品落地计划迟迟未公开。

随后的半年时间,不少玩家继续在AI视频生成赛道展开角逐。今年6月,快手发布视频生成大模型“可灵”。紧随其后,国外知名3D建模平台Luma AI也高调入局,并宣布对所有用户免费开放其文生视频模型,再掀波澜。近日,智谱AI也正式上线了AI视频生成功能清影(Ying),全面入局文生视频及图生视频赛道,生成6秒视频仅需30秒的时间。

人工智能技术的普及应用一方面为社会发展带来了巨大的技术红利,另一方面也带来了风险挑战。

哲学家海德格尔曾反思过现代技术的危险性,其认为现代技术强调效率,在这种效率观念的促逼下,人类反而被技术所控制和占有,成为了技术的奴隶,受到技术发展的支配。虽然当下加速了发展进程,但是盲目的发展最终会导致一系列的社会危机,这是人类不可忽视的问题。

AI繁荣表象下的安全隐

近年来,一些不法分子利用人工智能深度伪造新工具实施电信诈骗、散布虚假视频、激化社会矛盾,给安全领域带来了诸多风险。人工智能深度伪造是一种利用人工智能技术合成、修改或替换图像、视频和音频内容的技术,可以将一个人的面部表情、言辞和动作应用到其他人的图像或视频上,使生成的内容看似原始内容。这项技术让假新闻和虚假信息更具迷惑性,严重威胁公众的信任和社会稳定。

此类安全产生的主要原因在于,技术发展速度过快而法律法规和伦理规范未能及时跟进。现有的法律框架往往难以适应人工智能的快速发展,导致监管滞后。

例如,AI自动驾驶汽车的责任认定问题,目前尚无明确的法律规定。当人工智能系统出现故障导致事故时,如何界定制造商、开发者和用户的责任,成为法律界亟待解决的难题。

同时,人工智能的决策机制和数据处理方式存在不透明性,可能导致偏见和歧视的扩散。例如,面部识别技术在执法中的应用可能带来隐私侵害和种族偏见的问题。经济基础决定上层建筑,上层建筑反作用于经济基础,当上层建筑为适合生产力发展的经济基础服务时,它就成为推动社会发展的进步力量;反之则成为阻碍社会发展的力量。当前的法律法规和伦理规范已经落后于人工智能技术发展水平,亟需改良进步。

受到发展水平、价值观念、文化差异和国家利益等多个因素的影响,各国推动的治理框架和解决方案通常在防范风险、公平公正、隐私保护和国家安全等方面有不同关切,而人工智能的发展趋势和特征却要求在全球治理方面构建更加包容的框架。

因此,在当前形势下,在推动全球人工智能治理框架、标准和规范形成广泛共识方面,仍存在诸多挑战与难题。

首先,人工智能技术本身的复杂性和快速发展使得全球治理更加困难。人工智能技术涉及深度学习、自然语言处理、计算机视觉等多个领域,每个领域都有其独特的技术挑战和应用场景,治理的复杂性大大增加,并且人工智能技术更新速度快,传统的立法和监管手段难以跟上技术进步的步伐。即使制定了相关政策和法规,也可能很快变得过时,需要不断更新和调整。随着人工智能应用的广泛普及,数据隐私、不公平与歧视性,以及国家安全等风险日益彰显。人工智能技术及其引发的全局性、系统性和国际性风险将成为全球治理合作面临的挑战之一。

其次,人工智能技术的发展涉及巨大的经济利益,各国之间在技术研发、市场份额和产业布局方面存在激烈竞争。一些国家和科技公司在人工智能领域占据领先地位,不愿意在国际治理框架中受到限制,担心影响自身的竞争优势;人工智能技术的应用涉及广泛的商业利益,各国可能会为了保护本国企业的市场份额而抵制统一的国际规范;不同国家在产业政策上也会有不同的侧重点,一些国家可能会更倾向于保护本国的人工智能产业,制定有利于自身发展的政策,而不是参与全球性的治理框架。

第三,主体多元将成为制约全球人工智能治理的因素。当前人工智能治理仍以政府为主导,主要表现为中国、欧盟、美国等制定和发布了一系列人工智能治理倡议、规划和立法。然而,私营部门在人工智能技术发展中也发挥着不可忽视的作用,谋求人工智能规则的话语权可以增强其影响力。多利益攸关方以自身利益为中心,可能导致人工智能治理主导权和规则制定权的多方博弈甚至恶性竞争。倘若如此,将严重损害各方在人工智能全球治理上的合作动能。

第四,人工智能技术的发展依赖于大量数据的收集和共享,但数据隐私和安全问题却成为全球治理的重要难题。许多国家对本国数据的控制权有很强的保护意识,不愿意轻易共享数据。而且各国对数据隐私保护的标准和要求不同,一些国家可能对数据的跨境流动设置严格的限制。

第五,少数科技巨头公司在人工智能技术和市场上占据主导地位,导致全球治理面临技术垄断和不平等问题。大型科技公司在人工智能技术研发和应用方面占据主导地位,拥有巨大的经济和政治影响力,可能会影响政策的制定和执行。

人工智能技术的发展还可能加剧全球范围内的经济不平等,发展中国家在技术和资源方面处于劣势,难以在全球治理中发挥有效作用。

面对人工智能全球治理的多重挑战和现实困境,中国提出推动构建人类命运共同体为愿景的解决方案。在7月举行的2024世界人工智能大会暨人工智能全球治理高级别会议上,清华大学苏世民书院院长、清华大学人工智能国际治理研究院院长薛澜曾表示,从全球角度来讲,人工智能发展面临着很多挑战。

要把AI发展和安全作为“一体两翼”,通过多途径建立国际交流及防控体系,加强政府间的多边对话机制,同时通过科学共同体力量助力国际机制全面完善。

同时发挥联合国等国际组织的综合全面协调作用,打破各种壁垒,加强国际合作协议,同时在产业、科学界共同努力下推动人工智能合理、健康发展,为人类和平与发展作出更大的贡献。

图灵奖得主、中国科学院院士、清华大学交叉信息研究院院长姚期智表示,人工智能最有深度、最有意思的风险来自AI生存或者存在的风险。要控制好AI,但又不能破坏它,“正如图灵所说,这是无法预测的,预测不了机器有了足够算力之后会做什么。”

因此,AI风险需要专家来解决,不仅是科学家,还可能需要政府、律师、经济学家来参与,几乎涉及到每一个行业。

上海人工智能实验室主任、衔远科技创始人周伯文认为,目前,世界上只有1%的资源投入在对齐或者安全考量上,对AI安全的投入远落后于AI性能的投入。人类将遵循“AI-45°平衡律”,沿着可信AGI的“因果之梯”拾级而上,探索人工智能系统安全和能力的系统性平衡之路。

道阻且长,行则将至

全球人工智能治理倡导“以人为本、智能向善、造福人类”的原则,这既代表了人工智能发展的主线,也代表了治理的宗旨。

7月24日,中国人工智能产业发展联盟(简称“AIIA”)安全治理委员会成果发布会举行。会上,AIIA秘书长、中国信息通信研究院院长余晓晖表示,开展人工智能安全治理工作不仅是我国推动人工智能发展和安全的重要工作,也是全人类共同需要对待的重大问题。如何释放出人工智能最大向善的能力,造福于人类,促进经济社会发展,需要世界各国共同推动。

AIIA秘书长、中国信息通信研究院院长余晓晖

AIIA安全治理委员会主任委员、公安部信息安全等级保护评估中心原副主任、研究员毕马宁表示,过去一年,大模型发展速度之快,赋能范围之广,让业界看到了通用人工智能的实现路径与曙光,但人工智能安全问题的严重性与紧迫性不容忽视。在从不同层面审视人工智能安全问题时,可以发现人工智能所带来的安全挑战已经从技术本身所带来的数据、算力、系统等传统安全问题,逐渐向对个人、组织、国家社会、人类生态的衍生安全问题蔓延。

AIIA安全治理委员会主任委员、公安部信息安全等级保护评估中心原副主任、研究员毕马宁

AIIA总体组组长、中国信通院人工智能研究所所长魏凯表示,世界各国都对人工智能的发展表示出非常大的期待,不论是发达国家或者发展中国家,普遍认为人工智能是一个巨大的机遇,同时也对人工智能的确定性安全和风险挑战表示担忧。

多年来,中国信通院作为国家智库产业平台,不仅联合各方在中国人工智能产业发展联盟下成立了安全委员会,搭建人工智能安全方面交流合作平台,同时联合产业界发布了《人工智能治理框架》,提出以风险为导向的人工智能研判理论体系,并发布一系列人工智能安全合规方面的标准规范,协助企业提升安全能力。

围绕大模型安全,中国信通院还启动大模型安全基准测试,为国内企业开展大模型安全防范工作提供参考。此外,与国际组织各国就人工智能的安全治理工作开展双边、多边的讨论交流,共同推动人工智能在全球的发展和安全的治理工作。

目前,全球针对人工智能安全已有很多声明和请愿,但更重要的是要明确目标、投入资源、采取行动,携手结伴共同应对风险。各国和地区针对人工智能治理正从原则治理走向安全实践的新阶段。

治理框架方面,各国和地区基本形成本土治理方案。比如美国推出《人工智能风险管理框架》推动基于风险的治理实践。欧盟《人工智能法》构建了风险分级的治理方案,并即将正式生效。

新加坡在原先治理框架基础上推出了《生成式人工智能治理模型框架》,提出人工智能评估需考虑的九个维度。日本发布《人工智能运营商指南》,为开发者、提供者、使用者制定行为准则。我国从《互联网信息服务算法推荐管理规定》到《生成式人工智能服务管理暂行办法》精准化治理前沿技术。

治理工具方面,全球积极推出安全测试评估平台。美国成立人工智能安全研究所和安全联盟以推动制定人工智能安全标准和开展安全评测,并于近期启动“评估人工智能的风险和影响”计划。英国人工智能安全研究所推出“Inspect”人工智能模型安全评估平台。新加坡依托“AI Verify”发布软件工具包,推动新技术的沙箱测试。我国已有近140个大模型通过安全评估与备案,形成良好示范效应。

可以看出,安全已成为各国人工智能治理的核心关切,保障安全是人工智能技术创新发展的基石,也是推动人工智能产业可持续发展的重要前提。

道远路长,行则将至。人工智能治理是一个不容忽视又实时更新的问题,未来也许将有超出现有认知的挑战,这就需要国际社会携手共同努力,为人工智能的发展把好方向盘,显然是未来与技术狂奔向前相伴的另一个主旋律。让每一个人成为人工智能的使用者、受益者,也让每一个人成为人工智能的设计者、治理者。

【关于科技云报道】
专注于原创的企业级内容行家——科技云报道。成立于2015年,是前沿企业级IT领域Top10媒体。获工信部权威认可,可信云、数博会、国家网安周与全球云计算等大型活动的官方指定传播媒体之一。深入原创报道云计算、人工智能、大模型、网络安全、大数据、区块链等企业级科技领域。

相关文章
|
6天前
|
机器学习/深度学习 人工智能 自动驾驶
企业内训|AI大模型在汽车行业的前沿应用研修-某汽车集团
本课程是TsingtaoAI为某汽车集团高级项目经理设计研发,课程全面系统地解析AI的发展历程、技术基础及其在汽车行业的深度应用。通过深入浅出的理论讲解、丰富的行业案例分析以及实战项目训练,学员将全面掌握机器学习、深度学习、NLP与CV等核心技术,了解自动驾驶、智能制造、车联网与智能营销等关键应用场景,洞悉AI技术对企业战略布局的深远影响。
135 97
|
6天前
|
机器学习/深度学习 人工智能 安全
阿里云先知安全沙龙(武汉站) ——AI赋能软件漏洞检测,机遇, 挑战与展望
本文介绍了漏洞检测的发展历程、现状及未来展望。2023年全球披露的漏洞数量达26447个,同比增长5.2%,其中超过7000个具有利用代码,115个已被广泛利用,涉及多个知名软件和系统。文章探讨了从人工审计到AI技术的应用,强调了数据集质量对模型性能的重要性,并展示了不同检测模型的工作原理与实现方法。此外,还讨论了对抗攻击对模型的影响及提高模型可解释性的多种方法,展望了未来通过任务大模型实现自动化漏洞检测与修复的趋势。
|
4天前
|
人工智能 自然语言处理 前端开发
三大行业案例:AI大模型+Agent实践全景
本文将从AI Agent和大模型的发展背景切入,结合51Talk、哈啰出行以及B站三个各具特色的行业案例,带你一窥事件驱动架构、RAG技术、人机协作流程,以及一整套行之有效的实操方法。具体包含内容有:51Talk如何让智能客服“主动进攻”,带来约课率、出席率双提升;哈啰出行如何由Copilot模式升级为Agent模式,并应用到客服、营销策略生成等多个业务场景;B站又是如何借力大模型与RAG方法,引爆了平台的高效内容检索和强互动用户体验。
70 5
|
4天前
|
人工智能 安全 算法
PAI负责任的AI解决方案: 安全、可信、隐私增强的企业级AI
在《PAI可信AI解决方案》会议中,分享了安全、可信、隐私增强的企业级AI。会议围绕三方面展开:首先通过三个案例介绍生活和技术层面的挑战;其次阐述构建AI的关键要素;最后介绍阿里云PAI的安全功能及未来展望,确保数据、算法和模型的安全与合规,提供全方位的可信AI解决方案。
|
1天前
|
人工智能 供应链 安全
面向高效大模型推理的软硬协同加速技术 多元化 AI 硬件引入评测体系
本文介绍了AI硬件评测体系的三大核心方面:统一评测标准、平台化与工具化、多维度数据消费链路。通过标准化评测流程,涵盖硬件性能、模型推理和训练性能,确保评测结果客观透明。平台化实现资源管理与任务调度,支持大规模周期性评测;工具化则应对紧急场景,快速适配并生成报告。最后,多维度数据消费链路将评测数据结构化保存,服务于综合通用、特定业务及专业性能分析等场景,帮助用户更好地理解和使用AI硬件。
|
1天前
|
人工智能 自然语言处理 API
大模型编程(3)让 AI 帮我调接口
这是大模型编程系列第三篇,分享学习某云大模型工程师ACA认证免费课程的笔记。本文通过订机票和查天气的例子,介绍了如何利用大模型API实现函数调用,解决实际业务需求。课程内容详实,推荐感兴趣的朋友点击底部链接查看原文,完全免费。通过这种方式,AI可以主动调用接口并返回结果,极大简化了开发流程。欢迎在评论区交流实现思路。
28 1
|
4天前
|
人工智能 资源调度 调度
云上AI Infra解锁大模型创新应用
本节课程由阿里云智能集团资深技术专家王超分享,主题为AI基础设施的发展趋势。课程聚焦于AI Infra设计与Scaling Law,探讨了下一代AI基础设施的设计目标、功能升级及推理场景中的应用。主要内容包括高效支持大规模模型训练和推理、全球调度系统的设计、Rack level的Scale优化以及多租户容器化使用方式。通过这些改进,旨在提升并行效率、资源利用率及稳定性,推动AI基础设施迈向更高性能和更优调度的新阶段。
|
7天前
|
机器学习/深度学习 传感器 人工智能
开源AI视频监控系统在监狱安全中的应用——实时情绪与行为分析、暴力预警技术详解
针对监狱环境中囚犯情绪波动和复杂人际互动带来的监控挑战,传统CCTV系统难以有效预警暴力事件。AI视频监控系统基于深度学习与计算机视觉技术,实现对行为、情绪的实时分析,尤其在低光环境下表现优异。该系统通过多设备协同、数据同步及自适应训练,确保高精度识别(95%以上)、快速响应(<5秒),并具备24小时不间断运行能力,极大提升了监狱安全管理的效率与准确性。
|
18天前
|
机器学习/深度学习 人工智能 自然语言处理
AI技术深度解析:从基础到应用的全面介绍
人工智能(AI)技术的迅猛发展,正在深刻改变着我们的生活和工作方式。从自然语言处理(NLP)到机器学习,从神经网络到大型语言模型(LLM),AI技术的每一次进步都带来了前所未有的机遇和挑战。本文将从背景、历史、业务场景、Python代码示例、流程图以及如何上手等多个方面,对AI技术中的关键组件进行深度解析,为读者呈现一个全面而深入的AI技术世界。
90 10
|
11天前
|
机器学习/深度学习 人工智能 物联网
AI赋能大学计划·大模型技术与应用实战学生训练营——湖南大学站圆满结营
12月14日,由中国软件行业校园招聘与实习公共服务平台携手魔搭社区共同举办的AI赋能大学计划·大模型技术与产业趋势高校行AIGC项目实战营·湖南大学站圆满结营。
AI赋能大学计划·大模型技术与应用实战学生训练营——湖南大学站圆满结营