RSA老板警告 不要指望人工智能可以保护我们的安全

本文涉及的产品
密钥管理服务KMS,1000个密钥,100个凭据,1个月
简介:

2016年RSA大会消息---- RSA总裁Amit Yoran在RSA会议上致主题开幕词时提出警告,他称相信新技术是危险的,他还严厉抨击了政府在加密方面的愚蠢行为。

RSA老板警告 不要指望人工智能可以保护我们的安全 

Yoran承认,深度学习和人工智能系统会是今年会议的主题----实际上连RSA也会在大会上发布旗下的行为分析引擎,但他表示安全行业不能靠这些系统来解决现实世界里的安全问题。

前一阵谷歌的深度学习系统AlphaGo连续五次击败了欧洲围棋冠军,大家都为之振奋。他表示,这是一项令人刮目相看的成功,但从安全行业的角度来看却很难说是一个好的人工智能展示。

他称,“围棋规定了界限,棋手必须必须遵循一套不变的规则,这些规则是可知的、静态的。”

“而在网络安全里,我们的对手玩的那一套是不一样的,他们不会按我们的规则玩:他们甚至没有规则。我们的问题不是一个技术问题,他们并不是用更好的技术击败我们,他们之所以击败我们是因为他们更富有创造性、更有耐心和更顽强。”

Yoran表示,为了击败骗子们,企业需要培养自己的猎手,赋予他们行动自由。他还警告说,如果一众公司将大部分精力都投入在保证安全合符规范的工作上,那他们是没有抓住重点。

给客人上一课

Yoran表示,今年的会议上比以往有更多来自政府的演讲者和参会者。他称,这是值得欢迎的,但安全行业需要教导政府,要在政府做蠢事时指出来。

他表示,“降低加密强度太具误导性,到了不可置信的程度。我们正处于监视黄金时代。降低加密强度只不过方便了警察抓些小鱼小虾。恐怖分子和有国家背景的机构是不会使用低强度技术的,而如果我们采用,可以打赌,他们会针对我们的。我们需要保持尊重别人的态度,但要确保我们说的有人听。”

他还抨击了美国政府在《瓦森纳协定》上的做法,《瓦森纳协定》是控制技术出口的一项机制。这个条约最初修订时禁止出口大部分的安全技术,Yoran欢迎美国政府最后在这个问题上没有坚持最初的修订。

Yoran的说词后来得到其他演讲者的呼应。与会领取终身成就奖的RSA前总裁Art Coviello表示,安全行业在上世纪90年代的密码大战前也有过这种讨论,平衡式没有变----搞砸加密是一个愚蠢的想法。

微软总裁布拉德·史密斯(Brad Smith)在他的主题演讲里对政府过度干预的做法也同样直言不讳。他表示,加密是一件重要的问题,而执法部门在处理云服务器这件事上企图推翻有两个世纪历史的判例法,这同样也是个重要的问题。

史密斯表示,微软可以也在与执法部门合作,他援引了巴黎恐怖袭击事件。警察在追捕在逃的恐怖分子时,微软将14个人的信息内容交了出来,所需时间平均只有30分钟,只是用了些时间确认要求是合法的。

他表示,但在都柏林这件事上,执法部门要取云服务器上的数据,微软的立场坚定。他称,微软将在此案件上继续抗争,因为它涉及到一个重要的法律问题。

史密斯表示,“我们认为,如果政府想要调查一个企业,就应该去该企业,而不是去云服务提供商那里。两个世纪以来都这样运作的,以后也应该是这样运作。企业有权知道他们正在被调查。”


原文发布时间为: 2016年3月2日

本文作者:杨昀煦

本文来自云栖社区合作伙伴至顶网,了解相关信息可以关注至顶网。e

相关文章
|
3月前
|
云安全 人工智能 安全
阿里云欧阳欣:AI时代下的安全新范式
2024 云栖大会技术主论坛重磅发布
813 4
阿里云欧阳欣:AI时代下的安全新范式
|
1月前
|
人工智能 安全 算法
上交大、上海人工智能实验室开源首个多轮安全对齐数据集 SafeMTData
最近,以 OpenAI o1 为代表的 AI 大模型的推理能力得到了极大提升,在代码、数学的评估上取得了令人惊讶的效果。OpenAI 声称,推理可以让模型更好的遵守安全政策,是提升模型安全的新路径。
|
8天前
|
机器学习/深度学习 人工智能 安全
CCF-CV企业交流会:打造大模型时代的可信AI,探索AI安全治理新路径
近日,由中国计算机学会计算机视觉专委会主办的《打造大模型时代的可信AI》论坛顺利举行。论坛邀请了来自上海交通大学、中国科学技术大学等机构的专家,从立法、监管、前沿研究等多角度探讨AI安全治理。合合信息等企业展示了图像篡改检测等技术,助力AI向善发展。
42 11
CCF-CV企业交流会:打造大模型时代的可信AI,探索AI安全治理新路径
|
3天前
|
人工智能 安全 机器人
OpenAI重拾规则系统,用AI版机器人定律守护大模型安全
在人工智能领域,大语言模型(LLM)展现出强大的语言理解和生成能力,但也带来了安全性和可靠性挑战。OpenAI研究人员提出“规则基于奖励(RBR)”方法,通过明确规则引导LLM行为,确保其符合人类价值观和道德准则。实验显示,RBR方法在安全性与有用性之间取得了良好平衡,F1分数达97.1。然而,规则制定和维护复杂,且难以完全捕捉语言的多样性。论文:https://arxiv.org/pdf/2411.01111。
31 13
|
1月前
|
云安全 人工智能 自然语言处理
用AI来做云安全是怎样一种体验?阿里云安全AI能力大曝光
阿里云内容安全大模型获CSA安全金盾奖
1045 2
|
1月前
|
人工智能 安全 网络安全
揭秘!大模型私有化部署的全方位安全攻略与优化秘籍,让你的AI项目稳如磐石,数据安全无忧!
【10月更文挑战第24天】本文探讨了大模型私有化部署的安全性考量与优化策略,涵盖数据安全、防火墙配置、性能优化、容器化部署、模型更新和数据备份等方面,提供了实用的示例代码,旨在为企业提供全面的技术参考。
109 6
|
1月前
|
机器学习/深度学习 传感器 人工智能
智慧矿山AI安全监管方案
智慧矿山AI安全监管方案通过集成AI技术,实现了对矿山环境、设备和人员的全方位智能监控与管理。该方案利用高清摄像头、传感器等设备实时采集数据,通过AI算法进行智能分析,提前预测安全隐患,及时发出预警,有效提升矿山安全管理水平。方案涵盖顶板与边坡监测、设备运行监测、人员行为识别等多个方面,旨在构建一个高效、安全的智能化矿山环境。
|
2月前
|
人工智能 运维 安全
AI来袭,IT人的工作还安全吗?来自汽车行业CIO的探讨
AI来袭,IT人的工作还安全吗?来自汽车行业CIO的探讨
AI来袭,IT人的工作还安全吗?来自汽车行业CIO的探讨
|
3月前
|
云安全 人工智能 安全
|
3月前
|
人工智能 安全 开发者
由于安全风险,安全领导者考虑禁止用AI生成代码
由于安全风险,安全领导者考虑禁止用AI生成代码

热门文章

最新文章