TensorFlow1.0正式发布,AI圈“互怼”那些事儿 | AI科技评论周刊

简介:

编者按:本周TensorFlow 1.0 正式发布;南大教授周志华当选AAAI 2019 程序主席,华人学者第一人; 雷锋网与MXNet作者李沐畅谈两小时;LipNet与ICLR评委互怼始末,谷歌工程师怼上Yann LeCun,雷锋网帮你梳理最近学术界工业界“互怼”那些事儿。

TensorFlow 1.0 正式发布

TensorFlow1.0正式发布,AI圈“互怼”那些事儿 | AI科技评论周刊

本周,谷歌在山景城举办了第一届 TensorFlow 开发者峰会。作为大会的一部分,TensorFlow 1.0 的正式版本被发布出来。一起来看看它都有哪些新特性:

更快

它运算更快——TensorFlow 1.0 有十分惊人的速度。它快到什么程度呢?据谷歌表示,在使用八个 GPU 的情况下,TensorFlow 1.0 在 Inception v3 的测试中有 7.3 倍的速度提升。在 64 个分布式 GPU 集群上运行,Inception v3 的跑分增加了 58 倍。


不仅如此,XLA(Accelerated Linear Algebra,即加速线性代数) 还为未来进一步的性能提升打下了基础。TensorFlow 的官方网站 tensorflow.org,也上线了官方使用指南和秘诀,以帮助开发者对模型进行调参,达到最大的训练速度。另外,雷锋网获知,谷歌将发布针对几大主流模型的实践指导(更新版本),为如何最大化利用 TensorFlow 1.0 提供指导,相信不久之后就可以看到。

更灵活

它更加灵活—— TensorFlow 1.0 加入了新的高级别 API,还有 tf.layers, tf.metrics, and tf.losses 模块。非常关键的是,谷歌宣布 TensorFlow 1.0 内置了新的 tf.keras 模块——后者使得 TensorFlow 为 Keras 提供“完全”兼容支持。这在之前就传出过风声。作为一个在 ML 开发者当中广为流传的神经网络库,Keras 的加入无疑让 Tensorflow 的使用变得更加便利。

更稳定

更适合商业化使用——TensorFlow 加强了 Python API 的稳定性。这使得为它加入新特征变得更加容易,而不需要推翻已有的代码。

MXNet作者李沐:工业界追求“how”,学术界重在“why”

在旧金山参加 AAAI 期间,经余凯老师的引荐,雷锋网AI科技评论来到了位于 Palo Alto 的亚马逊AWS 办公室与李沐见了一面。

TensorFlow1.0正式发布,AI圈“互怼”那些事儿 | AI科技评论周刊

在 AAAI 的演讲中,Smola 拿 MXNet 的运行速度与其它开源平台做对比,而在谈话中李沐表示,自己并不愿意这样简单粗暴地做对比,他也告诉员工们,如果其它公司邀请你们做分享,一般不要做对比,只谈技术就好。

“我很理解大家爱看对比类的文章,但这是一个有偏见(biased)的做法。我们比别人快一两倍,不是我们想表达的东西,而为什么快,做了哪些优化,离我们的理想状态还有哪些差距,这样的总结可能对我来说更有价值一些。”

作为在工业界与学术界都待过的大牛,李沐虽然现在对于两个领域的研究侧重颇有心得,但在四年前,他在投递论文时也吃过不少亏,NIPS、IJCAI、JMLR、UAI、KDD连续被拒绝的他,心情非常郁闷。2013 年 8 月,他在微博上无奈地写道:

“今年往nips投了篇分布式优化的文章,自觉性能和通用性都可以beat掉度厂和谷歌的当家机器学习系统。结果收了满满6页的review 真是rebuttal不能啊,不报希望去nips普及大数据了。转身投system会议去了....”

后来回顾这段历程时,李沐感慨道:

“做产品和做学术研究是完全不同的东西。产品的导向是解决问题的 how,效果好、简单好用、通用性强、资源消耗低、便于实践,也就是东西要 work(应用)。不同公司的侧重点可能有些差异,比如百度对广告的精准性要求高一些,腾讯可能需要产品简单一些。而做学术研究时要写清楚的是 why,最重要的是想法(idea),第二点是洞察(insight), 也就是你能把这个事情做出深层的解释,再接下来才是结果好不好。”

他认为亚马逊看重的是“有与无”的问题,而不是“谁”的问题。

“亚马逊靠的是机器时间(machine hour)赚钱,而不是靠软件与平台。因此,做社区的目的主要是为了把用户量积累起来,而上面用的是什么开源平台,其实并不重要。”

南大教授周志华当选AAAI 2019 程序主席,华人学者第一人

TensorFlow1.0正式发布,AI圈“互怼”那些事儿 | AI科技评论周刊

雷锋网(公众号:雷锋网)从AAAI现任主席Subbarao Kambhampati处获悉了AAAI 2019的程序主席人选,一位是密歇根大学教授Pascal Van Hentenryck,另一位是我们很熟悉的、来自中国南京大学计算机系的教授周志华,其作为华人学者担任AAAI大会程序主席(Program Chair),这是AAAI创始以来第一次。周志华教授也成为了1980年AAAI大会创办以来欧美之外国家的学者担任AAAI大会程序主席的第一人。

周志华分别于1996年6月、1998年6月和2000年12月于南京大学计算机科学与技术系获学士、硕士和博士学位,学成后一直在南大执教。他曾在中国大陆取得所有学位,在海外最多只连续呆过两个月,是彻头彻尾的‘本土学者’。周志华教授是AAAI Fellow、 IEEE Fellow、 IAPR Fellow,2016年又新当选ACM Fellow、AAAS Fellow,涵盖了人工智能所有重要的学会,堪称人工智能会士“大满贯”得主。

最近几年,AAAI把国际化当成一个重要议题,越来越多来自美国之外的学者进入常务组织机构,而影响力日渐壮大的中国学者也会在AAAI里扮演更重要的角色。2016年,香港科技大学的杨强教授曾当选AAAI Councilor,是华人学者第一次进入AAAI执行委员会。

不可否认地,华人学者在大会中担任越来越重要的角色,除了AAAI本身国际化的需求,也是华人学者在AI领域的影响力日渐提升的结果。Subbarao Kambhampati最后向雷锋网透露,AAAI正在考虑2021年让AAAI会议走出北美,虽然尚未有定论,但组委会正在讨论深圳作为AAAI 2021主办地点的可能性。

LipNet与ICLR评委互怼始末

ICLR 2017 4 月份马上就要召开,OpenReview 的结果也陆续出来。既然是一项学术会议,自然就涉及到论文的录取与评审。其中,一篇早在去年就火遍各大媒体的论文遭到了拒绝,并引发了一场公开辩驳。

去年 11 月的一篇论文——《LipNet: End-to-End Sentence-level Lipreading》,由牛津大学人工智能实验室、谷歌 DeepMind 和加拿大高等研究院 (CIFAR) 联合发布,此文一出,很快便引来了众多的关注,第一及第二作者 Yannis Assael 和 Breandan Shilingford 也是采访不断。

论文火到什么程度呢?Nvidia CEO 黄仁勋在 CES 2017 上提及了他们与牛津大学的 LipNet 团队有合作,研发读唇深度学习网络模型的应用,并表示这一成果将应用于 Nvidia 的协同驾驶技术上。

然而这篇论文,在今年就遭遇了 ICLR 的无情拒绝。其中与评委争论得最为激烈的就是导师 Nando de Freitas,作为牛津大学机器学习教授,DeepMind 研究科学家,还是 CIFAR 的 Fellow,他直言评审的意见更新毫无价值,吐槽评审给出的修改意见简直是居高临下,站着说话不腰疼,完全是一派胡言!

而评审也是一点不手软,最后给出的结论依然是拒绝。主要有2点评审意见:

1. 评审们非常重视论文的创新度及研究意义。

2. 经过审阅,论文确实还没有达到入选 ICLR 的标准。“论文是一篇应用性论文,作者提出了第一个用机器学习实现端到端的语句层面唇读技术。”

最后又总结了一番:

此文的缺点在于,在研究深度学习的相关应用时,它并没有做出巨大的技术贡献,也没有提出任何超出目前应用领域的新见解。

论文里提及能将唇语的判别能力提升 10%,对于工业界也是一个很大的突破。不过,好的结果对工业界有用,但从研究的结果来说,不一定就与突破划上等号。就像李沐此前所提及的一样,工业界追求的是「how」,而学术界看重的是「why」,产品与研究的方向完全不同,前者追求效果,能做出东西来就是胜利,而后者更看重创新。

谷歌工程师怼上Yann LeCun:你对Google Brain的评价完全是错的

最近,Google Brain的研究工程师Eric Jang在Quora上回答了“IBM、谷歌、Facebook、苹果和微软等几家公司里,谁在领导着AI研究的发展?”(Who is leading in AI research among big players like IBM, Google, Facebook, Apple and Microsoft?)这一问题,短短时间便获得了超过4000的阅读量。之所以获得这么广泛的关注,一方面是因为Eric Jang犀利的行文风格,也因为他直接对原本Yann LeCun的回答做出了反驳。

TensorFlow1.0正式发布,AI圈“互怼”那些事儿 | AI科技评论周刊

Eric Jang把Deepmind排到第一位,Google Brain 、Facebook FAIR和OpenAI三者并列第二,百度和微软研究院并列第三、苹果第四、IBM位列第10位。他认为Deepmind很大程度上是如今的第一名,因为他们发表的工作成果受到研究圈的高度重视,而且都涉及到了非常顶级的议题,比如深度增强学习、贝叶斯神经网络、机器人学、迁移学习等;也因他们从牛津大学和剑桥大学吸收了大量人才。

对于之前Yann LeCun对Google Brain在研究领域的评价“但是谷歌主要关注与应用和产品开发,而不是长期的AI研究工作。”是错误的。他说道,Google Brain刚起步时的项目确实比较偏向工程,但是今天,Google Brain有很多员工都是专注于长期的AI研究 ,而且是涉及所有可能的AI次级领域,这跟Facebook FAIR和Deepmind是类似的。

Facebook FAIR有16篇论文被ICLR 2017大会接收,其中有3篇被选为做现场论文展示。而实际上,Google Brain被ICLR 2017大会接收的论文数量还略略超过Facebook FAIR,总共有20篇,其中4篇被选为做现场论文展示。而这并没有算上Deepmind和其它谷歌内部团队的工作(比如搜索、VR、图片)。论文接收数量并非一个很好的衡量尺度,但是他以此想反驳那些暗示Google Brain不善深度学习研究的暗示。

MIT黑科技:全新芯片将语音识别功耗降低99%

日前 ,MIT的研究人员开发了一款专为自动语音识别设计的低功耗芯片。据悉,他们开发的芯片最高能将语音识别的功耗降低99%。

不管苹果的Siri,谷歌的Google Assistant,还是亚马逊的Alexa,智能语音助手正在越来越普及。但是,这些虚拟助手都需要依靠语音识别,而且需要常驻后台保持开启状态以随时检测语音命令,这必然会减少设备的续航时间。MIT的研究人员称,手机上的语音识别功能的功率大约在1瓦特左右,而使用他们开发的芯片能够将功率降低至0.2~10毫瓦。

雷锋网了解到,通常情况下,负责语音识别的芯片会一直在后台运行神经网络来检测周围所有的声音,不管是人声还是噪声。而MIT的这款芯片增加了一个简单的“声音探测”电路,它能够识别人类的声音,而且一旦检测到人声之后,就会激活更复杂的语音识别电路。这种方式就像给语音识别芯片加了一个协处理器,从而大幅降低了功耗。这意味着,未来就算是小型的电子设备也能用上先进的语音识别系统和AI助手。

OpenAI最新研究:“对抗样本”能轻易黑掉AI系统,如何抵御?

OpenAI发表最新研究,论述了AI安全领域的一大隐忧:“对抗样本”,它可以轻易地让机器学习系统产生误判,这会对AI的应用实践产生影响。在这篇由“GANs”之父Ian Goodfellow领衔撰写的文章里,OpenAI针对“对抗样本”进行了防御策略的实验,其中有两种方法效果显著,但也并不能解决根本问题。

“对抗样本”是攻击者故意设计的,被用来输入到机器学习模型里,引发模型出错的值,它就像是让机器在视觉上产生幻觉一样。

“对抗样本”很有可能变得危险。比如,攻击者可以用贴纸或一幅画制成一个“停止”指示牌的“对抗样本”,以此来攻击汽车,让汽车将原本的“停止”指示牌误理解“让行”或其它指示牌,就像论文“Practical Black-Box Attacks against Deep Learning Systems using Adversarial Examples”讨论的那样。

“对抗样本”展示出,就算是简单的现代算法,不论是监督学习还是增强学习,就已经可以不以设计者的意愿行事了,且是以令人惊讶的方式。

让机器学习模型更稳定的传统技术,比如与权重衰减(weight decay)和dropout,通常不会对“对抗样本”造成实际的防御。到目前,只有两种方法有明显防御效果:对抗训练(Adversarial training)和防御净化(Defensive distillation),然而,如果攻击者获得更多的计算力,那么即使是这些特定算法,也会很容易就被攻克。

“对抗样本”很难抵御,因为很难为“对抗样本”的制作过程构建一个理论模型,也是因为它们要求机器学习模型为每一个可能的输入值产生好的输出结果。设计出抵抗强大、具有适应性攻击者的防御策略,是非常重要的研究领域。

本文作者:亚萌

本文转自雷锋网禁止二次转载,原文链接

相关实践学习
达摩院智能语音交互 - 声纹识别技术
声纹识别是基于每个发音人的发音器官构造不同,识别当前发音人的身份。按照任务具体分为两种: 声纹辨认:从说话人集合中判别出测试语音所属的说话人,为多选一的问题 声纹确认:判断测试语音是否由目标说话人所说,是二选一的问题(是或者不是) 按照应用具体分为两种: 文本相关:要求使用者重复指定的话语,通常包含与训练信息相同的文本(精度较高,适合当前应用模式) 文本无关:对使用者发音内容和语言没有要求,受信道环境影响比较大,精度不高 本课程主要介绍声纹识别的原型技术、系统架构及应用案例等。 讲师介绍: 郑斯奇,达摩院算法专家,毕业于美国哈佛大学,研究方向包括声纹识别、性别、年龄、语种识别等。致力于推动端侧声纹与个性化技术的研究和大规模应用。
相关文章
|
4月前
|
人工智能 vr&ar UED
获奖公布|第十九届"挑战杯"竞赛2025年度中国青年科技创新"揭榜挂帅"擂台赛阿里云“AI技术助力乡村振兴”专题赛拟授奖名单公示
获奖公布|第十九届"挑战杯"竞赛2025年度中国青年科技创新"揭榜挂帅"擂台赛阿里云“AI技术助力乡村振兴”专题赛拟授奖名单公示
|
4月前
|
人工智能 算法 数据安全/隐私保护
拔俗AI多模态心理风险预警系统:用科技守护心理健康的第一道防线
AI多模态心理风险预警系统通过语音、文本、表情与行为数据,智能识别抑郁、焦虑等心理风险,实现早期干预。融合多源信息,提升准确率,广泛应用于校园、企业,助力心理健康服务从“被动响应”转向“主动预防”,为心灵筑起智能防线。(238字)
536 0
|
10月前
|
存储 人工智能 监控
星云智控科技-优雅草星云物联网AI智控系统软件产品技术栈一览表-优雅草卓伊凡
星云智控科技-优雅草星云物联网AI智控系统软件产品技术栈一览表-优雅草卓伊凡
329 7
星云智控科技-优雅草星云物联网AI智控系统软件产品技术栈一览表-优雅草卓伊凡
|
8月前
|
机器学习/深度学习 人工智能 算法
ai赋能科技
本内容探讨了AI技术在教育领域的深度应用,涵盖教学设计、课堂互动、科研赋能、教学管理和伦理实践五大方面。从智能备课到动态学情分析,从跨学科创新到自动化评估,展示了AI如何优化教育全流程。同时强调数据安全与算法公平性,确保技术发展不偏离教育本质。最后指出,在AGI时代,学习AI大模型不仅是为了适应技术浪潮,更是为了填补400万人才缺口,成为高薪“AI+”岗位的抢手人才。教育的目标已转变为培养驾驭AI的思考者,而不仅仅局限于竞争者角色。
233 1
|
9月前
|
人工智能 定位技术
挑战杯丨2025年度中国青年科技创新“揭榜挂帅”擂台赛阿里云榜题发布!用AI助力乡村振兴丨云工开物
第十九届“挑战杯”竞赛2025年度中国青年科技创新“揭榜挂帅”擂台赛,由阿里巴巴公益、阿里云等主办。赛事以AI技术助力乡村振兴为主题,鼓励高校师生设计长虹乡特色文创产品、农特产品包装等。作品需紧扣开化特色。评选标准涵盖创意、文化呈现和技术应用等方面。比赛设擂主奖及多项奖项。报名截止至2025年6月30日,作品提交截止至8月15日。
|
10月前
|
机器学习/深度学习 人工智能 自然语言处理
科技巨头加倍押注生成式 AI
谷歌母公司 Alphabet 计划 2023 年投入约 750 亿美元用于资本支出,主要用于数据中心扩建、芯片与服务器采购,支持核心业务及 AI 服务发展。CEO 皮查伊强调,此举将提升搜索等领域的竞争力,并推动 Gemini 等生成式 AI 模型进步。尽管经济形势不明朗,谷歌仍对 AI 领域充满信心,认为其投资将惠及消费者与企业客户。同时,微软与 Meta 等巨头也在加大 AI 基础设施投入,竞争激烈。普通人可从学习 AI 技能、结合自身领域、利用工具提效等方面抓住 AI 时代的机遇。相关学习资源包括《跟老卫学 AI 大模型开发》教程及 HarmonyOS NEXT+AI 课程。
242 1
科技巨头加倍押注生成式 AI
|
11月前
|
机器学习/深度学习 人工智能 算法
从春招“AI热潮”看科技变革中的就业新趋势
随着2025年春招市场的火热,人工智能(AI)相关岗位成为求职焦点。AI技术的快速发展不仅催生了大量新兴职业,还推动了就业市场的转型。从传统岗位的自动化替代到新职业的涌现,AI正深刻改变着职业结构与就业形态。面对这一变革,求职者需主动学习AI技能、培养跨界能力并关注新兴领域。生成式人工智能认证(GAI认证)更成为提升竞争力的关键。同时,企业应加大AI技术研发投入,构建人才生态,推动技术与业务深度融合,共同开创人机协作的新未来。
|
4月前
|
消息中间件 人工智能 安全
云原生进化论:加速构建 AI 应用
本文将和大家分享过去一年在支持企业构建 AI 应用过程的一些实践和思考。
1201 53
|
5月前
|
人工智能 安全 中间件
阿里云 AI 中间件重磅发布,打通 AI 应用落地“最后一公里”
9 月 26 日,2025 云栖大会 AI 中间件:AI 时代的中间件技术演进与创新实践论坛上,阿里云智能集团资深技术专家林清山发表主题演讲《未来已来:下一代 AI 中间件重磅发布,解锁 AI 应用架构新范式》,重磅发布阿里云 AI 中间件,提供面向分布式多 Agent 架构的基座,包括:AgentScope-Java(兼容 Spring AI Alibaba 生态),AI MQ(基于Apache RocketMQ 的 AI 能力升级),AI 网关 Higress,AI 注册与配置中心 Nacos,以及覆盖模型与算力的 AI 可观测体系。
1221 61
|
4月前
|
人工智能 运维 Kubernetes
Serverless 应用引擎 SAE:为传统应用托底,为 AI 创新加速
在容器技术持续演进与 AI 全面爆发的当下,企业既要稳健托管传统业务,又要高效落地 AI 创新,如何在复杂的基础设施与频繁的版本变化中保持敏捷、稳定与低成本,成了所有技术团队的共同挑战。阿里云 Serverless 应用引擎(SAE)正是为应对这一时代挑战而生的破局者,SAE 以“免运维、强稳定、极致降本”为核心,通过一站式的应用级托管能力,同时支撑传统应用与 AI 应用,让企业把更多精力投入到业务创新。
632 30