扎克伯格的尴尬与 AI 的真实进展

简介:

近来扎克伯格向记者公开演示了他 2016 年的作品,一个类似 Jarvis 的人工智能助手,从记者的描述来看,这人工智能助手大部分时候还比较不错,但在语音交互环节则不太理想,对此腾讯科技做了如下报道:


扎克伯格还建立了响应语音指令的系统,并通过定制iOS应用控制。但这部分展示不太理想,他重复了四次指令才让系统弄明白:天黑前不要开灯。扎克伯格略显尴尬地说:“喔,这应该是它最失败的表现了!”。不过,Jarvis播放音乐的展示还算成功。扎克伯格下令:“给我们放段音乐吧!”几秒钟后,大卫·库塔(David Guetta)的《Would I Lie to You》 开始通过客厅扬声器响起来。他说了两次“把音量调高”后,系统照做无误。最后,他同样说了两次才让系统停止播放。


这非常有意思,因为从新闻来看“天黑前不要开灯”和“把音量调高”的失误显然都不是命令理解(语义)上有问题,否则你说八百遍 Jarvis 该不好使还是不好使。如果不是语义的问题,那显然就会和各大公司所宣称的已经被解决的问题——语音识别有关。


标准环境解决≠真实效果好


关于语音识别的精度今年官方的报道一般是这样的:


11月21日到23日,搜狗、百度和科大讯飞三家公司接连召开了三场发布会向外界展示了自己在语音识别和机器翻译等方面的最新进展。值得注意的是,这三家公司几乎在同一时段宣布了各自中文语音识别准确率达到了97%。


类似的报道也会发生在微软等的身上,我们假设Facebook做的不是太差,水平也与此类似达到97%的准确率。97%的具体含义是100个单词上只有3个错误(删除、被替换、被插入),那么问题就来了,如果真实环境里真的达到了这个精度,那么小扎的演示绝对不应该是上面这个样子。


那问题出在那里?


关键问题并不复杂,扎克伯格用手机当做家庭里的终端,这样距离稍微一远,环境稍微嘈杂一点,那再好的手机也没办法帮Jarvis听清楚你在说什么。手机本身是设计给近场用的,手机上的语音识别基本也是给近场优化过的,怎么也不能弥补远场上带来的不适应。


扎克伯格对此非常坦诚,他在博客这么写道:


In the case of Jarvis, training an AI that you'll talk to at close range is also different from training a system you'll talk to from all the way across the room, like Echo. These systems are more specialized than it appears, and that implies we are further off from having general systems than it might seem.(原文:

https://www.facebook.com/notes/mark-zuckerberg/building-jarvis/10154361492931634/)


上面这段英文简单来讲就是,语音识别更多时候是专门场景下好用,想做一个万能的版本仍然还很遥远。语音识别只能做限定场景的最佳。


但事实上扎克伯格仍然只认识到了部分问题,因为单纯靠改善语音识别比如做一个匹配远场的版本也还是解决不了他遇到的问题(上面说的重复指示几次系统才起作用问题)。我们可以注意到开始播放音乐之后,报道中提到的两条命令都需要重复两次,这很可能是音乐自身对语音识别形成了干扰,这种情形下单纯的优化语音识别(不管远场还是近场)是解决不了问题的。


扎克伯格接下来的路


如果扎克伯格不放弃这事,而是持续对此进行改善,那下面会发生什么?他可能会掉到坑里面。他用了150小时做到上面那程度,但很可能再花1500小时,效果并没有实质性改善。


整个语音交互事实上依赖于三层:声学的信号处理(麦克风阵列+声学算法),语音识别(SR),自然语言理解(NLU)。扎克伯格演示时的问题核心原因不在于自然语言理解(语义),而在于声学与语音识别。声学和语音识别的关系可以大致类比成耳朵和大脑,如果声学部分的信号很差,那相当于耳朵不好使,基本语音识别的算法再怎么好也不可能把命令是什么弄清楚。


扎克伯格如果要优化效果,那么基本方法有下面几类:


一种可能是扎克伯格觉得真实场景下的信号优化(声学、硬件等)也没什么,找几个人做做就完了,如果这么想 Facebook 可能会自己组建个硬件、声学团队来做Echo Dot那样的终端。但这么做很可能短期就不会有下次演示了。因为让语音识别匹配前端声学信号是容易的,但反过来让牵涉硬件和物理的声学来适应语音识别则基本会做挂。而在互联网公司里通常后端偏算法的势力会大,所以很容易走到前面那条路上去(这事情国内至少做挂了两拨人了)。国内的大公司很容易走上这条路,但从分工习惯来看,国外公司更愿意在技术栈上卡住特定位置,非自己核心的部分会更愿意开放给其它人,所以扎克伯格这么干的可能性不高,除非他觉得自己也得搞Amazon Echo那种产品了。


一种可能是扎克伯格和深度学习科学家思路一致,认为所有东西都可以通过深度学习在云端算法层面来解决。这种思路下,就会通过深度学习来做降噪等信号层面的工作,用算法挑战各种物理层面的问题。如果走上这条路,那估计短期也不会有下次演示了,因为他碰到的问题并非单纯的降噪问题,回声抵消、Beamforming、降噪、声源定向这些东西是关联在一起的,指望深度学习短期突破这些问题更像科研上的一种设想而非工程上的一种实践。“设想”是说可以成为一种探索的思路,但结果完全没谱,高度不确定,相当于把不确定性引入产品开发之中。


一种可能是扎克伯格走下一步的时候想的很清楚,知道自己这类公司的能力边界,因此把这部分开放出去,让专业的人做专业的事。物理的事情归物理,算法的事情归算法,这样的话就会满世界找声学和远场语音识别供货商,但这反倒是最快的一种方式。


不知道扎克伯格具体会走那条路,如果是最后一种,我们声智科技这样的公司应该会很快收到消息。


打破原子与比特的边界


扎克伯格这件事情事实上也提供了一个跳出来看AI的机会。


下图是 Jarvis 的系统架构图:




一般来讲,从产品体验上可以看出技术水平,从架构图则可以看出来认知上的差异。


根据上图,显然在扎克伯格这里 Jarvis 被理解成了一个命令控制型的系统,但感知这环节被忽略了,尽管扎克伯格自己在文章里也提到感知上下文是非常关键的一个环节(Understanding context is important for any AI)。


这种理解在互联网企业那里很可能非常有代表性,但问题就在于感知恰恰是打造一个初级的Jarvis这样的系统时最难的环节。因为感知总是要打穿原子和比特的边界。Language Processing、Speech Recognition、Face Recognition 总是立刻可用的,只受限于算法的发展程度和数据,但感知部分不是这样,不单要算法行,器件、生产都要行才能有好的结果。比如说麦克风阵列,你算法再好但MEMS麦克风不给力,那你一样抓瞎。如果要说的短板的话,在深度学习突破后,感知这一环节才是真的短板。


这就涉及到这次AI突破的一个深层次问题:这次的AI起于深度学习的突破,但真要想创造价值并不能停步在深度学习本身。关键原因就在于其AI创造价值的链条比较长,必须打破软硬的边界,补全整个链条,价值才会体现出来。几乎我们所有能想到的大机会都是这样,语音交互(需要打穿声学和识别边界),自动驾驶(打穿计算机视觉、雷达、机械控制的边界)等。这部分难度通常是被忽略了,似乎是有几个深度学习专家问题就可以搞定一切问题。后者不是不行,但要限定在特定类别的事情上,比如图普科技做的鉴黄等。正是同时做好软硬这部分在拉长投资-回报的周期。投资和创业如果对此没有自己的判断,那准备的耐心可能就不够。


小结


近来和AI各方面的人(创业者、投资人、科学家、媒体)接触下来,发现大家基本都在思考这样两个问题:


第一,本次AI浪潮会不会和前两次一样很快冷下来?

第二,落地点到底在那里,究竟还要多久?


对于第一个问题到现在为止还没碰到任何一个人认为这次AI浪潮会冷到前两次那样。对于第二个问题,大的落地点上大家基本也已经达成了共识(语音交互、AR、自动驾驶等),争议最大的就是启动期究竟还要持续多久这一点。从两个维度来判断,这个时间更可能是在3年左右,一是产品经过两个周期的优化会更加成熟;一个是计算能力、基础设施到那个时候也会变的足够强大和便利(过去三年Training速度提高了60倍,比摩尔定律还快。Intel则正在推出集成度更高的服务器)。


文章转自新智元公众号,原文链接

相关实践学习
达摩院智能语音交互 - 声纹识别技术
声纹识别是基于每个发音人的发音器官构造不同,识别当前发音人的身份。按照任务具体分为两种: 声纹辨认:从说话人集合中判别出测试语音所属的说话人,为多选一的问题 声纹确认:判断测试语音是否由目标说话人所说,是二选一的问题(是或者不是) 按照应用具体分为两种: 文本相关:要求使用者重复指定的话语,通常包含与训练信息相同的文本(精度较高,适合当前应用模式) 文本无关:对使用者发音内容和语言没有要求,受信道环境影响比较大,精度不高 本课程主要介绍声纹识别的原型技术、系统架构及应用案例等。 讲师介绍: 郑斯奇,达摩院算法专家,毕业于美国哈佛大学,研究方向包括声纹识别、性别、年龄、语种识别等。致力于推动端侧声纹与个性化技术的研究和大规模应用。
相关文章
|
5月前
|
人工智能 Kubernetes Serverless
容器计算服务问题之阿里云在Serverless和AI大模型方面有哪些进展
容器计算服务问题之阿里云在Serverless和AI大模型方面有哪些进展
|
5月前
|
机器学习/深度学习 人工智能 自然语言处理
未来智能交互:AI技术的进展与应用展望
随着人工智能(AI)技术的迅猛发展,智能交互系统正逐步成为日常生活和工作中不可或缺的一部分。本文探讨了AI技术在智能交互领域的最新进展,以及未来可能的应用前景,涵盖了语音识别、自然语言处理和智能助理等关键技术的演进与应用案例。 【7月更文挑战第3天】
473 0
|
7月前
|
人工智能 Cloud Native 算法
数据之势丨AI时代,云原生数据库的最新发展趋势与进展
AI与云数据库的深度结合是数据库发展的必然趋势,基于AI能力的加持,云数据库未来可以实现更快速的查询和决策,帮助企业更好地利用海量数据进行业务创新和决策优化。
数据之势丨AI时代,云原生数据库的最新发展趋势与进展
|
7月前
|
人工智能 安全 芯片
AI日报:扎克伯格瞄准AGI通用人工智能
AI日报:扎克伯格瞄准AGI通用人工智能
|
7月前
|
机器学习/深度学习 数据采集 人工智能
2024年AI辅助研发:技术进展与行业应用展望
2024年AI辅助研发:技术进展与行业应用展望
569 0
|
机器学习/深度学习 人工智能 自然语言处理
ChatGPT 和对话式 AI 的未来:2023 年的进展和应用
人工智能(Artificial Intelligence)在过去一段时间以来以前所未有的速度快速发展。从自动化日常任务到重要提醒的设定,AI以各种方式渗透到我们的生活中。然而,在这个领域中迈出的最重要一步是ChatGPT。 ChatGPT被瑞银(UBS)评为“有史以来增长最快的消费者应用程序”,于2022年11月30日正式推出。仅在推出的两个月内,它就成功吸引了超过1亿用户,为对话式人工智能领域创造了奇迹。 对话式人工智能是一种创新技术,能够成功地模拟人类对话。因此,在客户服务、潜在客户生成以及其他与业务相关的任务中,它找到了广泛的应用。
300 0
|
机器学习/深度学习 设计模式 人工智能
清华大学周伯文教授:从原则到实践解读多模态人工智能进展与可信赖AI
清华大学周伯文教授:从原则到实践解读多模态人工智能进展与可信赖AI
131 0
|
人工智能
《AI医健中台技术进展及生态发展》电子版地址
AI医健中台技术进展及生态发展.ppt
112 0
《AI医健中台技术进展及生态发展》电子版地址
|
人工智能 达摩院 自然语言处理
AI医健中台技术进展及生态发展
本篇内容分享了AI医健中台技术进展及生态发展。
571 0
AI医健中台技术进展及生态发展
|
机器学习/深度学习 人工智能 自然语言处理
AI公开课:18.05.16 周明博士(MSRA副院长)—北大AI第十一讲之《语言智能的进展》课堂笔记——你了解语言智能
周明博士,微软亚洲研究院副院长、国际计算语言学协会(ACL)候任主席、中国计算机学会理事、中文信息技术专委会主任、中国中文信息学会常务理事、哈尔滨工业大学、天津大学、南开大学、北航等多所学校博士导师。周明博士1991年获哈尔滨工业大学博士学位。1991-1993年清华大学博士后,随后留校任副教授。1996-1999访问日本高电社公司领导中日机器翻译研究。他是中国第一个中英翻译系统CEMT-I(哈工大1989年)、日本最有名的中日机器翻译产品J-北京(日本高电社1998年)的研制者。1999年,周明博士加入微软亚洲研究院,不久开始负责自然语言研究组。他带领团队进行了微软输入法、英库词典(必应词典