从“人工智障”到“人工智能”,Siri开始说人话了!-阿里云开发者社区

开发者社区> 人工智能观察> 正文

从“人工智障”到“人工智能”,Siri开始说人话了!

简介: 新一届苹果WWDC19全球开发者大会上,Siri的智能化进一步得到提升,交流起来更像真人,功能也更加全面,用户体验不断提升。

image.png

智造观点

新一届苹果WWDC19全球开发者大会上,Siri的智能化进一步得到提升,交流起来更像真人,功能也更加全面,用户体验不断提升。

美国太平洋时间6月3日上午10点,一年一度的苹果WWDC19全球开发者大会在美国San Jose 市中心的 McEnery Convention Center举办,苹果更新了自家系统平台macOS、iOS、watchOS、tvOS以及今年刚刚加入的iPadOS。除了常规的软件升级之外,苹果还在AI方面做了升级,其中大家常常调侃的Siri也发生了一些变化。

image.png

事实上,自2017年起,Siri的更新更加丰富,加入了实时翻译功能,支持英语、法语、德语等语言,与此同时,Siri的智能化还进一步得到提升,支持上下文的预测功能。

而本次升级后,Siri将拥有更自然、更像人类的声音。一直以来,Siri的可用性就饱受诟病,常常被吐槽为“人工智障”,从今年的WWDC来看,苹果希望摆脱智障的帽子,起码让Siri交流起来更像真人了。

具体来讲,随着深度学习技术的不断成熟,基于深度神经网络的语音合成逐渐成为语音合成领域的主流方法,在iOS 13中苹果就采用了Neural TTS (神经网络语音合成),AI合成语音足以以假乱真

image.png

升级后Siri的功能也会趋近于完善。它可以在Shortcutsapp中帮助用户进行自定义语音命令,使用Airpod快速回复短信,以及在HomePod中识别不同用户的语音,为不同用户提供不同服务。

另外,在苹果更新了的CarPlay中,Siri还将与第三方导航和音乐应用兼容。苹果表示,他们将推出完全免提的"Hey Siri"支持功能,这项功能将使用汽车内置麦克风。

image.png

Siri的功能与亚马逊Alexa、Google助手很相似,它们都可以通过识别不同用户的语音,为不同用户提供个性化的服务。相对而言,苹果更人性化的一点在于,最新版本的MacOS中,可以直接语音控制Siri,使无法使用手的人可以访问操作系统。

image.png

所谓的Shortcuts是为Siri和iOS应用程序创建自定义语音命令的一种方式,去年在WWDC的测试版上首次推出,当时也引入了Siri对开发者推荐语音操作的建议。

自去年秋天iOS12发布后,Shortcuts就已经被用来跟踪耐克跑步俱乐部应用程序的跑步,获取当天韦氏词典的消息,记录一天的日程,甚至说“Hey Siri, OK Google”来与谷歌助手iOS应用程序互动。

image.png

目前,SiriShortcuts与Alexa、Google助手呈现竞争状态,后两者是定制命令和同时执行多个动作的其他方式。今年早些时候,三星AI助手Bixby也已经推出。

来源:微信公众号 人工智能观察

版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

分享:
人工智能观察
使用钉钉扫一扫加入圈子
+ 订阅

官网链接