犀利发问阿里达摩院:过去三年做的预测真实进展如何?

简介: 2021 年开年,达摩院公布了新一年的技术趋势预测,这也是达摩院成立以来的第三份预测报告,InfoQ 的很多读者留言表示想知道前两年预测的实现情况如何。本文,InfoQ 就过去三年技术预测中比较有代表性的变化对达摩院进行了独家专访。

达摩院看三年技术变迁

阿里巴巴达摩院成立于 2017 年 10 月,达摩院的使命是探索科技未知,以人类愿景为驱动力,开展基础科学和颠覆式技术创新研究。目前,达摩院专注机器智能、数据计算、机器人、金融科技和 X 等研究方向,也即“4+X”研究领域,现设 14 个实验室:

3c6aae6bbf7a4784f89523e33479e613.png

成立 3 年来,达摩院招募了 10 位 IEEE Fellow 级别大牛,30 多位知名大学教授。自 2019 年开始,阿里达摩院基于自身研究及实践,与学术界和工业界的顶级脑力协作,最终输出对科技趋势的预判。趋势方向的选择综合考量了技术成熟度、产业前景和社会价值等维度。

在接受 InfoQ 采访时,阿里巴巴达摩院高级专家朱迅垚表示,过去三年的技术变迁归根结底包括两个维度:基础技术创新和产业应用突破。例如,在技术上,材料科学、量子技术在过去几年都有突破性的进展,这些突破性成果也不再局限于实验室阶段;此外,AI、5G 以及云计算等技术在过去几年都已经逐步成熟,这些技术不再是孤立的存在,它们正在相互融合产生新的化学反应,为制造业、农业以及物流等领域提供创新解决方案,但传统产业的数字化转型依旧处于起步阶段,因此未来几年前沿科学与传统产业的结合会进一步爆发。

那么,达摩院这三年榜上有名的技术趋势如今进展如何?

375776795badef0ed2f76d41f843f3d9.jpeg

连续两年榜上有名,量子计算离普罗大众还有多远?

InfoQ:2020 年,达摩院在预测中表示量子计算进入攻坚期,2021 年则表示量子纠错和实用优势成为核心命题,我们可以理解为量子计算的攻坚期已经半年,2021 年有希望看到实用价值吗?

阿里达摩院量子实验室负责人施尧耘: 量子计算的攻坚期将会是一个充满挑战的漫长的过程。不可置疑的实用优势如果能在未来几年实现,那将会是一个出乎意料的惊喜。

通过纠错的体系结构达到实用优势非常有挑战。目前公开的结果中,2 比特门平均保真度超过 99.9% 都没做到,而超高精度的系统需要的比特数更多。不少研究者希望绕过纠错,以较好精度和一定规模(比如百级比特)的系统来实现实用优势。比如,2021 我们至少会看到更多的论文,用不经纠错的量子芯片模拟量子物理。虽然这样的工作对纠错的体系结构不一定有直接的帮助,但也将鼓舞人心。

阿里达摩院量子实验室聚焦量子硬件的实现,比如纠错的大规模通用量子计算的硬件实现。量子计算是个长跑,需要有打持久战的战略定力。

InfoQ:过去一年,我们也看到了一些大厂发布的量子机器学习工具,除了当下掀起了一波“遇事不绝,量子力学”的讨论,并没有对普通开发者的工作带来什么实质性的变化,这种情况下,我们还应该继续相信量子计算吗?

施尧耘: 机器学习的成功有赖于海量的数据和强大的算力。量子计算机的硬件目前还处于非常原始的水平,所以量子机器学习目前也还属于基础研究阶段。

探索未来技术不仅需要有投资未来的视野,更需要好奇心。量子计算的“玩家”属于小众并不奇怪。这份好奇,在探索的过程本身就可以得到满足。对于“量子优越性”,当前也有很多成果可提供证明。

“玩”量子计算的门槛正在急速降低。越来越多科学家和工程师贡献于开源项目,这些开源项目打造了越来越复杂和强大的技术基础,更有力地推动着整个领域的发展。吸引和帮助更多工程师和研究人员探索前沿、推动整个领域的进步,这是我们作为基础研究团队的一个工作目标,也是达摩院社会责任的一部分。量子实验室不久前开源了阿里云量子开发平台,未来也会有更多的开源项目。我们的硬件实验室也计划以多种方式帮助学术界研究超导量子芯片。具体而言,我们的超导量子比特基于“fluxonium”,原理上我们认为比主流的”transmon”更优越,更有可能达到超高精度。我们已经在无人区中前进了一年多,期待有更多的学术同仁一起努力,探索这个非常有潜力的新路线。

冷静了两年的自动驾驶发展如何?

在 2019 年的技术趋势预测中,达摩院预言自动驾驶将进入冷静发展期:单纯依靠“单车智能”的方式革新汽车,在很长一段时间内无法实现终极的无人驾驶,但并不意味着自动驾驶完全进入寒冬。车路协同技术路线,会加快无人驾驶的到来。在未来 2-3 年内,以物流、运输等限定场景为代表的自动驾驶商业化应用会迎来新的进展,例如固定线路公交、无人配送、园区微循环等商用场景将快速落地。

2020 年,疫情给了这个领域很好的推动力,真正加速了自动驾驶的部署。曾有自动驾驶领域的企业对 InfoQ 表示:从订单数量来看,3 月份之后就开始快速增长,保守估计 2020 年相比 2019 年至少有几倍的提升,尤其是在物流、运输等场景。这一点基本与达摩院 2019 年给出的预测相吻合。

InfoQ:然而,在随后两年的预测中再也没有出现自动驾驶的身影,达摩院对这一技术的判断是什么样的呢?

达摩院自动驾驶实验室资深算法专家陈俊波: 目前,L4 级别限定场景的无人驾驶,例如末端物流等场景,加速进入大规模商业化阶段。L2 级乘用车辅助驾驶进入蓬勃发展时期,成为汽车行业的标配。L4 级别乘用车仍然会持续较长时间的技术积累演进的过程,随着人工智能算法、传感器、计算平台、线控底盘等技术的发展,有望在 5-10 年左右逐步迎来商业落地阶段,全方位提升人们的出行,物流等各个领域的智能性,便捷性。

2020 年的 AI+ 医疗成果已然颇丰,这还算趋势吗?

2020 年,我们隔三差五就可以看到 AI+ 医疗的新闻,由于新冠肺炎的爆发,AI 第一次大规模参与到公共卫生事件中。疫情期间,AI 算法及相关算力已在疫情咨询、病毒基因分析、CT 影像诊断等多个环节发挥了重要作用,大幅提升了一线工作人员的效率。

InfoQ:我们感受到 AI+ 医疗在 2020 年已经成为趋势,达摩院将其放在 2021 年的趋势预测中是如何考虑的?

达摩院资深算法专家迟颖: 在医疗领域,药物研发和 AI 的结合本身就是公认的趋势,但是其实过去几年,在国内,整个行业在这一领域仍处于初级阶段,只有个别厂商出现了成功商用的案例。我们认为未来几年,新型 AI 算法的迭代及算力突破将更精准的、更高效地解决药物分子靶点确证、化合物合成等临床前的新药分析和筛选。复杂的成药性评估 /ADMET、药物制剂(体内输送方式)等难题也会进行得更加深入、细致。在疫苗研发过程中,标准化的新抗原寻找算法可以更加轻松地预防病毒 / 肿瘤等。AI 可自动输入有效化合物模型,然后与电脑合成产生的数亿种不同的化学化合物对比筛选,最终快速找到疫苗的优质候选化合物。

过去一年,业界有不少机构对外宣称 AI 技术在提升药物及疫苗研发效率方面的尝试,但由于技术上的瓶颈,过去的研究成果仍无法实现大规模应用。我们认为,从目前的发展趋势来看,AI 算法上新的突破必定和云端大算力融合,进一步产生普适性的方案,从而帮助药物及疫苗研发的降本提效。技术将在相对经典一些的新靶点发现、化合物合成、大分子间 / 蛋白间作用力、在 Alpha Fold2 基础上更进一步的蛋白结构和折叠的模拟计算,以及更加新颖一些的单细胞基因用于精准用药和疗效评估、新抗原的寻找和流程标准化用于疫苗设计等方面都会比较有希望突破。

细分 AI 技术不再出现,这意味着技术本身进入成熟期了?

在 2019 年的趋势预测中,我们还可以看到 AI 领域一些细分技术的身影,比如语音 AI 技术在特定领域通过图灵测试、超大规模图神经网络系统将赋予机器常识。在随后两年的预测中,我们开始看到 AI 技术推动工业领域、农业领域以及智慧城市等的发展。

InfoQ:这是否意味着 AI 技术本身已经走向成熟,未来值得期待的就是在各行各业的落地?

达摩院高级专家朱迅垚:AI 的发展经历了三次高潮,最近的一次高潮就源自是 2010 年深度学习的崛起。过去十年,深度学习在语音、图像等领域都取得了较好的效果,这为 AI 的应用落地提供了重要基础。与此同时,云计算的成熟为各行业数字化转型提供了绝佳条件。例如,在智慧城市领域,云平台可以汇聚城市感知数据、商业数据等多维数据,而 AI 算法可基于不同维度的数据进行辅助分析,并为决策者提供建议,进而实现城市的精细化治理。

5G 尚在建设中,工业智能的发展会如期吗?

工业智能是实现工业互联网数据优化闭环的关键。在全面感知、泛在连接、深度集成和高 效处理的基础上,工业智能基于计算与算法,将以人为主的决策和反馈转变为基于机器或系统自主建模、决策、反馈的模式,为工业互联网实现精准决策和动态优化提供更大的可能性。

连续两年,工业互联网出现在达摩院的趋势预测中。2020 年,达摩院预测 5G、IoT 设备、云计算、边缘计算的迅速发展将推动工业互联网的超融合,实现工控系统、通信系统和信息化系统的智能化融合;2021 年,达摩院预测工业互联网将从单点智能走向全局智能。

InfoQ:5G 尚未建设完全,是否影响工业互联网全局智能时代的到来?

阿里云智能数字产业总经理曾震宇: 工业智能从单点智能走向全局智能,关键点和困难是工业数据的打通,不仅仅是生产领域的设备类数据、生产线、IoT 设备、工业软件(MES、APC、PLM 等)等数据,还包括采购、供应链、销售、物流等数据,形成工业企业的供、研、产、销全链路数据,在这个基础之上,全局智能才成为可能,可以做大业务闭环上的全局优化。工业是 5G 的一个重要使用场景,会让工业设备实时在线,工业数据可以实时入云。5G 在 C 端的使用状况并不会影响在工业领域的使用,因为两个场景是非常不一样的。

应用较少且争议不断,谈脑机接口是否为时尚早?

人类对于脑机接口的探索已经持续了多年。20 世纪 90 年代中期以来,从实验中获得的此类知识呈显著增长。在多年来动物实验的实践基础上,应用于人体的早期植入设备被设计及制造出来,用于恢复损伤的听觉、视觉和肢体运动能力,这包括侵入式和非侵入式两种方式。

有人认为,相比于目前 AI 时代尚未成熟的语音交互,脑机接口或许会成为下一代主流交互方式。不过,相信并非所有人都接受:为了更好的交互体验而在脑袋上植入一块芯片的操作,因此该技术一直伴随着伦理问题的争议。

InfoQ:在 2021 年的趋势预测中,达摩院提到脑机接口将帮助人类超越生物学极限,现在谈此是否为时尚早?

A: 脑机接口技术并不是一个新概念,这项技术经过几十年的研究发展(接口分植入式和非植入式),已经逐渐从学术界渗透到创业圈。虽然离实用化还有很长的路要走,但毫无疑问,人类朝着大脑与机器融合的伟大目标,向前踏出了一大步。过去一年,业界已有机构公开了相关技术突破,未来几年,脑机接口的技术会进一步成熟,同时我们也将看到越来越多的应用案例。尽管脑机接口技术存在伦理方面的争议,但人类和机器建立智能交互已是大势所趋。因此,所有科技从业者需要思考的是,如何保障这样的科技进程安全地向着利于人类自身的方向发展。

延展阅读:

《阿里达摩院预测 2021 年十大科技趋势》
《达摩院宣布十大技术趋势,AI 有望迈过两大关键门槛》
《阿里巴巴达摩院公布 2019 十大科技趋势,条条精彩!》

目录
相关文章
|
7月前
|
人工智能 自动驾驶 安全
破壁人AI百度:科技公司反内卷的典型样本
破壁人AI百度:科技公司反内卷的典型样本
|
7月前
|
机器学习/深度学习 人工智能 自然语言处理
四张图片道清AI大模型的发展史(1943-2023)
现在最火的莫过于GPT了,也就是大规模语言模型(LLM)。“LLM” 是 “Large Language Model”(大语言模型)的简称,通常用来指代具有巨大规模参数和复杂架构的自然语言处理模型,例如像 GPT-3(Generative Pre-trained Transformer 3)这样的模型。这些模型在处理文本和语言任务方面表现出色,但其庞大的参数量和计算需求使得它们被称为大模型。当然也有一些自动生成图片的模型,但是影响力就不如GPT这么大了。
2941 0
|
7月前
|
编解码 自然语言处理
重磅!阿里巴巴开源最大参数规模大模型——高达720亿参数规模的Qwen-72B发布!还有一个的18亿参数的Qwen-1.8B
阿里巴巴开源了720亿参数规模的Qwen-72B大语言模型,是目前国内最大参数规模的开源模型。该模型在3万亿tokens数据上训练,支持多种语言和代码、数学等数据。Qwen-72B模型具有出色的评估效果,在数学逻辑和意图理解等方面超过了其他开源模型,并且支持多语言扩展。此外,阿里巴巴还开源了18亿参数规模的Qwen-1.8B模型,虽然规模较小但效果不错。Qwen-72B模型已对学术和个人完全开放,商用情况下月活低于100万可直接商用。有兴趣的用户可以通过相关链接获取模型地址和资源信息。
|
存储 数据采集 运维
阿里巴巴DevOps实践指南(二十四)| 智能运维
智能运维( AIOps )是依托于阿里巴巴 DevOps 经验沉淀而来的智能化运维平台,通过运维大数据的积累,以及算法团队多种算法的校对,我们将运维提升到新的高度,通过 AI 来帮我们查看数据、判断异常、决策运维操作,形成监、管、控一体化的运维平台。
阿里巴巴DevOps实践指南(二十四)| 智能运维
|
存储 机器学习/深度学习 人工智能
本地部署开源大模型的完整教程:LangChain + Streamlit+ Llama
在过去的几个月里,大型语言模型(llm)获得了极大的关注,这些模型创造了令人兴奋的前景,特别是对于从事聊天机器人、个人助理和内容创作的开发人员。
8692 1
|
机器学习/深度学习 资源调度 自然语言处理
长短时记忆网络(LSTM)完整实战:从理论到PyTorch实战演示
长短时记忆网络(LSTM)完整实战:从理论到PyTorch实战演示
8211 0
|
安全 Linux 网络安全
【工具使用】几款优秀的SSH连接客户端软件工具推荐FinalShell、Xshell、MobaXterm、OpenSSH、PUTTY、Terminus、mRemoteNG、Terminals等
【工具使用】几款优秀的SSH连接客户端软件工具推荐FinalShell、Xshell、MobaXterm、OpenSSH、PUTTY、Terminus、mRemoteNG、Terminals等
54437 0
|
7月前
|
机器学习/深度学习 数据采集 数据可视化
【Python 机器学习专栏】数据缺失值处理与插补方法
【4月更文挑战第30天】本文探讨了Python中处理数据缺失值的方法。缺失值影响数据分析和模型训练,可能导致模型偏差、准确性降低和干扰分析。检测缺失值可使用Pandas的`isnull()`和`notnull()`,或通过可视化。处理方法包括删除含缺失值的行/列及填充:固定值、均值/中位数、众数或最近邻。Scikit-learn提供了SimpleImputer和IterativeImputer类进行插补。选择方法要考虑数据特点、缺失值比例和模型需求。注意过度插补和验证评估。处理缺失值是提升数据质量和模型准确性关键步骤。
678 0
|
7月前
|
人工智能
【教育革新】阿里“通义听悟”:高校师生的智能助手,免费赠送500小时转写时长!
阿里云启动“通义听悟高校公益计划”,向中国大陆高校师生提供免费的智能学习工具。拥有edu.cn邮箱的师生可获500小时音视频转写时长及200G存储空间,借助AI提高学习与科研效率。该产品已吸引上百万用户,日处理字符数达20亿字,成为师生的智能助手,助力教育信息化发展。
155 5
|
机器学习/深度学习 传感器 编解码
万字长文 | 多目标跟踪最新综述(基于Transformer/图模型/检测和关联/孪生网络)(上)
随着自动驾驶技术的发展,多目标跟踪已成为计算机视觉领域研究的热点问题之一。MOT 是一项关键的视觉任务,可以解决不同的问题,例如拥挤场景中的遮挡、相似外观、小目标检测困难、ID切换等。为了应对这些挑战,研究人员尝试利用transformer的注意力机制、利用图卷积神经网络获得轨迹的相关性、不同帧中目标与siamese网络的外观相似性,还尝试了基于简单 IOU 匹配的 CNN 网络、运动预测的 LSTM。为了把这些分散的技术综合起来,作者研究了过去三年中的一百多篇论文,试图提取出近年来研究者们更加关注的解决 MOT 问题的技术。
万字长文 | 多目标跟踪最新综述(基于Transformer/图模型/检测和关联/孪生网络)(上)