--------点击屏幕右侧或者屏幕底部“+订阅”,关注我,随时分享机器智能最新行业动态及技术干货----------
数字经济时代的人工智能发展现状
上海临港的一片原生态海滩已经成为上海观赏日出日落的“网红”地标,但在欣赏日出日落的时候,一些来这里“打卡”的游客会发现,有时头顶会出现无人机,播放劝说游客远离海滩的提醒:无人机会根据每天的潮汐时刻表,提前 20 分钟“出勤”,沿着海岸线在 30 米高的半空中巡检飞行,提醒游客不要停留在即将涨潮的海滩上。
更厉害的是,基于机器视觉,无人机能识别滞留游客,在其头顶绕飞并实时喊话,紧急情况下直接报警请求进一步干预,直到消除安全隐患,无人机才会飞离。
如今,临港地区的无人机能实现 5 分钟内出勤、每天飞行 100 公里以上的“工作量”,要比人力巡检高效得多。除了高效,人工智能还助力城市精细化管理“防范于未然”。在临港,从“主动发现”到“智能派单”再到“处理完毕”的闭环案例已有不少。
不止是在上海临港,在全球范围内,人工智能的应用已经非常普及。根据 Statista 预计,人工智能市场增速将保持年均 50.7% 的增速增长,到 2025 年,全球人工智能市场规撗将高达 369 亿美元,随若人工智能在图像(包括人脸)识别、语音识别、工业/制造业大脑、预测分析、自动化(包括自动驾驶)等方面的能力不断提升,数字经济时代的发展与人工智能应用的推进已经密不可分,零售业、医疗健康、金融行业、交通行业、教育行业、商业服务业、安全行业、农业等行业都将被人工智能深度渗透。
但对于整个人工智能产业来看,在行业领域的高度渗透性并非是全部,人工智能发展存在着其独特并持续动态变化的发展现状。
一、人工智能投资逐步降温
根据中国信息通信研究院数据研究中心在 2019 年 04 月发布的《全球人工智能产业数据报告》显示,2018 年第二季度依赖,全球人工智能领域投资热度逐渐下降,2019 年第一季度,全球融资规模 126 亿美元,环比下降 7.3%,融资笔数 310 笔,同比下降44.1%,其中,中国人工智能领域融资金额 30 亿美元,同比下降 55.8%。
与过去风险投资家正纷纷为那些在 PowerPoint 演示文件中植入“人工智能”这个神奇词汇的初创企业融资不同,人工智能投资正逐步降温。事实上,在解决实际复杂问题方面,人工智能的最新化身并不比 30 年前的先行者好很多。经过大量量身定制的系统能够在围棋、象棋或《危险边缘》等狭窄挑战中胜出。但是,要从人体显示出的复杂且矛盾的症状中诊断疾病,是它们现在还做不到的事情。
二、 人工智能企业盈利仍然困难
人工智能企业盈利仍然困难,以知名企业 DeepMind 为例,其 2018 年财报显示营业额为 1.028 亿英镑, 2017 年为 5442.3 万英镑,同比增长 88.9%,但DeepMind在 2018 年净亏损 4.7 亿英镑,较 2017 年的 3.02 亿英镑增加 1.68 亿英镑,亏损同比扩大 55.6%。
不单是 DeepMind,有报告显示,2018 年近 90% 的人工智能公司处于亏损状态,而 10% 赚钱的企业基本是技术提供商,换句话说,人工智能公司仍然未能形成商业化、场景化、整体化落地的能力,更多的只是销售自己的算法,比如,每一次刷脸支付时,获得很可能只有几分钱的“算法使用费用”。
三、 无监督学习正在突破通用智能
过去十年,机器学习在图像识别、自动驾驶汽车和围棋等领域取得了前所未有的进步。这些成功在很大程度上是靠监督学习和强化学习来实现的,这两种方法都要求由人设计训练信号并传递给计算机:
在监督学习的情况下,这些是“目标”(例如图像的正确标签);在强化学习的情况下,它们是成功行为的“奖励”(例如在 Atari 游戏中获得高分)。因此,强化学习也可以被认为是一种监督学习,这两者构成了当前机器学习的主要学习方式,也为机器学习构建了一个极限:人类训练师和数据量决定了机器学习的深度和精度。
很显然,机器学习如今遇到了瓶颈,无论是人类训练师还是数据量,都难以支撑机器学习更进一步地发展出高水平的人工智能,更不用提通用智能,人类和数据成为了通用智能发展的阻碍,无监督学习则是这一难题当前唯一的解决途径。
无监督学习就像是幼儿学习,不仅有指导(监督学习) 和鼓励(强化学习),还应该有自由探索世界的能力,不需要人为的干预,这就是无监督学习。这就是为什么,如果要让 AI 脱离人类发展出通用智能,必须要让它掌握无监督学习的技能。
无监督学习的收益是巨大的,加州大学伯克利分校(UC Berkeley)人工智能研究院(BAIR)所公布的一项研究成果显示,通过让机器人在无监督学习的情况下与环境交互,进而建立一个可预测因果关系的视觉模型,可以让机器人具备一种“通过模仿及互动模式来学会如何使用工具”的能力,在训练之后,机器人尽管遇到先前从没见过的工具,一样会知道如何使用。
这意味着未来机器人能够使用多个物体来完成复杂的多对象任务,甚至可以在新场景下使用即兴工具,从而构建起真正具有通用智能的机器人。
四、实时强化学习受到追捧
实时机器学习是一项前沿的人工智能研究项目,2017 年才由加州大学伯克利分校教授 Michael I. Jordan 等人给出较为清晰的实时机器学习解决方案,实时强化学习是其中的一个分支,实时强化学习能够为推荐、营销系统带来强大的技术升级,用户反馈分钟级回流回来,在线更新模型。
实时强化学习的应用领域非常广泛,比如说,新闻网站或是电商促销,每天都有新资讯、新促销,用户还在不断创造内容,可供推荐的内容既在不断累积,也在不断变化。模型的准确率来自于对数据的学习,数据变了,自然模型就要变,否则给出的智能推荐,提供的 AI 服务,用户肯定不满意,但如果现在还只是 10~30 分钟做一次的模型更新,未来能做到 1 分钟之内就更新一次,用户的满意度将获得极大的提高。
随着实时强化学习的逐渐成熟,未来商业领域能够做出效益最高的模型,效率最好的架构,而且,以后这些横型的生成都是机器自动实现的,不需要人工干预,当然,现在的人工智能还都只是“数据智能”,远未达到“知识智能”的阶段,机器还做不了基于知识推理(即缺乏常识),这是做人工智能的人未来几年要突破的方向。
五、对实时决策的需求推动边缘人工智能发展
NVIDIA、高通、苹果及若干初创企业均在开发用于边缘的人工智能专用芯片,而更多的企业都在试图在智能手机、汽车甚至可穿戴设备等边缘设备上运行人工智能算法,而不是跟中心云平台或服务器通信,使得边缘设备具备了在本地处理信息的能力,并且可以更快速地对情况做出响应。
边缘人工智能对消费者电子、电信、医疗影像等主流行业均有应用意义。比如说在监控摄像头上运行人脸识别、肩颈识别等人工智能算法,可以快速提供安防威胁识别,如果结合本地数据存储,则能够更进一步发现和定位安全威胁嫌疑人,此外,边缘人工智能在即时驾驶决策、婴儿监视器、无人机、机器人视觉能力(无互联网连接)等方面也具有非常积极的价值。
需要指出的是,边缘人工智能具有减少延迟、快速做出决策的优势,但也存在计算和存储能力受限的问题,因此边缘人工智能未来将与云端人工智能构成混合模式,从而提供更好的人工智能服务。
六、人工智能正变得性能更高和理解人类
根据斯坦福百年研究(AI 100)发布的全球“2018 年人工智能指数”(AI Index)报告显示,就人工智能性能而言,“能力持续飙升”,特别是在计算机视觉等领域。
通过测量广泛使用的图像训练数据库 ImageNet 的基准性能,该报告发现,启动可以按照最新精度对图片进行分类的模型所需的时间从“大约一小时到大约 4 分钟”下降在短短 18 个月内。这相当于训练速度大约提高了 16 倍。其他领域,如对象分割,这是软件区分图像的背景和主题,在短短三年内,精度提高了 72%。对于机器翻译和解析等领域,软件可以理解语法结构,更容易回答问题,准确性和熟练程度越来越高,但随着算法越来越接近人类对语言的理解,回报越来越低。
与此同时,MIT 媒体实验室数据显示,在识别表情方面,计算机已经可以超越人类,对于真笑和苦笑的实验中,机器学习的成功率是 92%,大幅优于人类。不过虽然情感计算已经深入生活,而要让机器人更加懂你却并非易事,还需要人机交互、心理学、认知学等多学科领域共同努力。
基于神经网络系统的人工智能算法趋势演进
算法的定义
算法名字的由来源于中世纪一位名叫花拉子米的波斯著名学者。他在 825 年写成的《印度数字算术》(On the Calculations with Hindu Numbers)对于印度 - 阿拉伯数字系统概念在中东以及欧洲的传插和推广起到了关键作用。花拉子米拉丁语的译名为 Algoritmi,算法 algorithm 一词由此演变而来。
中世纪的拉丁语‘algorismus’指的是四个基本的数学运算:加、减、乘和除法的运算程序和方法体系,但其实早期广义上的算法并不局限于数学领域里的应用实践,旧时人们用它们来制定各个领域的策略、规则,甚至用于预测未来。例如中国早期历史里,“术数”或“数术”,是中华古代神秘文化的精髓所在。
中国古人将自然环境所观察的变化,与时事、政治和社会的振荡相结合相联系,认为两者之间有着某种内在的关系,而这种关系可以用数术的方法进行归纳和推理。而到了现代社会,由于计算机的发明,术语“算法”的定义与过程、方法和技术这类术语间的模糊概念逐步地区别开来,隐喻地表示递进的逻辑过程,并成为计算逻辑的核心。
现代算法是从不断重复出现的现象里抽象得出的描述事物变化特征的理想化模型,是一个对空间、时间、资源和运算方法之间的组织;算法是一个问题的解决方案,并把过程拆解划分成有限地步骤进行方案的实施;更重要的是,算法是一个高度经济化的过程,它必须要在有限的时间、空间上使用最少量的资源解决问题,同时却不失其高效和灵活性。
人工智能算法的重要进程(基于神经网络)
今天,随着人工智能的广泛普及和应用,人们倾向于将算法视为以数据为中心的抽象数学思想的应用。在第一次 Al summer 来临前的黎明期,20 世纪 50 年代,在康奈尔航天航空实验室里,科学家 Frank Rosenblatt 设计并发明了一款名叫感知机(Perc印tron)的机器学习矩阵神经网络系统。感知机是一种用于二元线性分类器的监督式学习算法,即是一种可以决定由数字向量表示的输入是否属于某种特定分类的函数。
感知机的第一款原型机叫 Mark 1 感知机器,由 20 x 20 组硫化镉光电池的输入设备组成,这组输入设备模拟了类似人类‘视网膜’的作用,目的是通过灯泡的打开或关闭组成一个 400 像素的图像。机器通过电线连接到一层人工神经元,分解成一个独立的输入主体,中间的配置面板基于输入特征进行不同权重组合的调节,权重通过电位计进行解码,并在后续的训练期间通过电动机进行迭代更新。Perceptron 可以用于训练识别特定的图像构造,诸如字母或者三角形等的简单几何形状,确定识别的模式是否属于特定类别。感知机的出现使单个神经元的训练得到了可能,为后期神经网络学习和目前非常流行的深度学习算法的发展方向奠定了重要的基础。
单层的感知机解决了简单的输入和输出线性配对关系的学习问题,但是一个最重要的缺陷是这种低维度的特征关系抽取无法表征两者之间非线性的关系模式。为了解决这个难题 Hinton 在 1986 年提出了分布式表示(Distributed Representation)的概念。
其核心思想指每一个输入单元都应该由多个特征所表示,并且每一个特征都应该和其他可能输入的表示产生联结作用,描述特定特征的神经元应该从所有相关的输入单元(图像)中进行学习而不仅仅是从一个特定类别的单元(图像)中训练而来。为了达到这种基于深层次网络内部表示作用的学习效果,反向传播算法(BackwardPropagation)应运而生,它是一种高效地训练多层神经网络的方法,学习合适的内部表示进而学习任意的输入到输出的映射关系。
反向传播方法一经发表就得到了学术界的关注和广泛应用,并在多向任务建模的方面取得了重要的进展。然而彼时人工智能正处于其历史进程中第二次浪潮的尾期,随着 90 年代初期 Apple 和 IBM 通用计算机的兴起,以 XCON 为首的 AI 为主程序的专家系统的没落,人工智能商业界高投资、高期望、低回报、低交付的现象愈发严重,整个投资和媒体界人士纷纷表示对人工智能的失望,导致该领域的大量撤资。到了 21 世纪初,互联网的高速发展成功激活了人工智能第三次浪潮回归的 3 个重要因素,它们分别为:
- 海量数据积累和指数级数据体量增长;
- 数据存储成本的大幅下降;
- 处理器产业不断成熟导致算力性能的明显提升。
不同于前两次 AI ‘春天’,深度学习网络在模型表现和商业应用都远远优于与之竞争的基于其他机器学习技术或手动设计功能的 AI 系统,亦称为了第三次 AI 浪潮发展最显著特征之一。关于深度学习的发展和应用,我们会在下一小节做着重探讨。
以深度学习为主特点的人工智能第三次浪潮
追溯人工智能的现代史,'ArtificiaIlntelligence'这一术语是在 1956 年达特茅斯学院夏季学术大会上,由美国计算机和认知科学家 John McCarthy 第一次提出,研讨会本身意义重大,被业内普遍视为人工智能作为一门研究学科的创立,1956 年也称为 AI 元年。早期开创 AI 的先驱者对 AI 的定义、研究方法和发展方向展开了极其热烈的讨论,他们认为 AI 的初衷是由机器模拟人类、动植物和物种种群的演变行为,任何领域的学习过程或任何智能的表征特点理论上都可以被机器精准地模拟出来。
英国计算机与人工智能鼻祖 Alan Turing 提出了机器智能领域里两个重要的学术问题:
- 机器能否模仿人脑的认知、思考、推理和解决问题的能力?
- 如果可以,如何判断机器具备以上所述的所有能力?
同时还提出了非常有益的人工智能发展建议,他认为与其设计类似于成人 IQ 思维的机器体系,不如制造一个更简单的系统,类似孩童一般,通过不断地学习、不断地成长,从而被一步步训练成更智能的综合系统,而这一理念深深嵌入到现代人工智能、机器学习算法的核心设计思想里。
历史上,人工智能历经了两次跌宕起伏的发展时期,分别为 1956一1987 年,1981一1987 年,AI 发展的两次上升期;及 1974一1980 年,1987一1993 年,AI 发展的两次寒冬期。第一次寒冬期始于英国莱特希尔教授(SirJames LighthiII)在 1973 年其人工智能普育报告的发布,报告中表达了对先前的 AI 投资未能产生预期收益的失望并呼吁人们终止对 AI 的过度期望和无理性的资本输入2。第二次寒冬期源于桌面电脑的迅速崛起,工业界、产业界对 AI 的兴趣衰减,同时 AI 系统升级维护成本又过于昂贵,导致 AI 产业投资性价比的显著下降。然而一线的科研仍在继续,提及 AI 的人越来越少,取而代之的是机器学习、基于知识的模式识别等学术术语开始涌现。然而在 90 年代开始,人工智能已经开始无声无息地成功翮入到成千上万的系统中去。
以深度学习为主特点的 AI 第三次浪潮
关于第三次 AI 浪潮回归的起点众说纷纭,学界认为人工智能第三次浪潮源于 2006 年 Geoffery Hinton 表明“深度信念网络”(Deep BeIieve Network)可以被一种名为“贪婪逐层预训练(Greedylayer—wisepre-training)”的策略进行高效训练快速收敛的理论。这种训练策略的出现使得之前不可能被有效训练地深度神经网络变得可被训练,大大提升了模型训练效率和输出的准确性,从而认证了深度学习,这一概念的可行性。
行业界认为人工智能的第三次复兴应追溯到 2012 年的《mageNet 挑战赛,GeofferyHinton 和其学生 AIex Knzhevsky 研发了一种名叫 AlexNet 的深度神经网络,在挑战赛中成功地将图片识别错误率降低了 10.8 个百分点。
深度学习又是如何定义呢?它是机器学习中一种基于对数据进行表征学习的方法。表征学习指使用机器学习的方法挖掘定义输入数据特性的表示特征本身,而不仅仅只是简单地提取表示做输入和输出之间的关系映射。人工智能、机器学习、表征学习和深度学习之间是包含与被包含的所属关系。
和 20 世纪 90 年代的系统做对比,21 世纪的深度学习模型有着三个显著特点,
- 系统规模及复杂性;
- 过程训练高效性,
- 结果预测准确性。
2000 年以后深度学习模型的总体规模经过 50 年的迭代后发生了很大程度的跃迁。除了上文所述的“贪婪逐层预训练”的机制让深度学习网络的训练变得更可行之外,第三次浪潮中深度学习的成功很大程度上依赖于其算法模型的规模指数级升级。模型规模取决于深度学习中层体(隐藏层)的深度以及每层神经元的联结绸密度。2015 年后,模型中神经元连接的数量级(10 的三次方)已经可以匹配于较小的哺乳动物(老鼠),离人类神经元的规模(>10 的四次方)还有一定距离。而就神经元总数来说,深度模型目前从 1985 的蛔虫水平(>10 的二次方)跨越到了蜜蜂的量级(10 的六次方),但与人类规模还相差甚远(>10 的十一次方)。更大体量的网络、更高密度的系统可以在真实环境中处理更复杂的问题并得出更精准的结论。这种规模的增长是以更大的存储空间、更快的计算速度作为底层技术支撑和驱动的。从 20 世纪 50 年代开始,系统通过不断地演化提高性能(下图),科学家推测按照目前这种进化速度,到本世纪 50 年代,神经网络能具备与人脑相同数量级别的神经元与连接稠密程度。
随着深度学习模型越来越复杂,其识别、分类和预测的精确度也得到显著提升。在大型视觉识别挑战赛(ILSVRC)中,深度学习模型取得了引人注目的成功,图像识别错误率也从 2010 年的 28% 下降到如今的 23%,于 2015 年后就超过了人为识别错误率(5%)。与此同时,整体模型的训练时间也大幅度缩减,短短 1 年半左右的时间就从 60 分钟下降到 4 分钟左右,提升了接近 15 倍左右的程序运行效能。
深度学习不仅仅在机器视觉应用中起到了关键性作用,也在人工智能的其他领域产生了巨大的影响,如语音识别、机器翻译和强化学习等其他复杂的学习任务。因为其出色的表现,深度学习已经成为现今人工智能学者主要的研究领域;我们可以预料到在未来深度学习的发展机遇与挑战并存,模型的进一步提升、如何与垂直行业知识融合进而更广泛应用于其他新型领域,是深度学习未来几年时间里的重点发展方向。
人工智能算力的发展趋势与洞察
在数字经济时代,技术的革新与承载它的算力密切相关,人工智能也不例外,数据、算法和算力构成了人工智能的三大要素,而正是算力上的爆发,让人工智能在 1956 年达特茅斯会议之后近 60 年,形成了如今的第三次爆发。
1986年,DavidE.Rumelhart,GeoffreyE.Hinton和RonaldJ.Williams 发表文章《Learningrepresentationsbyback—propagatingerrors》,在时隔 12 年后重提 BP 神经网络学习算法(BP 即反向传播,Backpropaga-tion,BP,这是一种与最优化方法(如梯度下降法)结合使用的,用来训练人工神经网络的常见方法。
BP 算法是如今人工智能领域深度学习神经网络的重要突破之一,被谷歌高级研究员 JeffDean 称之为“深度神经网络是现代计算机科学一些重大进步的促成因素,帮助计算机视觉、语音识别和自然语言理解方面的长期问题上取得了实质性进展,深度神经网络不仅改变了计算领域,而且几乎改变了科学和人类努力的每一个领域。
但无论是 BP 算法还是十年后与卡斯帕罗夫展开历史上首次“人机大战"的 Deep Blue,人工智能在当时严审的受到了算力不足的影响,事实上,即使是 20 年Geoffrey E.Hinton 正式提供深度学习并进行实证,算力不足仍然困扰着人工智能业界。
很多人工智能业界的专家认为.在弱人工智毹时代(现阶段),算力是最重要的人工智能发展影响因素,DeepMind 杰出研究科学家 RichardS.Sutton 就认为,利用算力才是王道,在其基础上搜索和算法才能带来技术水平的长期提升。
他认为,AI 研究人员常常试图在自身智能体中构建知识,从短期看,这通常是有帮助的,能够令研究人员满意,但从长远看,这会令研究人员停滞不前,甚至即制进一步发展,突破性进展最终可能会通过一种相反的方法一一基于以大规模计篡为基础的搜索和学习。最后的成功往往带有丝苦涩,并且无法完全消化,因为这种成功不是通过一种令人喜欢、以人为中心的方法获得的:“通用方法非常强大,这类方法会随着算力的增加而继续扩展,即使可计算变得非常大。搜索和学习似乎正是两种以这种方式随意扩展的方法。
当然,许多业界专家与 RichardS.Sutton 的想法存在差异,但算力的重要性毋庸置疑,而近年来,与人工智能相关的算力也确实得到的长足的进展,并呈现出一定的趋势。
人工智能算力需求暴,异构计算成为主流
根据 IDC 公布的《2018 年中国 AI 基础架构市场调报告》显示,2018 年中国 AI基架构市场销同比增幅高达 132%,整体售达到 13.18 亿芰元。此外,根据 OpenAl 的分析报告,从 2012 年开始,AI 训练所用的计算量呈现指数长,平均每 3.43 个月便会翻倍,截止目前计算量扩大了 30 万倍。到 2020 年前,AI 需的计算量预计还会继续增长 12 倍。
随着算力求的暴增。对算力的合理利用和不同计算单元的协作就变得日益重要,将CPU、DSP、GPU、ASIC、协处型器、FPGA 等各种计单元、使用不同的类型指令集、不同的体系架构的计算单元组成一个混合的系统执行计算,计每一种不同类型的计算单元都可以执行自己最擅长的任务,从而大度提高人工智能计算的效率和速度。
总的来说,不同处理器芯片在构建异构计算方面有着自己的鲜月特点。CPU、GPU 领域存在大量的开源软件和应用软件,任何新的技术首先会用 CPU 实现算法,因此 CPU 编程的资源丰富而且容易获得,开发成本低而开发周期。
FPGA 的实现采用 Verilog/VHDL 等底层硬件描述语言实现,需要开发者对 FPGA 的芯片特性有较为深入的了解,但其高并行性的特性往往可以使业务性能得到量级的提升;同时 FPGA 是动态可重配的,当在数据中心部署之后,可以根据业务形态来配置不同的逻辑实现不同的硬件加速功能。
ASIC 芯片可以获得最优的性能,即面积利用率高、速度快、功耗低:但是 ASIC 开发风险极大,需要有足够大的市场来保证成本价格,而且从研发到市场的时间周期很长,不适合例如深度学习 CNN 等算法正在快速迭代的领域。
GPU 仍然是人工智能计算的主要算力供给
同样据《2018 年中国 AI 基础架掬市场调点报告》显示,2018 年 GPU 服务器继续保持高速增长,销售同比大增 131.2%, 仍然是 AI 基础架构领域的主流,销售额占比达到99%。
其中,近 8 成销售额来自于 4 卡以上 GPU 服务器,占比达到 80.4%;16 卡 GPU 服务器亳长迅猛,销售额从 2017 年的 2090 万美元增长到 2018 年的 2.63 亿美元,同比增速高达 1161.7%,在 GPU 服务器整体份额中的比例从 2017 年的 3.7% 快速攀升至 2018 年的 20.4%。
值得注意的是,越来越多的人工智能计算服务器开始试用 8 GPU 甚至 16 GPU 卡,这意味着随着数据的爆发式增长、深度神经网络日趋复杂,单系统可提供更高密度、更高性能的 AI 基础架构,将在 AI 线下训练场景中得到更广泛应用。此外,IDC 的数据显示,用于线上推理场景的加速卡在 2018 年实现了快速长。IDC 数倨显示,GPU 中的 M4、P4、T4 销售额从 2017 年的 4810 万美元,增长到 2018 年的 3.6 亿美元,份额占比从 8.5% 提升到 27.6%。
此外,GPU 计算正朝着"Non — CPU"方向发展,即不需要计算系统中使用 CPU,用户可构建起完全由 GPU 组成的计系统。
传统高性能计算正在与人工智能合为“先进计算”
Hyperion Research 的分析师 Steve Conway 认为,以深度学习为代表的人工智能研究和应用正在将那些“并不真正了解 HPC 的公司和组织,推向 HPC 的领域,而他们对此一无所知”。
事实上,现在有可用的大型数椐集合(由于我们社会的数字化)和强大的计算资源,这样的组合允许这个领域取得很大的进步。人工智能(特别是机器学习和深度学习)需要庞大的计算资源,随着数椐的长,计算力变得越来越要,只有拥有更好的、与人工智能计算(特别是深度学习计算)相匹配的计的系统(比如提供 GPU 计算能力或是深度学习算法架平台)才能更好的训练(深度学习)模型。这一计算系统正是先进计的系统。
因此,AI 需要借助先进计算力量,或者说“AI 站在先进计算的肩膀上会走的更远”,事实上,类以的尝试早在传统超算领域就已经被证明是可行的:20 世纪 90 年代初,美国华盛顿的乔治梅森大学医院就经常使用他们的 Cray 超级计算机来帮助监测乳腺癌,经过训练,在传统超算上能够针对 × 光片识别出被称为“微钙化“的早期指标,而且优于人的能力—针对传传统算、大数据分析处理和人工智能计算的新一代先进计算中心,显然会是更好的支撑。
此外,荑国计划在 2021 年建成的 E 级计算系统Aurora 据 DOE 所披露的信息显示,就已经是一个先进计算系统,它不仅仅是只支持运行计算密集型应用的传统超算,它也将支持或者说针对数据密集型分析应用进行优化(预计也会包括针对深度学习的优化),涣句适说,Aurora 是一个可以支持 AI 代码的先计算系统,它将支深度学习工乍负载。
边缘人工智能算力持续提升
随着联网边缘设备对人工智能能力的要求不断提升,对即时、高吞吐量的边缘人工智能算力的需求也在持续增加,边缘设备需要借助人工智能及与之相匹配的算力,及时做出分析、判断和决策。与此同时,2025 年,预计将会有 1500 亿台机器传感器和物联网设备持续输出数据,这比当今使智能手机的个人用户所产生的数要高出几个数量级,因此,无论是市场规模还是算力需求规模都极为庞大。
希捷在制造工厂部署了基于 GPU 的智能边缘视觉解决方案,以对硬盘读写磁头的质量进行检测。其所部署的NVIDIA EGX 平台能够在边缘实现推理的大幅加速,使希捷的工厂管理人员能够看到过去人类操作员无法看到的细微缺陷。高性能的边缘人工智能算力让希捷的工厂有望通过更高的效率和质量,实现高达 10% 的制造吞吐量提升和高达 300% 的投资回报率。
第三次人工智能浪潮的主流就是基于大数据量,利用深度学习(包括机器学习,以下同)算法,挖掘数据中存在的有用信息,并找到深层的逻辑关系,其处理的数据越多,深度学习就越能体现出优势,特别是在算法还未完全成熟、仍然处在持续迭代的阶段(比如弱人工智能),以前很多用机器学习解决不了或处理不好的问题,通过提供大数据能够得到很好解决或性能的大幅提升。
随着信息化、数字化,以及物联网、智能设备、移动互联网的深入推进,越来越多的物理世界和数字世界的数据被沉淀出来,让深度学习有了足够多的数据样本,从而能够不断的从数据中学习知识,提升智能水平。毫无疑问,在数据量非常小的时候1深度学习的复杂网络往往无法取得很好的效果。
但数据却并非一种取之不尽用之不竭的资源,即使是数据具备可再生性(即源源不断的产出),人工智能所需要的数据仍然相当昂贵和耗时,一方面,深度学习需要准确标记的图像或文本训练数据,而数据标记需要大量的人力工作;另一方面,许多数据存在着隐私和安全风险,比如说医疗、教育和公共事务数据,就存在着数据获取难的问题。
随着深度学习技术的发展与应用,数据孤岛、数据隐私(数据安全)、小数据集和数据缺失(数据集不完整及数据标记缺失)等问题变得日益凸显,当前人工智能进一步发展,必须要解决数据的挑战,找到在当前的数据状态下持续发展的方法一一这就是人工智能专家吴恩达所提出的问题:“数据当然是越多越好,我也并没有说许多数据是无用数据。但是,在农业、制造、医疗等领域的部分应用场景中,如果你手头只有 100 张照片,怎么办呢?”
“小数据,大智能”,是用小数据集准动人工智能技术能力提升和产业应用发展是一个非常重要的课题,在这一领域已经有了一定的探索。
一、联邦学习(FederatedLearning)
2016 年由谷歌提出,当时主要是为了解决 Android 智能手机用户在本地的模型更新挑战,其设计目标是在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或多计算结点之间开展高效率的机器学习,即在用敏感用户数据训练人工智能的同时保护隐私。
在谷歌所提出的联邦学习中,用户的数据仍然保留在用户的智能手机上,不会存储或发送到外部,而是由云服务器将最新版的算法(算法的“全局状态”)发往机选择的用户设备上,用户的手机做出改进然后基于本地化的数据对模型进行更新。之后只有这种更新(以及来自其他户的更新)会回传给云服务器以改善该“全局状态”,然后再不断重复这一过程。联邦学习所要达成效果,就是在不共享隐私数据的情况下,进行协同的训练,而且实现与过去相同的训练水平。
简单来说,联邦学习不需要汇聚模型训练所需的数据进行集中计算,而是分散学习的计算到参与各方的数据库上进行加密的分布式计算。数据持有方 A 和数据持有方 B 共同拥有模型的一部分,模型 A 和模型 B 加起来,才是一个完整的模型,通过加密模型训练(包括传递关遭参数)得最终的优化模型。
在这其中,同态加密技术是联邦学习的关诞,它确保整个模型训练过程自始自终、没有任何原始数据和原始数据的加密/脱敏数据被传输,从而保护了数据拥有者各自的隐私。很显然,如果能够保证个人及企业的数据隐私,那么更多的数据就能够被“釋放”出来用以进行深度学习训练,因此,虽然联邦学习并非百分百意义上的“小数据集训练”,但仍然能够在一定程度上解决人工智能的数据需求问题。
二、合成训练数据
没有训练数据,没有大规模的标签数据集,那么就尽可能逼真的仿造数据,这就是合成训练数据,但这并非是毫无根据的仿造,合成的训练数据一定是高精度、高可信度的,可以精确地模拟现实场景和现实事物。
英伟达在 2018 年 3 月推出 DRIVE ConstelIation 仿真系统,用以生成在虚拟世界中车辆行驶的传感器结果。该系统所运行的模拟软件,可以模拟从摄像头到激光雷达和普通雷达均包括在内的自动驾驶汽车的各种传感器,利强大的计算力生成逼真数据流,从而创建各种测试环境和场景。这意味着您可以在昼夜不同时间针对罕见和难以实现的条件〔暴雨、暴风雪和强烈眩光)以及不同的路面和周围环境轻松地进行测试。
比如说,在模拟器中,可以设置模拟车辆遇到极端天气,这一系统就会模拟所有车载传感器在当时所有可能产生的数据,这些数据被当做真实发生的数据进行合成并提供给自动驾驶车辆的决策系统,从而测试自动驾驶车辆对数据的反馈及驾驶行为。
此外,利用生成对抗网络(GAN)生成或增强现实世界数据,利用混合现实世界和模拟数据来进行训练,从而形成更大规模更多样化的数据集,也是当前合成训练数据领域正在进行的工作。
三、迁移学习
“触类旁诵”可能是最适合描述迁移学习的成语,这是一种诵过从已学习的相关任务中转移知识来改进学习的新学习方式,比如说,用于识别苹果的训练成果可能会有助于识别梨,迁移学习强调不同领域之间诵过知识迁移,来完成原本较难完成的任务,从而在缺乏已标记数据时,利用迁移学习借助于其他相关领域的知识,来帮助训练更具有泛化能力的模型。
传统的训练过程,更像是“单打独斗”,试图单独学习每一个任务,建立独立的知识体系,并会生成多个具有纵向垂直能力的学习模型;在迁移学习中,是试图将在前几个任务上学到的知识转移到目前的学习任务上,从而将其结合起来。2016 年,吴恩达在 NIPS 2016 大会上提出迁移学习是机器学习获得商业上的成功的下一个动力。
云计算,基础设施与能力赋能平台
云计算成为数字经济发展的重要基础设施,也是人工智能发展的重要基础。相比工业经济,新数字经济的重要特征是以数据为重要的生产资料,以云计算、大数据和人工智能技术为主要生产力,以互联网和移动互联网为主要生产关系,以数字世界的数据智能技术与物理世界和实体经济的深度合,让数据创造出新价值。云计算作为驱动数字经济技术发展的心赃,作为数字经济的基础设施,并为人工智能发展提供强大的算力支持以及数据存储资源。
云计算成为各行业数字化转型的重要赋能平台。近 10 年来,我们看到以云计算为基础的技术浪潮,裹挟着人工智能,大数据,区块链、边缘计算,工业互联网,互联网汽车,新智慧城市等新技术和新应用席卷而来,驱动各行各业数字化转型。根据艾媒咨询发布的《2018 年中国云计算行业发展报告》预测,到 2019 年,中国云计算行业的产业规模将达 4300 亿元。
当前,云原生架构基本完成了 IT 架构在云计篡时代的进化升级。以轻量级的容器、松散耦合的微服务、通过 API 进行交互协作,通过 DevOps 流程进行管理的为代表的云原生技术以其高效定、快速响应的特点驱动引领企业的业务发展,帮助企业构建更加适用于云上的应服务。对企业而言,新旧 IT 架构的转型与企业数字化的迫切需求也为云原生技术提供了很好的契机,云原生技术在行业的应用持续深化。
在工业领域,依托云计算的工业互联网平台加涑制造企业数字化转型。数据智能技术以云计算为载体,加速工业互联网的发展。2017 年,国务院发布《关于深化“互联网+先进制造业”发展工业互联网的指导意见》,指出工业互联网作为新一代信息技术与制造业深度合的产物,日益成为新工业革命的关键支撑和深化“互联网+先进制造业”的重要基。从产业发展来看,至 2020 年,政府和传统企业的数字化转型仍将是 IT 产业的主旋律,从消费互联网到产业互联网的演进是数字经济的创新主战场。层出不穷的创新技术将渐次入科技浪潮中,转化成无数灵活可用的新产品,云计算作为信息科技领域的水电煤,其公共属性将愈发明显,在这场科技变革中将发挥更为关键的作用。
在智慧城市领域,以云计算作为基础设施的城市智能化转型进入爆发阶段,类脑巨系统的应用在中国突然爆发。进入集中建设阶段的智慧城市建设为云计算带来广活市场,同时推动电子政务、民生应等领域的云计算应用。以阿里云城市大脑为例,经过 2016一2018 的发展,阿里城市大脑已经在杭州、苏州、上海、衢州、澳门、海南等地相继落地智慧城市项目。
云计算根据服务交付 IT 资源的不同,包括计算、存储、网络、数据、应用等,可以分成三种服务形态:基础架构即服务(IaaS)、平台即服务(PaaS)和软件即服务(SaaS)。
IaaS 是用户利用软件虚拟化和自动化部署等技术,通过高速互联网远程访问云服务商提供的计算、储存和网络资源。用户可以免去机房场地,计算机维护的麻烦,降低原始的 IT 软硬件投资和人力成本。“飞天"就是阿里云自主研发的云计算操作系统,可将全球数百万台服务器连成一台超级计算机,经受住“双11”海量访问需求的考验,为社会提供普惠的计算能力。
PaaS 是用户利用 PaaS 平台的资源就可以创建自己的应用软件,开发后的软件可以直接运行在 PaaS 平台上。由于无需自己购买硬件搭建开发平平台,可以缩减软件开发的周期和成本。阿里云机器学习平台PA《(Patform of ArtificiaI lntelligence)就是一种人工智能的 PaaS 平台,为传统机器学习和深度学习提供了从数据处理、模型训练、服务部署到预测的一站式服务,打造人人都能用得起的机器学习平台。
SaaS 是用户通过互联网浏览器直接获得软件应的服务,大大压缩了安装和维护成本,为用户提供终极的便利体验。GoogIe 的 GmaiI、SaIesforce 的在线 CRM 都是这种模式的典型应用。淘宝平台上商家直接订购的软件服务商的各种店铺应用,也是一种 SaaS 应的模式。钉钉也是一种为中小企业提供移动办公和组织协同的企业即时通信 SaaS 应用。
从物理服务器的所属权来区分,云计算还可以分为公共云,专有云和混合云。公共云就是户不拥有云计算的物理服务器,直接使云服务。专有云是企业在组织内部构建的云计算服务,拥有物理服务器的所有权。混合云则是上述一种二者兼而有之的融合状态。
公有云是真正具备的成本相对低廉、按需使用、即插即用和弹性扩容的这云计算的优点。从长远来看,云计算的发展会像电力的发展进程一样,企业的专有云就像工厂自建的发电站只是作为应急之用,公有云就像现在的发电厂为正整个社会提供廉价稔定的普惠计算服务。
在数字经济时代,任何人、任何行业都需要用云计算。今天,我打开手机淘宝,用支付宝扫二维码都是云计算再给我们提供服务。没有云计算就没有今天普惠的数据智能服务。同样,云计算带来数字生产力的提升,不用云计算就像在工业时代不电一样,会在数字经济时代的市场竟争中处于劣势地位。