2018 AI趋势:AI芯片更丰富,用机器学习的企业翻倍 | 德勤报告

简介:
本文来自AI新媒体量子位(QbitAI)

这是一个急速变化但又有很强发展衔接性的时代。

德勤在最新报告Technology, Media and Telecommunications Predictions(科技、传媒和通讯的预测)开头这样说。

这份报告中,德勤预测了增强现实(AR)、智能手机、AI芯片、机器学习、互联网、数字传媒等领域在2018年的大趋势。总体来讲,科技、传媒和通讯领域内将呈现指数级进步,生活中的方方面面也将发生不易察觉的变化。

这份报告长达80页,量子位将其中与人工智能相关的两部分编译整理如下。在2017年的尾巴,我们提前去2018年预览一下。

AI芯片

强大的运算力对训练和推理神经网络来说必不可少。

2009年,第一块GPU问世,这种专门为密集型计算、高度并行计算设计的芯片,比CPU更能满足机器学习任务的要求。自此,越来越多的类型开始丰富“AI芯片”这个新名词。

德勤预测,2018年,GPU和CPU仍是机器学习领域的主流芯片。

GPU的市场需求量大概在50万块左右,在机器学习任务中对FPGA的需求超过20万块,而ASIC芯片的需求量在10万块左右。

 GPU、FPGA和ASIC芯片需求与2016年对比图

在年底,超过25%的数据中心中用来加速机器学习的芯片将为FPGA和ASIC芯片。

 FPGA和ASIC芯片的市场份额超过25%

那么,每种类型的芯片到底向什么方向发展,德勤给出了详细的预测:

机器学习优化的GPU:在2018年,GPU制造者将推出专门优化机器学习任务的特别版GPU。其实现在已经能看到这样的案例,英伟达称自己的Volta架构将使深度学习训练加速12倍,在深度学习推理任务上比Pascal架构还要快6倍。

机器学习优化的CPU:在GPU市场蒸蒸日上的同时,我们也可以看到CPU公司推出机器学习专用的CPU芯片。比如英特尔Knights Mill芯片,比非机器学习优化芯片的性能提升了4倍。

机器学习优化的FPGA:在2016年,全球FPGA芯片的销售额已经超过40亿美元。在2017年年初报告《
Can FPGAs Beat GPUs in Accelerating Next-Generation Deep Neural Networks?》中,研究人员表示在某些情况下,FPGA的速度和运算力可能比GPU还要强。

目前,微软、亚马逊AWS和百度也称将FPGA用于机器学习的相关任务中。总体来说,2018年机器学习任务对FPGA的需求超过了20万。

机器学习优化的ASIC芯片:ASIC是只执行单一任务的芯片,目前ASIC芯片的制造厂商很多。在2017年,整个产业的总收益大约在150亿美元左右。

综合各芯片厂商放出的消息,英特尔的收购的Nervana,能在2018年生产出自己的芯片。此外,日本富士通也计划在2018年推出一款名为深度学习单元(DLU)的芯片。

TPU:TPU是谷歌为适应机器学习任务推出的ASIC芯片,适用于处理在开源的TensorFlow中的任务。在谷歌数据中心的推理任务中,TPU已经显示出良好的性能,和CPU相比,性能可以提升10到50倍。据谷歌预测的数据显示,2018年对TPU的需求大约在10万块左右。

低能耗机器学习加速芯片:德勤预测,在2018年,手机、平板和其他移动设备对机器学习芯片的需求量在5亿左右。移动端芯片的最大特点就是低能耗,GPU芯片的功率大致在250瓦左右,相比之下TPU芯片需要的功率仅为75瓦。对传感器网络来说,所需功率需要低于10毫瓦。

德勤预测,可能再过两三年,低功率的机器学习芯片才能有突破性进展。

光流芯片:除了上面几种,还有一种特殊的芯片类型,IBM的True North芯片就是一种光流芯片,它能加速机器学习任务,并且非常高效。不过德勤表示,现在还很难预测这种光流芯片在2018年的体量,但整体来说可能低于10万块,甚至低于1万块。

机器学习

德勤预测,在2018年,大中型企业将更加看重机器学习在行业中的应用。和2017年相比,用机器学习部署和实现的项目将翻倍,并且2020年将再次翻倍。

 翻倍再翻倍

在报告中,德勤重点提出了让机器学习更广泛应用企业中的5个重要推动力,分别为数据科学的自动化、训练数据需求的减少、训练速度的加快、解释结果和本地部署等。

1. 数据科学自动化:像数据开发和特征工程这种耗时的机器学习任务,可能会占用数据科学家80%的时间。好消息是,这种繁琐的工作正在逐步被自动化取代。从耗时的工作解放出来后,数据科学家执行机器学习试验的时间从几个月缩短到了几天。自动化在一定程度上缓解了数据科学家的短缺,为企业赋予和更多活力。

2. 减少训练数据的需求:训练一个机器学习模型可能需要数以百万计的数据元素,为训练数据获取标记数据也是一件耗时且成本高的事情。目前,已经涌现出致力于减少机器学习需要的训练数据的技术,包括数据合成、算法生成的模拟真实数据特征等。

3. 加速训练:正如上面所说,像GPU、FPGA等机器学习专有硬件的出现可以缩短机器学习模型的训练时间,加速研究进展。

4. 解释结果:虽然机器学习的进展日新月异,但机器学习模型通常存在关键缺陷,比如黑箱,意味着我们无法解释其中的原理。这些不清楚让模型无法适应更多的应用。如果黑箱消失、结果都可解释,是机器学习应用的一大进步。

5. 本地部署:机器学习将随着部署能力一同成长。德勤去年曾经预测,机器学习正在走进移动设备和智能传感器,带来智能家庭、智慧城市、无人驾驶、可穿戴技术和物联网技术。

像谷歌、微软、Facebook等科技巨头正在尝试将机器学习模型压缩到便携设备上,比如谷歌的TensorFlow Lite、Facebook的Caffe2Go和苹果的Core ML。

相关资料

最后,附报告下载地址——

德勤报告网盘地址:
https://pan.baidu.com/s/1qXKx3sS

简笔画版报告摘要:
https://pan.baidu.com/s/1mivJvBE

本文作者:安妮 
原文发布时间:2017-12-14 
相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
2月前
|
人工智能 自然语言处理 IDE
模型微调不再被代码难住!PAI和Qwen3-Coder加速AI开发新体验
通义千问 AI 编程大模型 Qwen3-Coder 正式开源,阿里云人工智能平台 PAI 支持云上一键部署 Qwen3-Coder 模型,并可在交互式建模环境中使用 Qwen3-Coder 模型。
657 109
|
3月前
|
人工智能 Cloud Native Java
书本大纲:从芯片、分布式到云计算AI时代
本文深入探讨并发编程、JVM原理、RPC框架、高并发系统、分布式架构及云原生技术,涵盖内存模型、同步机制、垃圾回收、网络协议、存储优化、弹性伸缩等核心议题,揭示多线程运行逻辑与高并发实现路径,助你掌握现代软件底层原理与工程实践。
154 6
|
6月前
|
机器学习/深度学习 人工智能 供应链
从概念到商业价值:AI、机器学习与深度学习全景指南
在这个科技飞速发展的时代🚀,人工智能正以惊人的速度渗透到我们的生活和工作中👀。但面对铺天盖地的AI术语和概念,很多人感到困惑不已😣。"AI"、"机器学习"、"深度学习"和"神经网络"到底有什么区别?它们如何相互关联?如何利用这些技术提升工作效率和创造价值?
|
4月前
|
机器学习/深度学习 人工智能 监控
AI 基础知识从0.1到0.2——用“房价预测”入门机器学习全流程
本系列文章深入讲解了从Seq2Seq、RNN到Transformer,再到GPT模型的关键技术原理与实现细节,帮助读者全面掌握Transformer及其在NLP中的应用。同时,通过一个房价预测的完整案例,介绍了算法工程师如何利用数据训练模型并解决实际问题,涵盖需求分析、数据收集、模型训练与部署等全流程。文章适合初学者和开发者学习AI基础与实战技能。
627 25
AI 基础知识从0.1到0.2——用“房价预测”入门机器学习全流程
|
5月前
|
人工智能 监控 测试技术
云上AI推理平台全掌握 (1):PAI-EAS LLM服务一键压测
在AI技术飞速发展的今天,大语言模型(LLM)、多模态模型等前沿技术正深刻改变行业格局。推理服务是大模型从“实验室突破”走向“产业级应用”的必要环节,需直面高并发流量洪峰、低延时响应诉求、异构硬件优化适配、成本精准控制等复杂挑战。 阿里云人工智能平台 PAI 致力于为用户提供全栈式、高可用的推理服务能力。在本系列技术专题中,我们将围绕分布式推理架构、Serverless 弹性资源全球调度、压测调优和服务可观测等关键技术方向,展现 PAI 平台在推理服务侧的产品能力,助力企业和开发者在 AI 时代抢占先机,让我们一起探索云上 AI 推理的无限可能,释放大模型的真正价值!
|
5月前
|
机器学习/深度学习 PyTorch API
昇腾AI4S图机器学习:DGL消息传递接口的PyG替换
DGL (Deep Graph Learning) 和 PyG (Pytorch Geometric) 是两个主流的图神经网络库,它们在API设计和底层实现上有一定差异,在不同场景下,研究人员会使用不同的依赖库,昇腾NPU对PyG图机器学习库的支持亲和度更高,因此有些时候需要做DGL接口的PyG替换。
|
5月前
|
机器学习/深度学习 PyTorch API
昇腾AI4S图机器学习:DGL图构建接口的PyG替换
本文探讨了在图神经网络中将DGL接口替换为PyG实现的方法,重点以RFdiffusion蛋白质设计模型中的SE3Transformer为例。SE3Transformer通过SE(3)等变性提取三维几何特征,其图构建部分依赖DGL接口。文章详细介绍了两个关键函数的替换:`make_full_graph` 和 `make_topk_graph`。前者构建完全连接图,后者生成k近邻图。通过PyG的高效实现(如`knn_graph`),我们简化了图结构创建过程,并调整边特征处理逻辑以兼容不同框架,从而更好地支持昇腾NPU等硬件环境。此方法为跨库迁移提供了实用参考。
|
机器学习/深度学习 存储 搜索推荐
利用机器学习算法改善电商推荐系统的效率
电商行业日益竞争激烈,提升用户体验成为关键。本文将探讨如何利用机器学习算法优化电商推荐系统,通过分析用户行为数据和商品信息,实现个性化推荐,从而提高推荐效率和准确性。
523 14
|
机器学习/深度学习 算法 搜索推荐
Machine Learning机器学习之决策树算法 Decision Tree(附Python代码)
Machine Learning机器学习之决策树算法 Decision Tree(附Python代码)

热门文章

最新文章

下一篇
oss云网关配置