英特尔将推Nervana神经网络处理器,要让DL训练提速100倍

简介:
本文来自AI新媒体量子位(QbitAI)

90942eef808e1292cedfc4a9af85b724c38a4733

在人工智能热潮刚刚兴起时,英特尔好像并不积极。不过现在,英特尔正试图通过一系列新芯片来加强在这个领域的地位。

最新的进展是:英特尔准备发布Nervana神经网络处理器,简称为“NNP”。

NNP系列处理器的设计是为了满足机器学习的需求,目标市场是数据中心,而不是PC。英特尔的CPU仍被广泛应用于服务器(据估计,英特尔CPU在数据中心市场的份额为96%)。

不过,英伟达和ARM等公司提供的GPU芯片更适合当前的人工智能计算任务。因此,市场对这些公司芯片的需求快速增长。(英伟达营收的同比增幅高达56%。)谷歌也参与到这个趋势中,设计了被称作“张量处理单元(TPU)”的自主芯片,并部署至云计算服务。此外,许多新兴公司,例如英国的Graphcore,也在关注这个市场。

90ceda711d376e4c5485e239c381fb9ec23a9891

英特尔的应对方式是收购人工智能硬件方面的人才,包括今年3月收购计算机视觉公司Mobileye,去年9月收购芯片公司Movidius(该公司的芯片被用于大疆无人机),去年8月收购深度学习创业公司Nervana Systems。自那时以来,英特尔就在开发神经网络处理器,这款产品此前的代号为“Lake Crest”。

NNP芯片是收购Nervana后取得的直接成果。利用来自Nervana的专业性,并结合英特尔自身的优势,这款芯片实现了“深度学习模型更快的训练时间”。(英特尔表示,在芯片设计过程中该公司还获得了来自Facebook的建议,但没有透露太多细节。)

不过,英特尔并没有透露,这款芯片将速度提升了多少。在此前发布TPU芯片时,谷歌给出了这款产品相对于竞争对手的评测结果,但英特尔仅仅表示,该公司的目标是到2020年让深度学习训练的速度提升100倍。

关于NNP芯片将于何时发布给客户,英特尔同样语焉不详。不过,我们可能很快得到更多信息。预计英特尔将在今年年底之前限量提供这款芯片。

以及,此前英特尔还曝光一款AI芯片,代号“Loihi”

0d2ecf44c7c3bfbf956aed1e5f23cfcbc005e50e

本文作者:维金
原文发布时间:2017-10-18
相关文章
|
2月前
|
机器学习/深度学习 数据可视化 API
DeepSeek生成对抗网络(GAN)的训练与应用
生成对抗网络(GANs)是深度学习的重要技术,能生成逼真的图像、音频和文本数据。通过生成器和判别器的对抗训练,GANs实现高质量数据生成。DeepSeek提供强大工具和API,简化GAN的训练与应用。本文介绍如何使用DeepSeek构建、训练GAN,并通过代码示例帮助掌握相关技巧,涵盖模型定义、训练过程及图像生成等环节。
|
2月前
|
机器学习/深度学习 文件存储 异构计算
RT-DETR改进策略【模型轻量化】| 替换骨干网络为EfficientNet v2,加速训练,快速收敛
RT-DETR改进策略【模型轻量化】| 替换骨干网络为EfficientNet v2,加速训练,快速收敛
51 1
|
2月前
|
机器学习/深度学习 文件存储 异构计算
YOLOv11改进策略【模型轻量化】| 替换骨干网络为EfficientNet v2,加速训练,快速收敛
YOLOv11改进策略【模型轻量化】| 替换骨干网络为EfficientNet v2,加速训练,快速收敛
227 18
YOLOv11改进策略【模型轻量化】| 替换骨干网络为EfficientNet v2,加速训练,快速收敛
|
5月前
|
机器学习/深度学习 自然语言处理 语音技术
Python在深度学习领域的应用,重点讲解了神经网络的基础概念、基本结构、训练过程及优化技巧
本文介绍了Python在深度学习领域的应用,重点讲解了神经网络的基础概念、基本结构、训练过程及优化技巧,并通过TensorFlow和PyTorch等库展示了实现神经网络的具体示例,涵盖图像识别、语音识别等多个应用场景。
169 8
|
6月前
|
机器学习/深度学习 数据采集 算法
目标分类笔记(一): 利用包含多个网络多种训练策略的框架来完成多目标分类任务(从数据准备到训练测试部署的完整流程)
这篇博客文章介绍了如何使用包含多个网络和多种训练策略的框架来完成多目标分类任务,涵盖了从数据准备到训练、测试和部署的完整流程,并提供了相关代码和配置文件。
174 0
目标分类笔记(一): 利用包含多个网络多种训练策略的框架来完成多目标分类任务(从数据准备到训练测试部署的完整流程)
|
6月前
|
机器学习/深度学习 数据可视化 计算机视觉
目标检测笔记(五):详细介绍并实现可视化深度学习中每层特征层的网络训练情况
这篇文章详细介绍了如何通过可视化深度学习中每层特征层来理解网络的内部运作,并使用ResNet系列网络作为例子,展示了如何在训练过程中加入代码来绘制和保存特征图。
124 1
目标检测笔记(五):详细介绍并实现可视化深度学习中每层特征层的网络训练情况
|
6月前
|
机器学习/深度学习 PyTorch 算法框架/工具
目标检测实战(一):CIFAR10结合神经网络加载、训练、测试完整步骤
这篇文章介绍了如何使用PyTorch框架,结合CIFAR-10数据集,通过定义神经网络、损失函数和优化器,进行模型的训练和测试。
336 2
目标检测实战(一):CIFAR10结合神经网络加载、训练、测试完整步骤
|
6月前
|
机器学习/深度学习 算法 TensorFlow
深度学习笔记(五):学习率过大过小对于网络训练有何影响以及如何解决
学习率是深度学习中的关键超参数,它影响模型的训练进度和收敛性,过大或过小的学习率都会对网络训练产生负面影响,需要通过适当的设置和调整策略来优化。
1095 0
深度学习笔记(五):学习率过大过小对于网络训练有何影响以及如何解决
|
6月前
|
机器学习/深度学习 算法
【机器学习】揭秘反向传播:深度学习中神经网络训练的奥秘
【机器学习】揭秘反向传播:深度学习中神经网络训练的奥秘
|
7月前
|
机器学习/深度学习 数据采集 数据可视化
深度学习实践:构建并训练卷积神经网络(CNN)对CIFAR-10数据集进行分类
本文详细介绍如何使用PyTorch构建并训练卷积神经网络(CNN)对CIFAR-10数据集进行图像分类。从数据预处理、模型定义到训练过程及结果可视化,文章全面展示了深度学习项目的全流程。通过实际操作,读者可以深入了解CNN在图像分类任务中的应用,并掌握PyTorch的基本使用方法。希望本文为您的深度学习项目提供有价值的参考与启示。

热门文章

最新文章