【AICC首届AI计算大会议程公布】王恩东、李德毅、黄学东等聚焦AI计算趋势

简介:

首届AI计算大会。中国工程院王恩东院士、李德毅院士、微软技术院士黄学东、集群超算架构创始人Thomas Sterling、浪潮副总裁胡雷钧、国家超算无锡中心主任杨广文、百度人工智能技术委员会主席朱勇、旷视科技首席科学家孙剑、深度学习框架评测专家褚晓文、Uber机器学习主任王鲁明等业界专家,将带来人工智能计算与应用的精彩前沿报告。

AI 领域,从今年5月,谷歌正式发布TPU以来,专用芯片的研发和竞争日趋激烈,微软、百度等大公司纷纷推出以“X”PU命名的专用芯片。英特尔也抢注到了VPU。有专家笑称,以“X”PU格式命名芯片名很快就不够用了。

玩笑归玩笑。AI和深度学习的不断纵深发展,特别是在新的场景中不断产生的数据和爆炸的信息,AI时代对于计算性能的要求不断上升这确实是一个不争的事实。

当下深度学习的研究现状是:虽然研究质量的增长趋势尚不清楚,但对研究数量而言,中国在快速增长。按照目前的增长速度,美国每年为60%,中国每年为170%(2012-2016年),预计到2030年,全球深度学习研究的98%都将来自中国。

98%可能略显夸张,但是剔除掉各种阻碍因素,国外行业观察者 、AI 研究员 Tim Dettmers认为,到2030年世界上60%的深度学习研究将是在中国完成的。他也指出一个现实,以目前中国国内生产总值增长率约5%计算,到2030年,中国人均收入仍将只有美国2017年人均收入的80%左右。基于这一数据,平均每位研究人员可能无法使用多于一个或两个GPU(或当时的等效物)。

在这种情况下,如果计算形式没能取得突破,对于深度学习的发展将会构成一个难以跨越的难题。

AI专用芯片可以看成是对解决这一难题的一种探索,也成为了2017年AI领域发展的一大热门。9月7日,一场关于 AI 时代新的计算形式的行业盛会——首届人工智能计算大会(AI Computing Conference,简称AICC)将在北京举行。大会将围绕AI计算创新主题进行研讨,并分享AI在互联网、云计算、超算、安防、医疗、能源、电商、智慧城市等众多行业的创新实例,共展创新愿景并实现跨学科交流进步。

AICC大会由中国工程院信息与电子工程学部主办、浪潮集团承办,以“创新计算赋能AI”为主题,主旨是围绕AI当下需求及未来发展,从计算创新着眼,联合从事AI计算及应用的公司、用户、专家、开发者共同打造探讨促进AI计算的交流合作平台,推动AI产业的可持续发展。

计算、数据、算法是此次AI浪潮的三大推动力,AI计算的不断创新直接推动着AI算法的快速发展及数据应用的快速落地。本次人工智能计算大会将设置主论坛与专业论坛,邀请众多顶尖专家现场开讲,力求从AI发展趋势、计算创新与框架优化、产业创新与行业应用、人才培训发展等入手,全维度促进AI计算技术的创新与发展。

在主论坛上,权威专家将聚焦AI计算趋势研讨,包括中国工程院王恩东院士、李德毅院士、微软技术院士黄学东、集群超算架构创始人Thomas Sterling、浪潮副总裁胡雷钧、国家超算无锡中心主任杨广文、百度人工智能技术委员会主席朱勇、旷视科技首席科学家孙剑、深度学习框架评测专家褚晓文、Uber机器学习主任王鲁明等业界专家,将带来人工智能计算与应用的精彩前沿报告。

专业论坛将重点分享如何更好利用计算推动AI重构行业,包括AI+计算创新、AI+互联网、AI+HPC融合和AI+产业创新等四大论坛。英特尔、英伟达、浪潮、阿里、腾讯、科大讯飞、今日头条、苏宁、中国移动、中国石化、平安科技等业界领先的AI公司的专家,将分享各领域的AI技术与应用进展。

此外,在9月6日举行的人工智能计算技术培训营上,有来自英特尔、英伟达、浪潮的AI技术专家为参训者现场讲解如何基于MIC、FPGA和GPU等领先计算技术构建AI深度学习应用。

AICC战略直播媒体新智元独家直播

image

作为本次大会的战略直播媒体,新智元将深度参与本次大会,并在大会现场带来报道,同时在新智元的专家社群中对大会盛况进行图文直播。

大会议程


image
image

演讲嘉宾(部分)

image
image

原文发布时间为:2017-09-04
本文来自云栖社区合作伙伴新智元,了解相关信息可以关注“AI_era”微信公众号
原文链接

相关文章
|
15天前
|
存储 人工智能 算法
【AI系统】计算与调度
本文探讨了计算与调度的概念,特别是在神经网络和图像处理中的应用。通过分离算法定义和计算组织,Halide 等工具能够显著提升图像处理程序的性能,同时保持代码的简洁性和可维护性。文章详细介绍了计算与调度的基本概念、调度树的构建与约束,以及如何通过调度变换优化计算性能。此外,还讨论了自动调优方法在大规模调度空间中的应用,展示了如何通过探索和预测找到最优的调度方案。
35 0
|
8天前
|
人工智能 缓存 并行计算
转载:【AI系统】CPU 计算本质
本文深入探讨了CPU计算性能,分析了算力敏感度及技术趋势对CPU性能的影响。文章通过具体数据和实例,讲解了CPU算力的计算方法、算力与数据加载之间的平衡,以及如何通过算力敏感度分析优化计算系统性能。同时,文章还考察了服务器、GPU和超级计算机等平台的性能发展,揭示了这些变化如何塑造我们对CPU性能的理解和期待。
转载:【AI系统】CPU 计算本质
|
8天前
|
机器学习/深度学习 存储 人工智能
转载:【AI系统】计算之比特位宽
本文详细介绍了深度学习中模型量化操作及其重要性,重点探讨了比特位宽的概念,包括整数和浮点数的表示方法。文章还分析了不同数据类型(如FP32、FP16、BF16、FP8等)在AI模型中的应用,特别是FP8数据类型在提升计算性能和降低内存占用方面的优势。最后,文章讨论了降低比特位宽对AI芯片性能的影响,强调了在不同应用场景中选择合适数据类型的重要性。
转载:【AI系统】计算之比特位宽
|
11天前
|
机器学习/深度学习 人工智能 前端开发
【AI系统】计算图的控制流实现
计算图作为有向无环图(DAG),能够抽象神经网络模型,但在编程中遇到控制流语句(如if、else、while、for)时,如何表示成为难题。引入控制流后,开发者可构建更复杂的模型结构,但部署含控制流的模型至不支持Python的设备上较为困难。目前,PyTorch仅支持Python控制流,而TensorFlow通过引入控制流原语来解决此问题。计算图的动态与静态实现各有优劣,动态图易于调试,静态图利于优化。
37 5
【AI系统】计算图的控制流实现
|
11天前
|
机器学习/深度学习 人工智能 算法
【AI系统】计算图挑战与未来
当前主流AI框架采用计算图抽象神经网络计算,以张量和算子为核心元素,有效表达模型计算逻辑。计算图不仅简化数据流动,支持内存优化和算子调度,还促进了自动微分功能的实现,区分静态图和动态图两种形式。未来,计算图将在图神经网络、大数据融合、推理部署及科学计算等领域持续演进,适应更复杂的计算需求。
44 5
【AI系统】计算图挑战与未来
|
11天前
|
机器学习/深度学习 人工智能 PyTorch
【AI系统】计算图基本介绍
近年来,AI框架如TensorFlow和PyTorch通过计算图描述神经网络,推动了AI技术的发展。计算图不仅抽象了神经网络的计算表达,还支持了模型算子的高效执行、梯度计算及参数训练。随着模型复杂度增加,如MOE、GAN、Attention Transformer等,AI框架需具备快速分析模型结构的能力,以优化训练效率。计算图与自动微分紧密结合,实现了从前向计算到反向传播的全流程自动化。
35 4
【AI系统】计算图基本介绍
|
12天前
|
存储 机器学习/深度学习 人工智能
【AI系统】计算图优化架构
本文介绍了推理引擎转换中的图优化模块,涵盖算子融合、布局转换、算子替换及内存优化等技术,旨在提升模型推理效率。计算图优化技术通过减少计算冗余、提高计算效率和减少内存占用,显著改善模型在资源受限设备上的运行表现。文中详细探讨了离线优化模块面临的挑战及解决方案,包括结构冗余、精度冗余、算法冗余和读写冗余的处理方法。此外,文章还介绍了ONNX Runtime的图优化机制及其在实际应用中的实现,展示了如何通过图优化提高模型推理性能的具体示例。
44 4
【AI系统】计算图优化架构
|
12天前
|
机器学习/深度学习 存储 人工智能
【AI系统】自定义计算图 IR
本文介绍了模型转换的方法及流程,重点讲解了计算图的自定义方法和优化技术。通过IR(Intermediate Representation)将不同AI框架的模型转换为统一格式,实现跨平台高效部署。计算图由张量和算子构成,支持多种数据类型和内存排布格式,通过算子融合等优化技术提高模型性能。文章还详细说明了如何使用FlatBuffers定义计算图结构,包括张量、算子和网络模型的定义,为自定义神经网络提供了实践指南。
30 3
【AI系统】自定义计算图 IR
|
11天前
|
人工智能 调度 算法框架/工具
【AI系统】计算图的调度与执行
深度学习训练过程涉及前向计算、计算损失及更新权重参数。AI框架通过计算图统一表示训练过程,算子作为计算图的节点,由后端硬件高效执行。计算图调度包括算子间的调度、并发调度和异构调度,确保计算资源的有效利用。图执行模式分为单算子执行、整图下沉执行和图切分多设备执行,适应不同场景需求。以PyTorch为例,其算子执行通过两次调度选择合适的Kernel进行张量操作,并支持自动求导。
42 5
|
15天前
|
机器学习/深度学习 人工智能 API
【AI系统】昇腾异构计算架构 CANN
本文介绍了昇腾 AI 异构计算架构 CANN,涵盖硬件层面的达·芬奇架构和软件层面的全栈支持,旨在提供高性能神经网络计算所需的硬件基础和软件环境。通过多层级架构,CANN 实现了高效的 AI 应用开发与性能优化,支持多种主流 AI 框架,并提供丰富的开发工具和接口,助力开发者快速构建和优化神经网络模型。
36 1