开发者学堂课程【PAL 平台学习路线:机器学习入门到应用:大咖分享-PAl 与Intel CPU 的多层次合作】学习笔记,与课程紧密联系,让用户快速学习知识。
课程地址:https://developer.aliyun.com/learning/course/855/detail/14136
大咖分享-PAl 与 Intel CPU 的多层次合作
一、多层次合作
阿里云致力于通过以在线服务的公共服务方式,为客户提供安全可靠计算和数据处理能力,最想做的是提供云平台,助力用户更快捷、更敏捷构建AI应用,提高开发应用的速度、迭代,降低整个运营成本,阿里云技学平台PAI 是一站式云原生 AIPASS 平台,首先在建模领域,提供 PAI studio 可视化建模,通过拖拽方式构建自己业务平台,提供PAI dsw 交互式建模平台,提供一键快速拉起的 notebook 服务,PAI DLC 与底层海量 CPU 资源结合,提供超大规模分布式训练能力,建模之后,PAI 平台提供一款叫 elastic algorithm service,端到端的覆盖从数据处理到特征工程到训练到推理服务。PAI 有3点很重要优势,首先应用性,PAI studio 拖拉拽方式,让客户能够快速上手。时间成本是很大的投入,业务不能够在合适时间点上推出,是很大的痛点。在超大规模的情况下,把算力能力发挥到极致,也PAI 平台差异于其他平台核心能力。场景化能力,备受关注互联网行业,金融政务等领域,提供了一系列最佳实践,机器学习平台 PAI 与 Intel 合作贯穿了从硬件到驱动到软件各个层面。推出了第7代高性能服务器,其中包括了 Intel 最新第三代至强处理器,第三代 Intel 至强可扩展处理器提供了强大算力以及很好可扩展性, Inteldior boston 和 Intelavx 512为机器平台提供了很强的优化空间,例如在互联网行业当中,不论在内容推荐,广告推荐,商品推荐领域,需要把内容信息转换成特征信息,需要使用到很多自然语言处理技术,intel DLBOOST 能够大幅提升nlp效率,推升在公共云客户以及专用云客户上使用平台性价比,使用 bf16能够大幅提升 inference 效率,avx512提供了通用的底层算子,Intel 的 bf16在自然语言处理模型上,得到了较好加速,在 burt 和 textCNN 上分别都加速了性能提升,把功能整合到了推理加速工具上,称为pablada,使用户可以较为透明快捷享受到加速,提高服务 qps,降低成本。同时,inte l所提供的 one DNN 深度神经网络,提供了很容易集成能力,降低优化和使用门槛。AI 发展趋势是更加自动化,更多集成 intel 先进软硬件技术,把红利释放给各行各业客户。英特尔对于自己硬件性能理解以及对于在模型上对于训练,对场景上理解形成更好联动,使得用户更加随心所欲进行模型变化,希望双方合作具备较好领先性,能够推动业界平台标准提口,在 benchmark 上进一步发布结果,推动整个 CPU 平台工作演进。