百度亮相NeurIPS 首届Expo:向世界科普了一次中国自动机器学习框架

本文涉及的产品
模型训练 PAI-DLC,100CU*H 3个月
交互式建模 PAI-DSW,每月250计算时 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
简介: 在 NeurIPS 的第一届 Expo 上,百度向 NeurIPS 2018 年大会参与者展现了什么?

近日,国际人工智能顶级会议 NeurIPS 2018 在加拿大蒙特利尔开幕。今年,除了更改了会议名称缩写,与往届 NIPS 还有所不同的是增加了面向产业的 Expo,以 Talk&Panel、Workshop、Demonstration 的形式展现产业界人工智能研究成果。


百度作为国内最早投身 AI 领域的科技巨头,今年不仅数篇学术论文入选 NeurIPS 2018,百度大数据实验室于当地时间 12 月 2 日组织了一场主题为《Common Model Infrastructure》的 Workshop,邀请了来自谷歌、微软、XPrize 的研究者,就自动机器学习这一专题进行分享,百度方面也介绍了自己在这方面的研究成果。


在 Keynote 演讲中,百度大数据实验室主任浣军就百度自动深度学习的技术进展 AutoDL 做了分享。百度深度学习技术平台部总监马艳军介绍了 2016 年百度开源的深度学习框架 PaddlePaddle,及其产业化应用。


百度打造自动化深度学习引擎 AutoDL


2015 年 ResNet 的出现使得深度学习架构的层数和超参数数量暴增,这给研究员搭建和调试优化模型带来了巨大的挑战。自动化机器学习技术能大幅度地减少研究员搭建模型的时间,也为那些缺乏深度学习技能的研究团队提供了一个可以搭建定制化模型的平台。


百度在今年 7 月举办的 AI 开发者大会上首次提出 AutoDL 1.0,利用深度学习来设计深度学习网络架构,并于四个月后的百度世界大会上推出 AutoDL 2.0,进一步完善其功能。浣军表示,百度提出 AutoDL 的目的是希望通过开放、普惠的人工智能让更多中小企业同样能享受到人工智能的红利。


在演讲中,浣军详细介绍了 AutoDL 的设计特色和现有能力。AutoDL 主要由三个部分组成:第一部分是模型设计,即自动化机器学习的神经架构设计方法;第二部分是模型适配,即神经网络如何根据不同的任务目标和硬件设备生成与之适配的模型;第三部分模型迁移,即将预训练好的模型架构应用在特定的小数据集上。


首先是模型设计。和市面上已有的产品相比—包括谷歌的 Cloud AutoML、微软的 Custom Vision Services、亚马逊的 Amazon ML、Salesforce 的 TransmogrifAI —AutoDL 从功能上更完整,能实现包括神经网络结构搜索、自动模型选择、和自动超参数调整等功能,AutoDL 设计效果也居于业内前列。


AutoDL 的搜索方法主要基于深度强化学习,从头开始搜索神经网络架构,即神经架构搜索。AutoDL 的设计架构中,存在一个「模型编码器」和「模型测评器」。「模型编码器」是一个循环神经网络,将构建架构的模块组合在一起获得一个新的网络架构。「模型测评器」训练这个架构并且希望模型架构能够收敛,最后获得新的准确率会作为奖励反馈给「模型编码器」。通过这种循环,AutoDL 相比人工搭建与调试能获得性能更好的模型。

微信图片_20211130160842.jpg

浣军强调说,为了解决自动化机器学习的设计过程所出现过拟合问题,百度的研究员使用了一组正则化方法,包括混合(mix-up)和摇摇(shake-shake),并且开发了基于 Rademacher 复杂度的正则化,来保证泛化能力。以下是实验结果。


微信图片_20211130160839.jpg

其次是模型适配。人工智能应用不只是在云端,如何让庞大的、复杂的深度学习模型在边缘计算以及终端计算上发挥作用,保证模型推理准确性的同时减少模型的规模以适配算力和内存较小的硬件设备,已经成为人工智能技术提供商的主要挑战。今年,模型压缩和自动化机器学习两个领域的交叉研究是工业界热议的话题(可参见机器之心过去报道的韩松和李佳的研究)。


浣军以图像分类和物体识别问题举例,百度实现了文献中的最新进展 3D-FilterMaps。相比于传统卷积层中的一组独立过滤器(Filter),从 3D - FilterMap 中提取的过滤器作为重叠的 3D 子矩阵,相邻过滤器之间的权重共享。由于权重共享,当 3D - FilterMap 生成相同数量的过滤器时,其参数大小比传统卷积层中要学习的滤波器小得多。3D-FilterMaps 的主要作者现在是百度大数据实验室的研究员。


实验证明,在 CIFAR-10 数据集上,压缩后的 ResNet-50 模型在参数数量只有 1/6 的情况下,准确率竟然还提升了 0.04%;压缩后的 DenseNet121 在参数数量只有 1/5 的情况下,准确率只降低了 0.03%。


微信图片_20211130160836.jpg

最后是模型迁移。将预训练好的模型应用在特定的小数据集上是目前主要的迁移方法,它能高效快速地完成部分权重的训练。由于性能受到了特定数据集大小的限制,目前业内已经研究了一些正则化方法,用 SPAR(起点作为参考)来约束目标网络的外层权重。


百度大数据实验室的研究员提出了一种新的正则化转移学习框架—Deep Learning Transfer Using Feature Map With Attention (DELTA),旨在保留目标网络的外层输出,而不是约束神经网络的权重。除了最小化经验损失之外,DELTA 还可以通过约束由注意力机制精确选择的特征图的子集来对齐两个网络的外层输出。实验结果表明,该方法在新任务中(包括家具分类、商品搜索分类、重叠细胞分类等)实现了更高的准确率,优于传统的基准水平。该论文已经递送至 ICLR 2019 。


微信图片_20211130160833.jpg

在和机器之心的交流中,浣军表示,内部应用和外部产业是 AutoDL 的实际应用场景。内部应用有百度零基础定制化训练和服务平台 Easy DL,一站式开发平台 AI Studio,以及可视化大数据分析与开发环境 Jarvis;外部产业运用则有例如工业质量检测,医疗健康管理等。


自动化机器学习还有很长的路要走,目前刚刚处于研发落地的阶段。浣军表示,百度将在未来重点关注深度神经网络本身的不透明、以及自动设计或会带来的不易解释性。


百度深度学习技术平台部总监马艳军在 Workshop 中也同期做了主题演讲。他介绍了 2016 年百度开源的深度学习框架 PaddlePaddle,以及它在产业向的应用。


面向企业与开发者的深度学习平台 PaddlePaddle


2016 年,百度开源 PaddlePaddle 框架,成为国内科技巨头最早开源的深度学习框架。如今经过两年的发展,百度 PaddlePaddle 已经走向成熟,成为适合中国开发者和企业的深度学习工具。


微信图片_20211130160829.jpg


今年 7 月,百度开发者大会正式发布了深度学习平台 PaddlePaddle 3.0,其中开源的新一代深度学习框架 Paddle Fluid 也在不久前更新到了成熟的 1.1.0 版本。马艳军在演讲中向 NeurIPS 2018 参会者介绍了以深度学习框架为核心的套件 PaddlePaddle Suite,它为开发者(或非开发者)提供了完整的深度学习开发流程。如下所示 PaddlePaddle Suite 自底向上提供了核心框架、模块和服务平台「三大件」。


微信图片_20211130160826.jpg


马艳军表示,该套件从数据预处理到模型部署为深度学习的整个开发和应用流程提供了完整的工具。其中核心框架是从头构建模型的基础,具有安全、高效、表现稳定的特性。而模块与组件可以帮助快速训练与试验模型。


他在研讨会中介绍道,现如今各行各业都在尝试运用人工智能,PaddlePaddle Suite 最顶层的服务平台会为开发者提供整体流程支持,在他看来,互联网产业对于人工智能的采用最多。然而,其他产业在相对缺乏专业人才的情况下,EasyDL 可以为完全没有基础的用户提供自动化的机器学习模型。AI Studio 提供了各种竞赛教程与免费 GPU 资源;今年百度 7 月份公布的 Auto DL 可通过网络结构自动化设计技术让更多中小企业运用 AI。


马艳军在接受机器之心专访时曾表示过,「套件中服务平台、核心框架、模块及组件三部分都是相互有联系的,模块与组件都是依托核心框架所做的工具,而平台是基于核心框架与组件所搭建的系统。例如在组件中,Visual DL 能可视化整个训练和测试过程,包括损失函数的变化、模型计算图和中间生成的图像等。而 PARL 是深度强化学习框架性质的组件,它相当于提供了一套强化学习模型、算法和函数等,这些都还是基于核心框架的。」


此外对于 PaddlePaddle 在技术上的优势,马艳军表示其主要体现在官方模型支持、移动端推理加速和超大规模并行训练三方面。在官方模型支持上,Paddle 针对推荐系统、视觉任务和自然语言处理等领域维护了大量优秀且稳定的模型。官方支持不仅表示这些模型是没问题的,同时还表示不论怎样更新 PaddlePaddle,不论在什么环境下,这些模型也都是跑得动的。


在移动端加速方面,马艳军表示 Paddle Mobile 对移动端硬件的支持基本上是所有框架中最完整的,且现在已经支持最主流的 90% GPU。最后,PaddlePaddle 还在超大规模的并行深度学习上有显著特色,对超大规模稠密参数和稀疏参数场景都进行了完善的支持,包括大规模异构计算集群、异步训练和同步训练模式、以及千亿级稀疏特征任务在数百个节点的并行训练。


此次 Workshop 是百度大数据实验室主任浣军博士与圣地亚哥超算中心资深研究员 Dr. Chaitan Baru 共同组织的。Workshop 演讲嘉宾还包括 Google Brain 资深算法工程师 Mr. Quentin de Laroussilhe, Microsoft 资深数据工程师 Mr. Olivier D. Martin,和 XPrize 总经理 Dr. Amir Banifatemi。


小结


除了在 NeurIPS Expo 展会环节组织了一场产学研讨会,作为本届大会的白金赞助商,百度在为期一周的 NeurIPS 2018 大会上还有诸多技术展示。据机器之心了解,今年百度有数篇论文被 NeurIPS 2018 接收,其中一篇为 Spotlight(3.5%)。此外,在 12 月 2 日的 Expo 中,百度还 demo 演示了他们最新的中英同传技术。在 Booth 展示中,除了中英同传技术,百度还向参会者呈现了用于检测眼底疾病的AI 眼底相机。


微信图片_20211130160822.jpg

本届NeurIPS上正在积极地释放着信号:加快人工智能技术落地。产业展会大厅里络绎不绝的人群,正能让我们一窥人工智能愈发宽广的产业落地与应用。


相关实践学习
使用PAI+LLaMA Factory微调Qwen2-VL模型,搭建文旅领域知识问答机器人
使用PAI和LLaMA Factory框架,基于全参方法微调 Qwen2-VL模型,使其能够进行文旅领域知识问答,同时通过人工测试验证了微调的效果。
机器学习概览及常见算法
机器学习(Machine Learning, ML)是人工智能的核心,专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能,它是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。 本课程将带你入门机器学习,掌握机器学习的概念和常用的算法。
相关文章
|
5月前
|
数据采集 自动驾驶 Java
PAI-TurboX:面向自动驾驶的训练推理加速框架
PAI-TurboX 为自动驾驶场景中的复杂数据预处理、离线大规模模型训练和实时智能驾驶推理,提供了全方位的加速解决方案。PAI-Notebook Gallery 提供PAI-TurboX 一键启动的 Notebook 最佳实践
|
机器学习/深度学习 人工智能 算法
Post-Training on PAI (3):PAI-ChatLearn,PAI 自研高性能强化学习框架
人工智能平台 PAI 推出了高性能一体化强化学习框架 PAI-Chatlearn,从框架层面解决强化学习在计算性能和易用性方面的挑战。
|
5月前
|
机器学习/深度学习 人工智能 分布式计算
Post-Training on PAI (1):一文览尽开源强化学习框架在PAI平台的应用
Post-Training(即模型后训练)作为大模型落地的重要一环,能显著优化模型性能,适配特定领域需求。相比于 Pre-Training(即模型预训练),Post-Training 阶段对计算资源和数据资源需求更小,更易迭代,因此备受推崇。近期,我们将体系化地分享基于阿里云人工智能平台 PAI 在强化学习、模型蒸馏、数据预处理、SFT等方向的技术实践,旨在清晰地展现 PAI 在 Post-Training 各个环节的产品能力和使用方法,欢迎大家随时交流探讨。
|
6月前
|
机器学习/深度学习 人工智能 算法
PaperCoder:一种利用大型语言模型自动生成机器学习论文代码的框架
PaperCoder是一种基于多智能体LLM框架的工具,可自动将机器学习研究论文转化为代码库。它通过规划、分析和生成三个阶段,系统性地实现从论文到代码的转化,解决当前研究中代码缺失导致的可复现性问题。实验表明,PaperCoder在自动生成高质量代码方面显著优于基线方法,并获得专家高度认可。这一工具降低了验证研究成果的门槛,推动科研透明与高效。
516 19
PaperCoder:一种利用大型语言模型自动生成机器学习论文代码的框架
|
7月前
|
机器学习/深度学习 算法 数据挖掘
PyTabKit:比sklearn更强大的表格数据机器学习框架
PyTabKit是一个专为表格数据设计的新兴机器学习框架,集成了RealMLP等先进深度学习技术与优化的GBDT超参数配置。相比传统Scikit-Learn,PyTabKit通过元级调优的默认参数设置,在无需复杂超参调整的情况下,显著提升中大型数据集的性能表现。其简化API设计、高效训练速度和多模型集成能力,使其成为企业决策与竞赛建模的理想工具。
252 12
PyTabKit:比sklearn更强大的表格数据机器学习框架
|
6月前
|
机器学习/深度学习 人工智能 自然语言处理
阿里云人工智能平台 PAI 开源 EasyDistill 框架助力大语言模型轻松瘦身
本文介绍了阿里云人工智能平台 PAI 推出的开源工具包 EasyDistill。随着大语言模型的复杂性和规模增长,它们面临计算需求和训练成本的障碍。知识蒸馏旨在不显著降低性能的前提下,将大模型转化为更小、更高效的版本以降低训练和推理成本。EasyDistill 框架简化了知识蒸馏过程,其具备多种功能模块,包括数据合成、基础和进阶蒸馏训练。通过数据合成,丰富训练集的多样性;基础和进阶蒸馏训练则涵盖黑盒和白盒知识转移策略、强化学习及偏好优化,从而提升小模型的性能。
|
8月前
|
人工智能 自然语言处理 算法
MT-MegatronLM:国产训练框架逆袭!三合一并行+FP8黑科技,大模型训练效率暴涨200%
MT-MegatronLM 是摩尔线程推出的面向全功能 GPU 的开源混合并行训练框架,支持多种模型架构和高效混合并行训练,显著提升 GPU 集群的算力利用率。
618 18
|
机器学习/深度学习 数据采集 数据可视化
基于爬虫和机器学习的招聘数据分析与可视化系统,python django框架,前端bootstrap,机器学习有八种带有可视化大屏和后台
本文介绍了一个基于Python Django框架和Bootstrap前端技术,集成了机器学习算法和数据可视化的招聘数据分析与可视化系统,该系统通过爬虫技术获取职位信息,并使用多种机器学习模型进行薪资预测、职位匹配和趋势分析,提供了一个直观的可视化大屏和后台管理系统,以优化招聘策略并提升决策质量。
827 4
|
8月前
|
机器学习/深度学习 人工智能 Java
Java机器学习实战:基于DJL框架的手写数字识别全解析
在人工智能蓬勃发展的今天,Python凭借丰富的生态库(如TensorFlow、PyTorch)成为AI开发的首选语言。但Java作为企业级应用的基石,其在生产环境部署、性能优化和工程化方面的优势不容忽视。DJL(Deep Java Library)的出现完美填补了Java在深度学习领域的空白,它提供了一套统一的API,允许开发者无缝对接主流深度学习框架,将AI模型高效部署到Java生态中。本文将通过手写数字识别的完整流程,深入解析DJL框架的核心机制与应用实践。
507 3
|
10月前
|
机器学习/深度学习 人工智能
Diff-Instruct:指导任意生成模型训练的通用框架,无需额外训练数据即可提升生成质量
Diff-Instruct 是一种从预训练扩散模型中迁移知识的通用框架,通过最小化积分Kullback-Leibler散度,指导其他生成模型的训练,提升生成性能。
286 11
Diff-Instruct:指导任意生成模型训练的通用框架,无需额外训练数据即可提升生成质量

热门文章

最新文章