OpenAI攻克扩散模型短板,清华校友路橙、宋飏合作最新论文

简介: 扩散模型在生成AI领域取得显著成果,但其训练不稳定性和采样速度慢限制了发展。OpenAI与清华校友合作,提出连续时间一致性模型(CMs),通过TrigFlow等创新解决了这些问题,大幅提升了训练稳定性和计算效率,实现了与最优模型相当的样本质量,同时减少了计算资源消耗。

扩散模型作为一类基于扩散过程的生成模型,在生成AI领域取得了显著的成果。然而,其训练过程中的不稳定性以及采样速度的缓慢,一直是限制其发展的重要因素。为了解决这些问题,OpenAI的研究人员与清华校友路橙、宋飏合作,提出了一种简化、稳定和可扩展的连续时间一致性模型(CMs),并在最新论文中进行了详细阐述。

该论文的主要贡献在于,提出了一种简化的理论基础,统一了先前的扩散模型和CMs的参数化方法,并识别出了导致训练不稳定性的根本原因。基于这一分析,研究人员引入了扩散过程参数化、网络架构和训练目标的关键改进。

研究人员提出了一种名为TrigFlow的新型扩散模型公式,该公式结合了EDM(Karras等人,2022;2024)和Flow Matching(Peluchetti,2022;Lipman等人,2022;Liu等人,2022;Albergo等人,2023;Heitz等人,2023)的优点,并大大简化了扩散模型和CMs的公式化。

在TrigFlow的基础上,研究人员对CMs的训练进行了全面的分析,并提出了一种完整的解决方案来解决训练不稳定性的问题。这些改进包括:

-改进的时间条件和自适应组归一化:在网络架构中引入了这些技术,以确保模型在训练过程中的稳定性。
-重新表述训练目标:研究人员对连续时间CMs的训练目标进行了重新表述,并引入了自适应权重和归一化,以及渐进退火,以实现稳定和可扩展的训练。

研究人员在CIFAR-10、ImageNet 64×64和ImageNet 512×512等多个数据集上进行了实验,并取得了显著的成果。他们训练的CMs模型在2个采样步骤内,实现了与之前最佳生成模型相当的样本质量,同时使用的计算量不到之前模型的10%。

具体来说,他们训练的CMs模型在CIFAR-10上的FID得分为2.06,在ImageNet 64×64上的FID得分为1.48,在ImageNet 512×512上的FID得分为1.88。这些结果显示,CMs模型在样本质量方面已经接近或超过了之前的最佳模型,同时使用的计算量大大减少。

优势

1.简化的理论基础:TrigFlow公式的提出,使得扩散模型和CMs的公式化更加简单,有助于理论分析和模型理解。
2.训练稳定性的提高:通过改进的时间条件、自适应组归一化和重新表述训练目标,研究人员显著提高了CMs模型的训练稳定性。
3.可扩展性:CMs模型在多个数据集上都表现出了良好的可扩展性,可以扩展到1.5亿参数的规模,这是目前为止最大的CMs模型。
4.计算效率的提高:CMs模型在保持高样本质量的同时,使用的计算量大大减少,这对于实际应用具有重要意义。

局限性

1.理论复杂性:尽管TrigFlow公式简化了扩散模型和CMs的公式化,但理论分析仍然具有一定的复杂性,可能需要进一步的研究来深入理解。
2.模型规模的限制:尽管CMs模型可以扩展到1.5亿参数的规模,但对于更大规模的数据集或更复杂的任务,可能需要进一步的研究来探索其可扩展性。
3.与其他模型的比较:尽管CMs模型在样本质量和计算效率方面表现出色,但与其他模型(如VSD)的比较可能需要进一步的研究来全面评估其优势和局限性。

论文地址:https://arxiv.org/pdf/2410.11081v1

目录
相关文章
|
1天前
|
安全 机器人 开发者
清华开源全球最大双臂机器人扩散大模型RDT,懂调酒能遛狗,登顶HF具身热榜
清华大学近期发布了全球最大的双臂机器人扩散大模型RDT,该模型在调酒、遛狗等任务上表现优异,登顶Hugging Face具身智能热榜。RDT采用扩散架构,具备强大的学习能力,能生成高质量的机器人动作序列,展示了清华在机器人技术领域的领先水平。尽管面临泛化能力、计算资源及安全性等挑战,RDT的开源特性仍为其广泛应用和发展提供了广阔前景。
13 8
|
3月前
|
机器学习/深度学习 人工智能
清华研究登Nature,首创全前向智能光计算训练架构,戴琼海、方璐领衔
【8月更文挑战第30天】清华大学研究人员在《自然》杂志上发表了一项开创性成果,提出了一种全前向智能光计算训练架构,解决了传统光学AI方法依赖电子计算机模拟和优化的问题,实现了光学系统的自学习和自设计。该架构通过将光学系统映射到参数化神经网络中,消除了反向传播需求,展示了在多个领域的广泛应用前景,如深度光学神经网络和高分辨率散射成像等。这一成果为光学AI的发展开辟了新道路,但实际应用中仍需克服一些挑战。论文详情见:https://www.nature.com/articles/s41586-024-07687-4
46 2
|
4月前
|
机器学习/深度学习 数据采集 人工智能
算法金 | 致敬深度学习三巨头:不愧是腾讯,LeNet问的巨细。。。
**LeNet 摘要** - LeNet 是 Yann LeCun 在 1989 年提出的卷积神经网络,用于手写数字识别,是深度学习和计算机视觉的里程碑。 - 网络结构包括卷积层(C1, C3, C5)、池化层(S2, S4)和全连接层(F6),处理 32x32 灰度图像,最终分类为 10 类。 - 卷积层提取特征,池化层降低维度,全连接层负责分类。激活函数主要使用 Sigmoid。 - LeNet 在 MNIST 数据集上表现优秀,但现代网络常使用 ReLU 激活和更深结构。 - LeNet 的局限性包括网络较浅、Sigmoid 梯度消失问题和平均池化,但其创新为后续 CNN 发展铺平道路
51 1
算法金 | 致敬深度学习三巨头:不愧是腾讯,LeNet问的巨细。。。
|
6月前
|
人工智能 自然语言处理 监控
GPT-4整治学术不端!人大/浙大团队实测7000篇论文,撤稿预测与人类95%一致
【4月更文挑战第15天】中国人民大学和浙江大学的研究团队利用GPT-4模型预测论文撤稿,研究基于3,505篇撤稿及未撤稿论文的推特数据,发现16%的撤稿论文提及含有预警信号,预测准确度高达92.86%。GPT-4预测一致性达95%,为学术诚信监控提供新途径。但研究受限于主观偏见、撤稿原因区分及推特互动等因素。
97 1
GPT-4整治学术不端!人大/浙大团队实测7000篇论文,撤稿预测与人类95%一致
|
机器学习/深度学习 人工智能 自然语言处理
ICML2023杰出论文大幅减少至6篇,北大、武理工校友获奖,大模型水印受青睐
ICML2023杰出论文大幅减少至6篇,北大、武理工校友获奖,大模型水印受青睐
100 0
ICML2023杰出论文大幅减少至6篇,北大、武理工校友获奖,大模型水印受青睐
|
存储 JSON 人工智能
送给大模型的「高考」卷:442人联名论文给大模型提出204个任务,谷歌领衔
送给大模型的「高考」卷:442人联名论文给大模型提出204个任务,谷歌领衔
168 0
送给大模型的「高考」卷:442人联名论文给大模型提出204个任务,谷歌领衔
|
机器学习/深度学习 存储 人工智能
当AI遇上量子化学,这是NeurIPS 2022挑战赛的冠军解决方案
当AI遇上量子化学,这是NeurIPS 2022挑战赛的冠军解决方案
103 0
|
机器学习/深度学习 计算机视觉
大视觉模型方向,计算机视觉顶尖期刊 IJCV 特刊征稿
大视觉模型方向,计算机视觉顶尖期刊 IJCV 特刊征稿
192 0
|
机器学习/深度学习 人工智能 自然语言处理
李飞飞高徒盘点年度十大AI亮点:核聚变、ChatGPT、AlphaFold上榜(1)
李飞飞高徒盘点年度十大AI亮点:核聚变、ChatGPT、AlphaFold上榜
120 0
|
机器学习/深度学习 人工智能 自然语言处理
李飞飞高徒盘点年度十大AI亮点:核聚变、ChatGPT、AlphaFold上榜(3)
李飞飞高徒盘点年度十大AI亮点:核聚变、ChatGPT、AlphaFold上榜
129 0