7 Papers & Radios | Stable Diffusion采样速度翻倍;MIT解决神经网络百年难题

简介: 7 Papers & Radios | Stable Diffusion采样速度翻倍;MIT解决神经网络百年难题

本周重要论文包括清华大学朱军教授 TSAIL 团队提出的 DPM-Solver 和 DPM-Solver++ 将扩散模型的快速采样算法提升到极致;MIT 提出的快速高效新型人工智能算法 CfC 实现类似于人脑的神经模拟,速度快且成本低。


目录:


  1. Closed-form Continuous-time Neural Networks
  2. Learning to Explore Distillability and Sparsability: A Joint Framework for Model Compression
  3. InternImage: Exploring Large-Scale Vision Foundation Models with Deformable Convolutions
  4. Galactica: A Large Language Model for Science
  5. DPM-Solver++: Fast Solver for Guided Sampling of Diffusion Probabilistic Models
  6. AI and ML Accelerator Survey and Trends
  7. Large-batch Optimization for Dense Visual Predictions
  8. ArXiv Weekly Radiostation:NLP、CV、ML 更多精选论文(附音频)


论文 1:Closed-form Continuous-time Neural Networks



摘要:随着神经元数量的增加,人工智能模型的训练和计算成本都变得非常高昂。有没有一种模型能够既实现类似于人脑的神经模拟,又速度快成本低呢?MIT 的「liquid」神经网络团队发现了缓解这一瓶颈的方法,即求解两个神经元通过突触相互作用背后的微分方程。


基于此,他们提出了一种快速高效的新型人工智能算法 CfC(closed-form continuous-depth networks),其具有与 liquid 神经网络相同的特征——灵活性、因果性、鲁棒性和可解释性——但速度更快,且可扩展。



推荐:解决神经网络的百年难题,MIT 新模型 Liquid CfC 让模拟大脑动力学成为可能


论文 2:Learning to Explore Distillability and Sparsability: A Joint Framework for Model Compression



摘要:面对越来越深的深度学习模型和海量的视频大数据,人工智能算法对计算资源的依赖越来越高。为了有效提升深度模型的性能和效率,通过探索模型的可蒸馏性和可稀疏性,本文提出了一种基于 “教导主任 - 教师 - 学生” 模式的统一的模型压缩技术。


该成果由人民中科和中科院自动化所联合研究团队合作完成,相关论文发表在人工智能顶级国际期刊 IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI) 上。该成果是首次将 “教导主任” 角色引入模型蒸馏技术,对深度模型的蒸馏与裁剪进行了统一。


基于可蒸馏性与可稀疏性联合学习的模型压缩算法示意图。


推荐:首次将「教导主任」引入模型蒸馏,大规模压缩优于 24 种 SOTA 方法。


论文 3:InternImage: Exploring Large-Scale Vision Foundation Models with Deformable Convolutions



摘要:浦江实验室、清华等的研究人员提出了一种新的基于卷积的基础模型 InternImage,与基于 Transformer 的网络不同,InternImage 以可变形卷积作为核心算子,使模型不仅具有检测和分割等下游任务所需的动态有效感受野,而且能够进行以输入信息和任务为条件的自适应空间聚合。InternImage-H 在 COCO 物体检测上达到 65.4 mAP,ADE20K 达到 62.9,刷新检测分割新纪录。



推荐:用 CNN 做基础模型,可变形卷积 InternImage 实现检测分割新纪录。


论文 4:Galactica: A Large Language Model for Science



摘要:近年来,随着各学科领域研究的进步,科学文献和数据呈爆炸式增长,使学术研究者从大量信息中发现有用的见解变得越来越困难。通常,人们借助搜索引擎来获取科学知识,但搜索引擎不能自主组织科学知识。现在,Meta AI 团队提出了一种新的大型语言模型 Galactica,可以存储、组合和推理科学知识。



推荐:大模型能自己「写」论文了,还带公式和参考文献。


论文 5:DPM-Solver++: Fast Solver for Guided Sampling of Diffusion Probabilistic Models



摘要:清华大学计算机系朱军教授带领的 TSAIL 团队提出 DPM-Solver(NeurIPS 2022 Oral,约前 1.7%)和 DPM-Solver++,将扩散模型的快速采样算法提升到了极致:无需额外训练,仅需 10 到 25 步就可以获得极高质量的采样。



推荐:Stable Diffusion 采样速度翻倍!仅需 10 到 25 步的扩散模型采样算法。


论文 6:AI and ML Accelerator Survey and Trends



摘要:本文关注深度神经网络和卷积神经网络的加速器和处理器,它们的计算量极大。本文主要针对加速器和处理器在推理方面的发展,因为很多 AI/ML 边缘应用极度依赖推理。本文针对加速器支持的所有数字精度类型,但对于大多数加速器,它们的最佳推理性能是 int8 或 fp16/bf16。


表 1 中总结了加速器、卡和整体系统的一些重要元数据。


推荐:总结过去三年,MIT 发布 AI 加速器综述论文。


论文 7:Large-batch Optimization for Dense Visual Predictions



摘要:本文提出了一种大批量训练算法 AGVM (Adaptive Gradient Variance Modulator),不仅可以适配于目标检测任务,同时可以适配各类分割任务。AGVM 可以把目标检测的训练批量大小扩大到 1536,帮助研究人员四分钟训练 Faster R-CNN,3.5 小时把 COCO 刷到 62.2 mAP,均打破了目标检测训练速度的世界纪录。论文被 NeurIPS 2022 接收。


详细对比 AGVM 和传统方法,体现出了本研究方法的优势。


推荐:四分钟内就能训练目标检测器,商汤基模型团队是怎么做到的?

相关文章
|
3月前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于NSCT非采样轮廓波变换和CNN网络人脸识别matlab仿真
本项目展示了一种结合非采样轮廓波变换(NSCT)与卷积神经网络(CNN)的人脸识别系统。通过NSCT提取多尺度、多方向特征,并利用CNN的强大分类能力实现高效识别。项目包括ORL人脸库的训练结果对比,提供Matlab 2022a版本下的完整代码及详细中文注释,另有操作步骤视频指导。
|
机器学习/深度学习 Python
【Python机器学习】实验16 卷积、下采样、经典卷积网络
【Python机器学习】实验16 卷积、下采样、经典卷积网络
83 0
|
机器学习/深度学习 存储 人工智能
7 Papers & Radios | Hinton前向-前向神经网络训练算法;科学家造出「虫洞」登Nature封面
7 Papers & Radios | Hinton前向-前向神经网络训练算法;科学家造出「虫洞」登Nature封面
134 0
|
机器学习/深度学习 人工智能 编解码
7 Papers & Radios | 用神经网络推开数学推理大门;世界首个宏基因组蛋白质图谱
7 Papers & Radios | 用神经网络推开数学推理大门;世界首个宏基因组蛋白质图谱
|
机器学习/深度学习 存储 编解码
一劳永逸—MIT韩松团队开源神经网络的高效部署
一劳永逸—MIT韩松团队开源神经网络的高效部署
338 0
|
机器学习/深度学习 资源调度 分布式计算
PGL图学习之图神经网络GraphSAGE、GIN图采样算法[系列七]
PGL图学习之图神经网络GraphSAGE、GIN图采样算法[系列七]
|
存储 Windows 内存技术
【计算机网络】物理层 : 编码 ( 模拟信号 编码为 数字信号 | 音频信号 PCM 编码 | 抽样 | 量化 | 编码 | 采样定理 )
【计算机网络】物理层 : 编码 ( 模拟信号 编码为 数字信号 | 音频信号 PCM 编码 | 抽样 | 量化 | 编码 | 采样定理 )
299 0
【计算机网络】物理层 : 编码 ( 模拟信号 编码为 数字信号 | 音频信号 PCM 编码 | 抽样 | 量化 | 编码 | 采样定理 )
|
机器学习/深度学习 人工智能 自然语言处理
受显微镜下线虫启发, MIT人工智能实验室推出「液态」神经网络
近日,MIT计算机科学和人工智能实验室(CSAIL)的团队推出了「液态」神经网络,除在训练过程之外,还可以在实践过程中学习,能随着新的数据输入而不断更新模型方程,很好的适应了现实生活的可变性。有趣的是,这个灵感是从对显微镜下线虫的神经元的观察中得来的。
288 0
受显微镜下线虫启发, MIT人工智能实验室推出「液态」神经网络
|
机器学习/深度学习 PyTorch API
图神经网络22-DGL实战:针对边分类任务的邻居采样训练方法
图神经网络22-DGL实战:针对边分类任务的邻居采样训练方法
892 0
|
机器学习/深度学习 算法
【业界首例】MIT新算法骗过神经网络3D物体分类,成功率超90%
在这篇论文中,作者秒速了他们如何在2D和3D情况下生成具有可迁移性的对抗样本。此外,他们还展示了,使用新方法在物理世界中合成和制作这种稳定的3D对抗样本,包括具有复杂形状的物体:在实验中,无论视点、噪声和其他类似的现实世界因素如何,这些对抗样本都保持其攻击性。
1464 0