GAN、扩散模型应有尽有,CMU出品的生成模型专属搜索引擎Modelverse来了

本文涉及的产品
模型训练 PAI-DLC,100CU*H 3个月
交互式建模 PAI-DSW,每月250计算时 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
简介: GAN、扩散模型应有尽有,CMU出品的生成模型专属搜索引擎Modelverse来了

从前几年出尽风头的 GAN 到今年独占鳌头的 Stable Diffusion,预训练生成模型一直风头不减,相关论文、模型也是层出不穷。这就带来了一些问题:如何在众多模型中找到自己想要的那一个?如何找到对应模型的学习资料(比如代码库)?自己做了个新模型如何与更多的人分享(除了发推特)?


近日,卡内基梅隆大学助理教授朱俊彦等人开发了一个名为「Modelverse」的在线分享和搜索平台来解决这些问题。



Modelverse 是一个包含多种深度生成模型的模型共享和搜索平台,例如 GAN、扩散模型和自回归模型,题材包括动物、风景、肖像和艺术品等。你可以在这个平台上查找或者共享深度生成模型。



平台链接:https://modelverse.cs.cmu.edu/


平台提供的搜索方式是多样化的,你可以输入文字检索,也可以输入图像、简笔画或多模态信息检索。



比如,以一张飞机的简笔画作为输入,我们可以得到以下结果:



以大象的图片为输入,我们也能找到可以生成大象图像的 GAN 模型:




,时长00:42

那么,这些功能具体是怎么实现的呢?


在最新公布的论文中,作者进行了详细的介绍。



论文链接:https://arxiv.org/pdf/2210.03116.pdf

该搜索系统由预缓存阶段(a,b)和推理阶段(c)组成。给定一组模型,(a)首先为每个模型生成 50K 的样本。(b)然后将图像编码为图像特征并计算每个模型的一阶和二阶特征统计。统计数据被缓存在系统中,以提高效率。(c)在推理时,系统支持不同模式(文本、图像或草图)的查询。系统将查询编码为特征向量,并评估查询特征与每个模型的统计数据之间的相似性,由此检索具有最佳相似性度量的模型。



搜索结果

模型检索的定性结果。下面展示了三种不同模态的模型检索结果,分别是图像、草图、文本。


该系统还支持多模态查询 (下图左) ,并支持使用模型作为查询来查找相似的模型 (下图右)。



图像重建与编辑。随着生成模型数量的爆发式增长,用户越来越不可能了解每一个有趣的模型,但是为自己的特定用途选择正确的模型可能是至关重要的。下图显示,选择正确的生成模型进行图像查询可以得到更好的转换结果,从而更好地进行潜在空间插值和图像编辑。



但我们可以发现,这个搜索系统还存在一些局限性。如下图(左)所示,有时侯草图查询(例如,鸟的草图)会匹配具有抽象风格的模型。CLIP 特征是否与草图的形状、样式、纹理相匹配是不明确的。如下图(右)所示,对于彼此冲突的多模态查询(大象文本 + 狗图像),系统就难以检索具有这两个概念的模型——排名靠前的模型中没有大象模型。


随着平台上共享的模型越来越多,平台的搜索体验有望逐步改善。

相关文章
|
12天前
|
缓存 算法 物联网
【论文专辑】2024年大模型推理优化论文精选第六期
本文整理了 OSDI 2024 和 SOSP 2024 中与大语言模型(LLM)推理优化相关的10篇论文,涵盖 Parrot、ServerlessLLM、dLoRA 等系统,提出的技术如 Chunked Prefill、Prefix-Caching、P/D分离等已被 vLLM 和 TensorRT-LLM 等主流推理引擎采用。这些研究解决了 LLM 推理中的冷启动延迟、资源分配、KV 缓存管理等问题,提升了推理性能和资源利用率。CodeFuse推理优化项目地址https://github.com/codefuse-ai/EasyDeploy
88 2
|
2月前
|
人工智能 编解码 测试技术
HART:麻省理工学院推出的自回归视觉生成模型
HART(Hybrid Autoregressive Transformer)是麻省理工学院推出的自回归视觉生成模型,能够直接生成1024×1024像素的高分辨率图像,质量媲美扩散模型。HART基于混合Tokenizer技术,显著提升了图像生成质量和计算效率,适用于数字艺术创作、游戏开发、电影和视频制作等多个领域。
52 1
|
3月前
|
机器学习/深度学习 自然语言处理
【绝技揭秘】模型微调与RAG神技合璧——看深度学习高手如何玩转数据,缔造预测传奇!
【10月更文挑战第5天】随着深度学习的发展,预训练模型因泛化能力和高效训练而备受关注。直接应用预训练模型常难达最佳效果,需进行微调以适应特定任务。本文介绍模型微调方法,并通过Hugging Face的Transformers库演示BERT微调过程。同时,文章探讨了检索增强生成(RAG)技术,该技术结合检索和生成模型,在开放域问答中表现出色。通过实际案例展示了RAG的工作原理及优势,提供了微调和RAG应用的深入理解。
127 0
|
8月前
|
机器学习/深度学习 人工智能 自然语言处理
LLM性能最高60%提升!谷歌ICLR 2024力作:让大语言模型学会“图的语言”
【5月更文挑战第1天】谷歌在ICLR 2024提出新方法,使大语言模型(LLM)性能提升高达60%,通过结合图神经网络(GNN),LLM学会理解与生成“图的语言”,打破处理复杂任务的局限。此创新模型适用于社交网络分析等领域,但面临计算资源需求大和模型解释性问题。研究强调需确保LLM在道德和法律框架内使用。论文链接:https://openreview.net/pdf?id=IuXR1CCrSi
268 3
|
机器学习/深度学习 数据采集 人工智能
还不如GAN!谷歌、DeepMind等发文:扩散模型直接从训练集里「抄」
还不如GAN!谷歌、DeepMind等发文:扩散模型直接从训练集里「抄」
280 0
还不如GAN!谷歌、DeepMind等发文:扩散模型直接从训练集里「抄」
|
机器学习/深度学习 算法 数据可视化
CVPR 2023|两行代码高效缓解视觉Transformer过拟合,美图&国科大联合提出正则化方法DropKey
CVPR 2023|两行代码高效缓解视觉Transformer过拟合,美图&国科大联合提出正则化方法DropKey
309 0
清华朱军团队开源首个基于Transformer的多模态扩散大模型,文图互生、改写全拿下(2)
清华朱军团队开源首个基于Transformer的多模态扩散大模型,文图互生、改写全拿下
239 0
|
人工智能 算法 网络架构
清华朱军团队开源首个基于Transformer的多模态扩散大模型,文图互生、改写全拿下(1)
清华朱军团队开源首个基于Transformer的多模态扩散大模型,文图互生、改写全拿下
210 0
|
编解码 人工智能 自然语言处理
ChatGPT爆火之后,视觉研究者坐不住了?谷歌将ViT参数扩大到220亿
ChatGPT爆火之后,视觉研究者坐不住了?谷歌将ViT参数扩大到220亿
170 0
|
机器学习/深度学习 自然语言处理 计算机视觉
扩散模型爆火,这是首篇综述与Github论文分类汇总(2)
扩散模型爆火,这是首篇综述与Github论文分类汇总
345 0

热门文章

最新文章