论文推荐:R1-Omni、VisualPRM、4D LangSplat、Vision-R1、GoT

本文涉及的产品
交互式建模 PAI-DSW,每月250计算时 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
模型训练 PAI-DLC,100CU*H 3个月
简介: 简要介绍:由复旦大学、上海AI实验室等机构提出了首个统一多模态理解和生成的奖励模型UnifiedReward。该工作构建了大规模人类偏好数据集,包含图像和视频生成/理解任务,并利用该模型进行自动构建高质量偏好对数据,最终通过DPO优化视觉模型。实验结果表明,联合学习评估多样化视觉任务可以带来显著的相互益处。

5eecdaf48460cde5d5fb57f04567d5924607b27caa4c0b5458e70b814913bc360a414d3de9277d871abf3af1cbd752490a6821246a42478fac60da290331e111f9ef99549683b2f93c7e273e20172cc2b8c2f1031b0cf01bfc653b69905bac42.gif

作者:InternLM、Qwen 等 LLM每周一览热门论文版,顶会投稿选题不迷惘。快来看看由「机智流」和「ModelScope」社区推荐的上周「多模态」方向的热门论文吧!

Unified Reward Model for Multimodal Understanding and Generation

论文链接:

https://modelscope.cn/papers/124332

简要介绍:由复旦大学、上海AI实验室等机构提出了首个统一多模态理解和生成的奖励模型UnifiedReward。该工作构建了大规模人类偏好数据集,包含图像和视频生成/理解任务,并利用该模型进行自动构建高质量偏好对数据,最终通过DPO优化视觉模型。实验结果表明,联合学习评估多样化视觉任务可以带来显著的相互益处。

核心图片:

image.png

GoT: Unleashing Reasoning Capability of Multimodal Large Language Model for Visual Generation and Editing

论文链接:

https://modelscope.cn/papers/126628

简要介绍:提出了Generation Chain-of-Thought (GoT),这是一种将推理能力融入视觉生成和编辑的新范式。该工作将常规的文本到图像生成和编辑转变为推理引导框架,分析语义关系和空间排列。研究团队构建了包含900万样本的大规模GoT数据集,并开发了一个统一框架,整合了Qwen2.5-VL的推理能力和扩散模型的生成能力。

核心图片:

image.png

Taking Notes Brings Focus? Towards Multi-Turn Multimodal Dialogue Learning

论文链接:

https://modelscope.cn/papers/125186

简要介绍:该研究介绍了MMDiag,一个多轮多模态对话数据集,通过精心设计的规则和GPT辅助生成,特点是问题之间、问题与图像之间以及不同图像区域之间的强相关性。同时提出了DiagNote,一个具备多模态定位和推理能力的MLLM,包含两个相互作用的模块(Deliberate和Gaze),在多轮对话中执行思维链和注释。

核心图片:

image.png

R1-Omni: Explainable Omni-Multimodal Emotion Recognition with Reinforcing Learning

论文链接:

https://modelscope.cn/papers/124176

简要介绍:这项工作首次将可验证奖励强化学习(RLVR)应用于全模态大型语言模型用于情感识别,这是一项视觉和音频模态都起关键作用的任务。研究利用RLVR优化Omni模型,在三个关键方面显著提升其性能:推理能力、情感识别准确性和泛化能力。这种方法不仅提高了模型在分布内数据上的整体性能,还在分布外数据集评估中展示了更强的鲁棒性。

VisualPRM: An Effective Process Reward Model for Multimodal Reasoning

论文链接:

https://modelscope.cn/papers/126372

简要介绍:由清华大学、上海AI实验室等机构提出了VisualPRM,一个拥有8B参数的多模态过程奖励模型,它通过Best-of-N评估策略显著提升了现有多模态大语言模型的推理能力。该模型改进了三种类型、四种不同规模的MLLM的推理性能,即使应用于InternVL2.5-78B这样的高能力模型,也在七项多模态推理基准上获得了5.9点的提升。

核心图片:

image.png

UniF^2ace: Fine-grained Face Understanding and Generation with Unified Multimodal Models

论文链接:

https://modelscope.cn/papers/125793

简要介绍:研究提出了UniF^2ace,这是第一个专为精细人脸理解和生成设计的统一多模态模型(UMM)。该模型通过两种互补的扩散技术和两级专家混合架构,在特制的数据集上进行训练。团队构建了大规模人脸数据集UniF^2ace-130K,包含13万图像-文本对和100万问答对,涵盖广泛的人脸属性,并建立了离散扩散分数匹配和掩码生成模型之间的理论联系。

核心图片:

image.png

4D LangSplat: 4D Language Gaussian Splatting via Multimodal Large Language Models

论文链接:

https://modelscope.cn/papers/126311

简要介绍:这项工作提出了4D LangSplat,一种学习4D语言场的方法,以便在动态场景中处理时间敏感或时间无关的开放词汇查询。该方法绕过了从视觉特征学习语言场的传统途径,而是直接从多模态大语言模型(MLLM)生成的对象级视频描述文本中学习。研究提出了多模态对象级视频提示方法,生成详细、时间一致的高质量描述,并使用大语言模型将这些描述编码为高质量句子嵌入。

核心图片:

image.png

Vision-R1: Incentivizing Reasoning Capability in Multimodal Large Language Models

论文链接:

https://modelscope.cn/papers/124832

简要介绍:受DeepSeek-R1-Zero成功通过强化学习(RL)激发LLM推理能力的启发,该研究探索了如何利用RL提升多模态大语言模型(MLLM)的推理能力。研究者提出了Vision-R1,通过利用现有MLLM和DeepSeek-R1通过模态桥接和数据过滤构建了20万多模态思维链数据集作为冷启动初始化数据,并提出了渐进思维抑制训练(PTST)策略来减轻冷启动后过度思考的优化挑战。

核心图片:

image.png

VisualWebInstruct: Scaling up Multimodal Instruction Data through Web Search

论文链接:

https://modelscope.cn/papers/126288

简要介绍:研究团队提出了VisualWebInstruct,一种利用搜索引擎创建多样化高质量数据集的新方法,涵盖数学、物理、金融、化学等多个学科。从精心挑选的3万种子图像开始,通过Google图像搜索识别包含类似图像的网站,收集并处理了来自70万唯一URL源的HTML。通过内容提取、过滤和合成管道,构建了约90万问答对的数据集,其中40%为视觉QA对,其余为文本QA对。

核心图片:

image.png

OmniMamba: Efficient and Unified Multimodal Understanding and Generation via State Space Models

论文链接:

https://modelscope.cn/papers/125368

简要介绍:由华中科技大学等机构提出了OmniMamba,这是首个基于线性架构的多模态生成模型,通过统一的下一个令牌预测范式同时生成文本和图像。该模型充分利用Mamba-2的高计算和内存效率,将其功能从文本生成扩展到多模态生成。为解决现有统一模型的数据效率问题,提出了两项关键创新:解耦词汇表来引导特定模态生成,以及用于参数高效适应的任务特定LoRA。

核心图片:

image.png

目录
打赏
0
1
1
1
231
分享
相关文章
Azure Machine Learning - 如何使用 GPT-4 Turbo with Vision
Azure Machine Learning - 如何使用 GPT-4 Turbo with Vision
220 0
Vision Transformer 必读系列之图像分类综述(二): Attention-based(上)
Transformer 结构是 Google 在 2017 年为解决机器翻译任务(例如英文翻译为中文)而提出,从题目中可以看出主要是靠 Attention 注意力机制,其最大特点是抛弃了传统的 CNN 和 RNN,整个网络结构完全是由 Attention 机制组成。为此需要先解释何为注意力机制,然后再分析模型结构。
960 0
Vision Transformer 必读系列之图像分类综述(二): Attention-based(上)
AIGC基础模型——Vision Transformer (ViT)
【1月更文挑战第12天】AIGC基础模型——Vision Transformer (ViT)
355 6
AIGC基础模型——Vision Transformer (ViT)
[RoBERTa]论文实现:RoBERTa: A Robustly Optimized BERT Pretraining Approach
[RoBERTa]论文实现:RoBERTa: A Robustly Optimized BERT Pretraining Approach
146 0
【论文精读】COLING 2022-KiPT: Knowledge-injected Prompt Tuning for Event Detection
事件检测旨在通过识别和分类事件触发词(最具代表性的单词)来从文本中检测事件。现有的大部分工作严重依赖复杂的下游网络,需要足够的训练数据。
211 0
【论文精读】COLING 2022-KiPT: Knowledge-injected Prompt Tuning for Event Detection
Swin Transformer Hierarchical Vision Transformer using Shifted Windows论文解读
本文提出了一种新的Vision Transformer,称为Swin Transformer,它能够作为计算机视觉的通用骨干网络。将Transformer从语言转化为视觉的挑战来自于两个领域之间的差异
289 0
计算机视觉论文速递(九)EfficientFormer: Vision Transformers at MobileNet Speed 轻量化实时推理的Transformer模型
Vision Transformers (ViT) 在计算机视觉任务中取得了快速进展,在各种基准测试中取得了可喜的成果。然而,由于大量的参数和模型设计,例如注意力机制,基于 ViT 的模型通常比轻量级卷积网络慢几倍。因此,应用部署 ViT 具有很大的挑战性,尤其是在移动设备等资源受限的硬件上。
381 0

热门文章

最新文章