社区供稿 | 达摩院多模态对话大模型猫头鹰mPLUG-Owl大升级,登顶MMBench

本文涉及的产品
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
模型训练 PAI-DLC,5000CU*H 3个月
交互式建模 PAI-DSW,每月250计算时 3个月
简介: 近日,在上海人工智能实验室发布的多模态大模型榜单MMBench中,来自达摩院的mPLUG-Owl 超过MiniGPT4,LLaVA,VisualGLM等14个多模态大模型,登顶榜首。目前,mPLUG-Owl最新的预训练,SFT模型都已在ModelScope开源,欢迎大家体验。

,在上海人工智能实验室发布的多模态大模型榜单MMBench中,来自达摩院的mPLUG-Owl 超过MiniGPT4,LLaVA,VisualGLM等14个多模态大模型,登顶榜首。目前,mPLUG-Owl最新的预训练,SFT模型都已在ModelScope开源,欢迎大家体验。



据悉,达摩院模块化多模态对话大模型mPLUG-Owl进行了大升级,通过加入细粒度预训练,多样性的指令微调提升模型多维度综合能力。除本次在MMBench登顶的优异成绩外,多模态模块化基础模型mPLUG-2也获得CVPR2023 STAR Challenge Best Performance Award,论文已被ICML2023接收。


模型架构与训练


mPLUG-Owl采用两阶段训练策略混合指令增强提升模型多维度综合能力:

一阶段:训练视觉相关的模块(Visual Encoder和Visual Abstractor),使得模型能够关联视觉知识和文本知识的能力;


二阶段:将对齐好的视觉模块的文本模型进行冻结,利用非常少量的参数(~4M)对语言模型进行微调;


混合指令增强:基于文本和多模态数据联合训练,使得其能够在保证文本能力的基础上理解多模态的指令。


ModelScope实战

快速上手mPLUG系列模型,仅需在ModelScope中搜索mPLUG,即可出现mPLUG相关模型


接下来,我们以图像描述和多模态对话为例,用户需安装最新版的ModelScope。


图像/视频描述

于图像描述或者视频描述,用户仅需提供一张图像或者视频的链接,并使用以下代码:

# 图像描述
from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks
model_id = 'damo/mplug_image-captioning_coco_base_en'
input_caption = 'https://alice-open.oss-cn-zhangjiakou.aliyuncs.com/mPLUG/image_captioning.png'
pipeline_caption = pipeline(Tasks.image_captioning, model=model_id)
result = pipeline_caption(input_caption)
print(result)
# >>> {'caption': 'the man is angry'}
# 视频描述
from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks
model_id = 'damo/multi-modal_hitea_video-captioning_base_en'
input_caption = 'http://xke-repo.oss-cn-hangzhou.aliyuncs.com/models/release/vid_hitea_videocap.avi'
pipeline_caption = pipeline(Tasks.video_captioning, model=model_id)
result = pipeline_caption(input_caption)
print(result)
# >>> {'caption': 'potato is being peeled'}


多模态对话

对于多模态对话,用户需要提供想要问的问题或者图片,即可获得回复:

from modelscope.pipelines import pipeline
chatbot = pipeline('multimodal-dialogue', 'damo/multi-modal_mplug_owl_multimodal-dialogue_7b')
image = 'http://mm-chatgpt.oss-cn-zhangjiakou.aliyuncs.com/mplug_owl_demo/released_checkpoint/portrait_input.png'
system_prompt_1 = 'The following is a conversation between a curious human and AI assistant.'
system_prompt_2 = "The assistant gives helpful, detailed, and polite answers to the user's questions."
messages = {
    'messages': [
        {'role': 'system', 'content': system_prompt_1 + ' ' + system_prompt_2},
        {'role': 'user', 'content': [{'image': image}]},
        {'role': 'user', 'content': 'Describe the mood of the man.'},
    ]
}
print(chatbot(messages))
# >>> {'text': 'The man is angry and frustrated, as he is clenching his fists and scowling.'}

除了上述mPLUG-Owl的多模态对话模型,我们还在ModelScope上提供包括多模态图像问答、图像描述、图像检索、视频描述、视频问答、预训练模型等数款涵盖中英文的mPLUG系列模型,欢迎体验与使用。


创空间体验

我们在创空间上提供了mPLUG-Owl系列模型的多模态对话Demo,可在线体验,用户仅需在创空间首页搜索mPLUG,即可体验英语版和多语言版的mPLUG-Owl,文档大模型mPLUG-DocOwl。


英文版:

https://www.modelscope.cn/studios/damo/mPLUG-Owl/summary


多语言版:

https://www.modelscope.cn/studios/damo/mPLUG-Owl-Bilingual/summary


文档大模型:

https://www.modelscope.cn/studios/damo/mPLUG-DocOwl/summary


进入对应的创空间后,用户仅需上传图片/视频,即可与mPLUG-Owl进行对话:


示例一:


示例二:


示例三:


示例四:


示例五


https://www.modelscope.cn/studios/damo/mPLUG-Owl-Bilingual/summary



相关文章
|
3天前
|
安全 机器人 开发者
清华开源全球最大双臂机器人扩散大模型RDT,懂调酒能遛狗,登顶HF具身热榜
清华大学近期发布了全球最大的双臂机器人扩散大模型RDT,该模型在调酒、遛狗等任务上表现优异,登顶Hugging Face具身智能热榜。RDT采用扩散架构,具备强大的学习能力,能生成高质量的机器人动作序列,展示了清华在机器人技术领域的领先水平。尽管面临泛化能力、计算资源及安全性等挑战,RDT的开源特性仍为其广泛应用和发展提供了广阔前景。
18 8
|
1月前
|
自然语言处理 语音技术
交大x-lance跨媒体语言智能实验室等联合开源F5-TTS!零样本语音复刻,生成流畅,情感丰富!
上海交大x-lance跨媒体语言智能实验室联合剑桥大学、吉利汽车研究院(宁波)公司开源了一种基于流匹配的扩散变换器(Diffusion Transformer,DiT)的完全非自回归TTS模型-F5-TTS。
|
3月前
|
存储 人工智能 编解码
大模型检索X一键成片,巴黎奥运的AI新演绎
巴黎奥运会,AI上演媒体新科技。
121 10
大模型检索X一键成片,巴黎奥运的AI新演绎
|
3月前
|
自然语言处理 语音技术
|
4月前
|
机器学习/深度学习 人工智能 自然语言处理
哈佛、麻省推出面向医学多模态助手—PathChat
【7月更文挑战第18天】哈佛+麻省理工推出PathChat,多模态AI助手革新医学病理学。融合Vision-Language模型,PathChat能处理自然语言和医学图像,提供高准确性的诊断支持与文本描述。在实验中,其性能超越同类产品,但面临数据偏见、可解释性及临床应用验证的挑战。[ Nature article: https://www.nature.com/articles/s41586-024-07618-3 ]**
138 3
|
5月前
|
人工智能 人机交互 语音技术
让大模型更懂你的情绪——通义实验室与中科院自动化所联合开源中英双语共情语音对话模型BLSP-Emo
BLSP-Emo模型展示了情感智能在人机交互中的重要性,未来的多模态模型将更加注重情感的识别和表达,使得机器能够更加准确地理解和回应用户的情感状态,甚至生成富有情感的语音反馈。同时,BLSP-Emo展示了将副语言信号对齐到大语言模型语义空间的可能性,我们期待着更加人性化、更具有共情力的对话交互模型的出现。
|
6月前
|
数据采集 人工智能 JSON
跨越千年医学对话:用AI技术解锁中医古籍知识,构建能够精准问答的智能语言模型,成就专业级古籍解读助手(LLAMA)
跨越千年医学对话:用AI技术解锁中医古籍知识,构建能够精准问答的智能语言模型,成就专业级古籍解读助手(LLAMA)【2月更文挑战第1天】
 跨越千年医学对话:用AI技术解锁中医古籍知识,构建能够精准问答的智能语言模型,成就专业级古籍解读助手(LLAMA)
|
人工智能 自然语言处理 安全
清华系面壁智能开源中文多模态大模型VisCPM :支持对话文图双向生成,吟诗作画能力惊艳
清华系面壁智能开源中文多模态大模型VisCPM :支持对话文图双向生成,吟诗作画能力惊艳
600 0
|
11月前
|
数据采集 人工智能 自然语言处理
社区供稿 | 猎户星空发布Yi系列微调34B-Chat模型,开源免费,中英兼备全面领先!
OrionStar-Yi-34B-Chat中英文大模型集高性能、完全开源、免费可商用等诸多优势于一身
|
达摩院 文字识别 物联网
达摩院猫头鹰mPLUG-Owl亮相:模块化多模态大模型,追赶GPT-4多模态能力
达摩院猫头鹰mPLUG-Owl亮相:模块化多模态大模型,追赶GPT-4多模态能力
284 0

热门文章

最新文章