Tarsier2:字节跳动开源专注于图像和视频内容理解的视觉语言大模型

简介: Tarsier2 是字节跳动推出的大规模视觉语言模型,支持高质量视频描述、问答与定位,在多个视频理解任务中表现优异。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日分享大模型与 AI 领域的最新开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦


🚀 快速阅读

  1. 模型特点:Tarsier2 是字节跳动推出的大规模视觉语言模型,支持高质量视频描述、问答与定位。
  2. 技术升级:通过扩展预训练数据、细粒度时间对齐和直接偏好优化(DPO)训练,显著提升模型性能。
  3. 应用场景:适用于视频描述、幻觉测试、多语言支持和具身问答等任务。

正文(附运行示例)

Tarsier2 是什么

tarsier2

Tarsier2 是字节跳动推出的大规模视觉语言模型(LVLM),旨在生成高质量的视频描述,并在多种视频理解任务中表现出色。该模型通过三个关键升级实现性能提升:将预训练数据从1100万扩展到4000万视频文本对,丰富了数据量和多样性;在监督微调阶段执行精细的时间对齐;基于模型采样自动构建偏好数据,应用直接偏好优化(DPO)训练。

在 DREAM-1K 基准测试中,Tarsier2-7B 的 F1 分数比 GPT-4o 高出 2.8%,比 Gemini-1.5-Pro 高出 5.8%。在 15 个公共基准测试中取得了新的最佳结果,涵盖视频问答、视频定位、幻觉测试和具身问答等任务。

Tarsier2 的主要功能

  • 详细视频描述:Tarsier2 能生成高质量的视频描述,覆盖视频中的各种细节,包括动作、场景和情节。
  • 视频问答:能回答关于视频的具体问题,展现出强大的时空理解和推理能力。
  • 视频定位:Tarsier2 可以检测并定位视频中特定事件的发生时间,支持多视频段的定位。
  • 幻觉测试:通过优化训练策略,Tarsier2 显著减少了模型生成虚假信息的可能性。
  • 多语言支持:支持多种语言的视频描述生成,进一步拓展了其应用场景。

Tarsier2 的技术原理

  • 大规模预训练数据:Tarsier2 将预训练数据从1100万扩展到4000万视频-文本对,提升了数据的规模和多样性。
  • 细粒度时间对齐的监督微调(SFT):在监督微调阶段,Tarsier2 引入了15万条细粒度标注的视频描述数据,每条描述都对应具体的时间戳。
  • 直接偏好优化(DPO):Tarsier2 通过模型采样自动构建偏好数据,应用直接偏好优化(DPO)进行训练,确保生成的视频描述更符合人类的偏好。

如何运行 Tarsier2

1. 环境配置

首先,确保你的 Python 版本为 3.9。如果不是,可以通过以下命令创建虚拟环境:

conda create -n tarsier python=3.9

然后运行以下命令进行环境配置:

git clone https://github.com/bytedance/tarsier.git
cd tarsier
bash setup.sh

2. 模型准备

从 Hugging Face 下载模型检查点:

3. 快速启动

使用以下脚本快速启动视频详细描述:

MODEL_NAME_OR_PATH="path_to_the_model"
VIDEO_FILE="assets/videos/coffee.gif"

python3 -m tasks.inference_quick_start \
  --model_name_or_path $MODEL_NAME_OR_PATH \
  --instruction "Describe the video in detail." \
  --input_path $VIDEO_FILE

运行结果将生成详细的视频描述。

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日分享大模型与 AI 领域的最新开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦

相关文章
|
4月前
|
分布式计算 测试技术 Spark
科大讯飞开源星火化学大模型、文生音效模型
近期,科大讯飞在魔搭社区(ModelScope)和Gitcode上开源两款模型:讯飞星火化学大模型Spark Chemistry-X1-13B、讯飞文生音频模型AudioFly,助力前沿化学技术研究,以及声音生成技术和应用的探索。
406 2
|
4月前
|
存储 编解码 监控
针对3-15分钟视频的抽帧策略:让Qwen2.5 VL 32B理解视频内容
针对3-15分钟视频,提出高效抽帧策略:通过每5-10秒定间隔或关键帧检测方法,提取30-100帧关键图像,结合时间均匀采样与运动变化捕捉,降低冗余,提升Qwen2.5 VL 32B对视频内容的理解效率与准确性。
|
4月前
|
机器学习/深度学习 数据采集 人工智能
通义实验室Mobile-Agent-v3开源,全平台SOTA的GUI智能体,支持手机电脑等多平台交互
近日,通义实验室MobileAgent团队正式开源全新图形界面交互基础模型 GUI-Owl,并同步推出支持多智能体协同的自动化框架 Mobile-Agent-v3。该模型基于Qwen2.5-VL打造,在手机端与电脑端共8个GUI任务榜单中全面刷新开源模型性能纪录,达成全平台SOTA。
1445 2
|
4月前
|
人工智能 Rust 并行计算
AI大模型开发语言排行
AI大模型开发涉及多种编程语言:Python为主流,用于算法研发;C++/CUDA优化性能;Go/Rust用于工程部署;Java适配企业系统;Julia等小众语言用于科研探索。
1541 127
|
4月前
|
人工智能 Java 开发者
阿里出手!Java 开发者狂喜!开源 AI Agent 框架 JManus 来了,初次见面就心动~
JManus是阿里开源的Java版OpenManus,基于Spring AI Alibaba框架,助力Java开发者便捷应用AI技术。支持多Agent框架、网页配置、MCP协议及PLAN-ACT模式,可集成多模型,适配阿里云百炼平台与本地ollama。提供Docker与源码部署方式,具备无限上下文处理能力,适用于复杂AI场景。当前仍在完善模型配置等功能,欢迎参与开源共建。
2012 58
阿里出手!Java 开发者狂喜!开源 AI Agent 框架 JManus 来了,初次见面就心动~
|
3月前
|
人工智能 缓存 自然语言处理
Java与多模态AI:构建支持文本、图像和音频的智能应用
随着大模型从单一文本处理向多模态能力演进,现代AI应用需要同时处理文本、图像、音频等多种信息形式。本文深入探讨如何在Java生态中构建支持多模态AI能力的智能应用。我们将完整展示集成视觉模型、语音模型和语言模型的实践方案,涵盖从文件预处理、多模态推理到结果融合的全流程,为Java开发者打开通往下一代多模态AI应用的大门。
416 41
|
4月前
|
机器学习/深度学习 人工智能 自然语言处理
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
787 13
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
|
5月前
|
编解码 自然语言处理
通义万相开源14B数字人Wan2.2-S2V!影视级音频驱动视频生成,助力专业内容创作
今天,通义万相的视频生成模型又开源了!本次开源Wan2.2-S2V-14B,是一款音频驱动的视频生成模型,可生成影视级质感的高质量视频。
1313 29

热门文章

最新文章