让AI看懂图像每个像素!英伟达推出多模态大模型 DAM-3B:图像视频局部描述精度提升300%

本文涉及的产品
图像搜索,任选一个服务类型 1个月
简介: 英伟达推出的DAM-3B多模态大语言模型,通过创新的焦点提示技术和局部视觉骨干网络,实现了对图像和视频中特定区域的精准描述生成,为内容创作和智能交互领域带来全新可能。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 丰富的 AI 工具库 -> 每日更新 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦


🎨 「设计师集体失业?英伟达黑科技让AI看懂图像每个像素」

大家好,我是蚝油菜花。你是否也经历过这些视觉AI的尴尬时刻——

  • 👉 让AI描述图片,结果把「蒙娜丽莎」说成「戴珍珠耳环的少女」
  • 👉 视频分析时AI总抓错重点,关键动作永远被忽略
  • 👉 想标注图像局部细节,却要手动写上百字说明...

今天要解密的 DAM-3B ,正在重新定义「视觉理解」!这个由英伟达领衔的多模态核弹:

  • 像素级洞察:通过点选/框选/涂鸦指定区域,生成精准到毛孔的描述
  • 时空双修:视频版能自动追踪运动物体,无视遮挡持续输出分析
  • 工业级精度:在医疗/自动驾驶等专业场景错误率降低72%

已有影视团队用它批量生成分镜脚本,博物馆靠它制作文物细节语音导览——你的视觉AI,是时候进化到「显微镜」模式了!

DAM-3B 是什么

DAM-3B

DAM-3B(Describe Anything 3B)是英伟达推出的多模态大语言模型,专为生成图像和视频中特定区域的详细描述设计。模型通过点、边界框、涂鸦或掩码等方式指定目标区域,能生成精准且符合上下文的描述文本。

DAM-3B的核心创新包括"焦点提示"技术和"局部视觉骨干网络"。焦点提示技术将全图信息与目标区域的高分辨率裁剪图融合,确保细节不失真,同时保留整体背景。局部视觉骨干网络则通过嵌入图像和掩码输入,运用门控交叉注意力机制,将全局特征与局部特征相结合,再传输至大语言模型生成描述。

DAM-3B 的主要功能

  • 区域指定与描述:用户可以通过点、边界框、涂鸦或掩码等方式指定图像或视频中的目标区域,DAM-3B能生成精准且符合上下文的描述文本。
  • 支持静态图像和动态视频:DAM-3B和DAM-3B-Video分别适用于静态图像和动态视频的局部描述。DAM-3B-Video通过逐帧编码区域掩码并整合时间信息,在存在遮挡或运动的情况下,能生成准确的描述。

DAM-3B 的技术原理

  • 焦点提示(Focal Prompt):DAM-3B采用焦点提示技术,将全图信息与目标区域的高分辨率裁剪图相结合。能确保在保留整体背景的同时,不丢失目标区域的细节,生成既精准又符合上下文的描述。
  • 局部视觉骨干网络(Localized Vision Backbone):网络通过嵌入图像和掩码输入,运用门控交叉注意力机制,巧妙地融合全局特征和局部特征。增强了模型对复杂场景的理解,能高效地将特征传递至大语言模型以生成描述。
  • 多模态架构:DAM-3B基于Transformer架构,能处理图像和视频的多模态输入。用户可以通过点选、边界框、涂鸦或掩码等方式指定目标区域,模型随后生成与上下文高度契合的描述。
  • 视频扩展(DAM-3B-Video):DAM-3B-Video版本通过逐帧编码区域掩码并整合时间信息,扩展了模型在动态视频中的应用能力。在存在遮挡或运动的情况下,模型也能生成准确的描述。
  • 数据生成策略:为解决训练数据匮乏的问题,英伟达开发了DLC-SDP半监督数据生成策略。利用分割数据集和未标注的网络图像,构建了包含150万局部描述样本的训练语料库,优化模型的描述质量。

如何运行 DAM-3B

安装

安装 dam 包:

pip install git+https://github.com/NVlabs/describe-anything

或克隆仓库本地安装:

git clone https://github.com/NVlabs/describe-anything
cd describe-anything
pip install -v .

交互式演示

运行完整演示:

cd demo
python app.py

或使用简单Gradio演示:

python demo_simple.py

示例命令

处理单张图像:

python examples/dam_with_sam.py --image_path images/1.jpg --points '[[1172, 812], [1572, 800]]' --output_image_path output_visualization.png

处理视频:

python examples/dam_video_with_sam2.py --video_dir videos/1 --points '[[1824, 397]]' --output_image_dir videos/1_visualization

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 丰富的 AI 工具库 -> 每日更新 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦

相关文章
|
24天前
|
人工智能 自然语言处理 算法
AI智能混剪视频大模型开发方案:从文字到视频的自动化生成·优雅草卓伊凡
AI智能混剪视频大模型开发方案:从文字到视频的自动化生成·优雅草卓伊凡
105 0
AI智能混剪视频大模型开发方案:从文字到视频的自动化生成·优雅草卓伊凡
|
15天前
|
机器学习/深度学习 人工智能 算法
通义OmniAudio大模型,让 AI 看懂 360° 视频,并“听”出对应的空间音频
OmniAudio 是一项突破性的空间音频生成技术,能够直接从 360° 视频生成 FOA(First-order Ambisonics)空间音频,为虚拟现实和沉浸式娱乐带来全新可能。通过自监督 coarse-to-fine 预训练和双分支视频表示微调,OmniAudio 在非空间音频质量和空间定位准确性上显著优于现有方法。项目包含超过 103,000 个视频片段的 Sphere360 数据集,支持高质量的模型训练与评估。代码、数据及论文均已开源,助力沉浸式体验技术发展。
|
13天前
|
机器学习/深度学习 编解码 缓存
通义万相首尾帧图模型一键生成特效视频!
本文介绍了阿里通义发布的Wan2.1系列模型及其首尾帧生视频功能。该模型采用先进的DiT架构,通过高效的VAE模型降低运算成本,同时利用Full Attention机制确保生成视频的时间与空间一致性。模型训练分为三个阶段,逐步优化首尾帧生成能力及细节复刻效果。此外,文章展示了具体案例,并详细说明了训练和推理优化方法。目前,该模型已开源。
|
13天前
|
机器学习/深度学习 编解码 文字识别
小米又放大招!MiMo-VL 多模态大模型开源,魔搭推理微调全面解读来了!
今天,小米开源发布两款 7B 规模视觉-语言模型 MiMo-VL-7B-SFT 和 MiMo-VL-7B-RL。
168 9
|
28天前
|
人工智能 编解码 搜索推荐
通义万相新模型开源,首尾帧图一键生成特效视频!
通义万相首尾帧生视频14B模型正式开源,作为首个百亿级参数规模的开源模型,可依据用户提供的开始与结束图片生成720p高清衔接视频,满足延时摄影、变身等定制化需求。用户上传两张图片或输入提示词即可完成复杂视频生成任务,支持运镜控制和特效变化。该模型基于Wan2.1架构改进,训练数据专门构建,确保高分辨率和流畅性。
|
1月前
|
人工智能 自然语言处理 搜索推荐
阶跃多模态再添一员:阶跃与 ACE Studio 联合开源音乐大模型 ACE-Step!
阶跃多模态再添一员:阶跃与 ACE Studio 联合开源音乐大模型 ACE-Step!
190 10
|
机器学习/深度学习 人工智能 算法
让机器读懂视频:亿级淘宝视频背后的多模态AI算法揭秘 | 开发者必读(142期)
在移动互联网行业整体增速放缓的大背景下,短视频行业异军突起,成为“行业黑洞”抢夺用户时间,尽管移动互联网人口红利见顶,新的增长点难以寻觅,但中国短视频人均使用时长及头部短视频平台日均活跃用户均持续增常,在淘宝,短视频业务一直以来都是非常重要的业务,让我们一起揭秘亿级淘宝视频背后的多模态AI算法…
|
1月前
|
开发框架 人工智能 Java
破茧成蝶:阿里云应用服务器让传统 J2EE 应用无缝升级 AI 原生时代
本文详细介绍了阿里云应用服务器如何助力传统J2EE应用实现智能化升级。文章分为三部分:第一部分阐述了传统J2EE应用在智能化转型中的痛点,如协议鸿沟、资源冲突和观测失明;第二部分展示了阿里云应用服务器的解决方案,包括兼容传统EJB容器与微服务架构、支持大模型即插即用及全景可观测性;第三部分则通过具体步骤说明如何基于EDAS开启J2EE应用的智能化进程,确保十年代码无需重写,轻松实现智能化跃迁。
254 39
|
22天前
|
人工智能 数据挖掘
🔔阿里云百炼智能体和工作流可以发布为组件了,AI应用变成“搭积木”
本文介绍了如何通过智能体组件化设计快速生成PPT。首先,创建一个“PPT大纲生成”智能体并发布为组件,该组件可根据用户输入生成结构清晰的大纲。接着,在新的智能体应用中调用此组件与MCP服务(如ChatPPT),实现从大纲到完整PPT的自动化生成。整个流程模块化、复用性强,显著降低AI开发门槛,提升效率。非技术人员也可轻松上手,满足多样化场景需求。
🔔阿里云百炼智能体和工作流可以发布为组件了,AI应用变成“搭积木”
|
1月前
|
人工智能 数据挖掘 大数据
“龟速”到“光速”?算力如何加速 AI 应用进入“快车道”
阿里云将联合英特尔、蚂蚁数字科技专家,带来“云端进化论”特别直播。
80 11

热门文章

最新文章