AniDoc:蚂蚁集团开源 2D 动画上色 AI 模型,基于视频扩散模型自动将草图序列转换成彩色动画,保持动画的连贯性

本文涉及的产品
视觉智能开放平台,分割抠图1万点
视觉智能开放平台,视频通用资源包5000点
视觉智能开放平台,图像通用资源包5000点
简介: AniDoc 是一款基于视频扩散模型的 2D 动画上色 AI 模型,能够自动将草图序列转换为彩色动画。该模型通过对应匹配技术和背景增强策略,实现了色彩和风格的准确传递,适用于动画制作、游戏开发和数字艺术创作等多个领域。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦


🚀 快速阅读

  1. 功能:自动将草图序列转换为彩色动画,减少手动上色工作量。
  2. 技术:基于视频扩散模型,捕捉时间动态和视觉连贯性。
  3. 应用:适用于动画制作、游戏开发和数字艺术创作等多个领域。

正文(附运行示例)

AniDoc 是什么

公众号: 蚝油菜花 - AniDoc

AniDoc 是由香港科技大学、蚂蚁集团、南京大学、浙江大学和香港大学共同推出的 2D 动画上色 AI 模型。该模型基于视频扩散模型,能够自动将草图序列转换为彩色动画,并遵循参考角色设计。AniDoc 通过对应匹配技术处理角色设计与草图之间的差异,确保色彩和风格的准确传递。

AniDoc 支持二值化草图输入,并通过背景增强策略提高模型的鲁棒性。此外,稀疏草图训练策略减少了人工绘制中间帧的需求,提升了色彩化精度和帧间一致性,降低了动画制作的劳动成本,加速了内容创作流程。

AniDoc 的主要功能

  • 自动上色:自动将草图序列转换为彩色动画,减少手动上色的工作量。
  • 对应匹配:处理参考角色设计与草图之间的不一致性,如角度、比例和姿态的差异。
  • 背景增强:提高模型对前景和背景区分的能力,改善上色质量。
  • 稀疏草图训练:减少中间帧的绘制工作,关键帧插值生成平滑的动画。
  • 多风格适应:适应不同风格的参考图像,为同一角色的不同草图提供一致的上色效果。

AniDoc 的技术原理

  • 视频扩散模型:捕捉时间动态和视觉连贯性,确保动画的连贯性。
  • 对应引导上色:通过显式的对应机制,将参考角色设计中的色彩和风格信息整合到草图中。
  • 二值化和背景增强:对条件草图进行二值化处理,并通过背景增强策略提高模型的鲁棒性。
  • 稀疏草图训练:采用两阶段训练策略,减少对密集草图的依赖。
  • 3D U-Net 架构:为视频生成设计的去噪 3D U-Net,整合参考图像信息到上色过程中。

如何运行 AniDoc

环境配置

首先,克隆 AniDoc 的 GitHub 仓库并设置环境:

git clone https://github.com/yihao-meng/AniDoc.git
cd AniDoc
conda create -n anidoc python=3.8 -y
conda activate anidoc
bash install.sh

下载预训练模型

下载预训练的 Stable Video Diffusion (SVD) 模型和其他必要的检查点:

# 下载 SVD 模型
wget https://huggingface.co/stabilityai/stable-video-diffusion-img2vid/resolve/main/stable-video-diffusion-img2vid-xt.pth -P pretrained_weights/

# 下载 AniDoc 的 Unet 和 ControlNet 模型
wget https://huggingface.co/Yhmeng1106/anidoc/resolve/main/anidoc.pth -P pretrained_weights/

# 下载 co_tracker 模型
wget https://huggingface.co/facebook/cotracker/resolve/main/cotracker2.pth -P pretrained_weights/

运行推理

使用以下命令生成动画:

bash scripts_infer/anidoc_inference.sh

自定义输入

你可以通过修改 anidoc_inference.sh 脚本中的 --control_image--ref_image 参数,使用自己的草图序列和参考角色设计。

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦

相关文章
|
1月前
|
云安全 人工智能 自然语言处理
阿里云x硅基流动:AI安全护栏助力构建可信模型生态
阿里云AI安全护栏:大模型的“智能过滤系统”。
|
1月前
|
人工智能 API 数据安全/隐私保护
近期非常风靡非常逼真的AI视频内容由sora生成的视频是怎么回事?-优雅草卓伊凡
近期非常风靡非常逼真的AI视频内容由sora生成的视频是怎么回事?-优雅草卓伊凡
494 12
近期非常风靡非常逼真的AI视频内容由sora生成的视频是怎么回事?-优雅草卓伊凡
|
2月前
|
人工智能 Java API
AI 超级智能体全栈项目阶段一:AI大模型概述、选型、项目初始化以及基于阿里云灵积模型 Qwen-Plus实现模型接入四种方式(SDK/HTTP/SpringAI/langchain4j)
本文介绍AI大模型的核心概念、分类及开发者学习路径,重点讲解如何选择与接入大模型。项目基于Spring Boot,使用阿里云灵积模型(Qwen-Plus),对比SDK、HTTP、Spring AI和LangChain4j四种接入方式,助力开发者高效构建AI应用。
1378 122
AI 超级智能体全栈项目阶段一:AI大模型概述、选型、项目初始化以及基于阿里云灵积模型 Qwen-Plus实现模型接入四种方式(SDK/HTTP/SpringAI/langchain4j)
|
1月前
|
人工智能 搜索推荐 程序员
当AI学会“跨界思考”:多模态模型如何重塑人工智能
当AI学会“跨界思考”:多模态模型如何重塑人工智能
256 120
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
542 13
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
|
2月前
|
人工智能 负载均衡 API
Vercel 发布 AI Gateway 神器!可一键访问数百个模型,助力零门槛开发 AI 应用
大家好,我是Immerse,独立开发者、AGI实践者。分享编程、AI干货、开源项目与个人思考。关注公众号“沉浸式趣谈”,获取独家内容。Vercel新推出的AI Gateway,统一多模型API,支持自动切换、负载均衡与零加价调用,让AI开发更高效稳定。一行代码切换模型,告别接口烦恼!
317 1
Vercel 发布 AI Gateway 神器!可一键访问数百个模型,助力零门槛开发 AI 应用
|
1月前
|
人工智能 运维 Kubernetes
Serverless 应用引擎 SAE:为传统应用托底,为 AI 创新加速
在容器技术持续演进与 AI 全面爆发的当下,企业既要稳健托管传统业务,又要高效落地 AI 创新,如何在复杂的基础设施与频繁的版本变化中保持敏捷、稳定与低成本,成了所有技术团队的共同挑战。阿里云 Serverless 应用引擎(SAE)正是为应对这一时代挑战而生的破局者,SAE 以“免运维、强稳定、极致降本”为核心,通过一站式的应用级托管能力,同时支撑传统应用与 AI 应用,让企业把更多精力投入到业务创新。
396 29
|
1月前
|
消息中间件 人工智能 安全
云原生进化论:加速构建 AI 应用
本文将和大家分享过去一年在支持企业构建 AI 应用过程的一些实践和思考。
452 28
|
2月前
|
人工智能 安全 中间件
阿里云 AI 中间件重磅发布,打通 AI 应用落地“最后一公里”
9 月 26 日,2025 云栖大会 AI 中间件:AI 时代的中间件技术演进与创新实践论坛上,阿里云智能集团资深技术专家林清山发表主题演讲《未来已来:下一代 AI 中间件重磅发布,解锁 AI 应用架构新范式》,重磅发布阿里云 AI 中间件,提供面向分布式多 Agent 架构的基座,包括:AgentScope-Java(兼容 Spring AI Alibaba 生态),AI MQ(基于Apache RocketMQ 的 AI 能力升级),AI 网关 Higress,AI 注册与配置中心 Nacos,以及覆盖模型与算力的 AI 可观测体系。
780 39

热门文章

最新文章

下一篇
oss云网关配置