Step-Video-TI2V:开源视频生成核弹!300亿参数+102帧电影运镜

本文涉及的产品
视觉智能开放平台,图像通用资源包5000点
视觉智能开放平台,分割抠图1万点
视觉智能开放平台,视频通用资源包5000点
简介: Step-Video-TI2V 是阶跃星辰推出的开源图生视频模型,支持根据文本和图像生成高质量视频,具备动态性调节和多种镜头运动控制功能,适用于动画制作、短视频创作等场景。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 丰富的 AI 工具库 -> 每日更新 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦


🎬 "好莱坞运镜师连夜改行!这个开源模型把静态图变电影级动态分镜"

大家好,我是蚝油菜花。当同行还在为视频运镜烧钱租设备时,这个国产开源模型已经让单张照片上演《盗梦空间》!

你是否被这些创作难题暴击过:

  • 🎥 想给产品图加动态展示,AE关键帧调到视网膜脱落
  • 🌪️ 生成视频不是PPT卡顿就是癫痫画风
  • 🌍 英文提示词写到手抽筋,中文生成总跑偏...

今天炸场的 Step-Video-TI2V ,正在重写视频生成法则!这个阶跃星辰开源的300亿参数怪兽,用三大黑科技碾压创作门槛:

  • 运镜魔法师:推拉摇移+环绕旋转,16种电影运镜参数化调节
  • 动态平衡术:运动评分系统精准控制视频张力,从静止到暴走随心切换
  • 双语直通车:中英文提示直接喂,描述"江湖侠客御剑飞行"也能精准出片

已有团队用它把淘宝主图秒变TVC广告,文末附《电影运镜参数速查表》——你的素材库准备好迎接次元突破了吗?

🚀 快速阅读

Step-Video-TI2V 是一款基于深度压缩变分自编码器和扩散 Transformer 架构的图生视频模型。

  1. 核心功能:支持图生视频生成、动态性调节、多种镜头运动控制,适用于动画、短视频、特效制作等场景。
  2. 技术原理:采用深度压缩的变分自编码器(Video-VAE)和扩散 Transformer(DiT)架构,结合双语文本编码器和直接偏好优化(DPO)方法,显著提升视频生成质量。

Step-Video-TI2V 是什么

Step-Video-TI2V

Step-Video-TI2V 是阶跃星辰(StepFun)推出的开源图生视频(Image-to-Video)生成模型,拥有 300 亿参数,能根据文本描述和图像输入生成最长 102 帧的视频。模型基于深度压缩的变分自编码器(Video-VAE),实现了 16×16 的空间压缩和 8× 的时间压缩,显著提高了训练和推理效率。用户可以通过设置运动分数(motion score)来平衡视频的动态性和稳定性。支持推、拉、摇、移、旋转、跟随等多种镜头运动方式。

Step-Video-TI2V 不仅支持高质量视频输出,还具备动态性调节和镜头运动控制功能,适用于动画制作、短视频创作、特效制作等多种场景。

Step-Video-TI2V 的主要功能

  • 图生视频生成:用户可以提供一张图片和相关的文本描述,模型会根据这些输入生成一段连贯的视频。
  • 高质量视频输出:支持生成最多 102 帧、5 秒、540P 分辨率的视频,能满足多种创作需求。
  • 动态性调节:用户可以通过设置运动分数(motion score)来控制视频的动态性。例如,运动分数为 2 时,视频更稳定但动态性较差;运动分数为 10 或 20 时,视频的动态性更强。
  • 平衡动态与稳定:通过运动分数的调节,用户可以在动态效果和稳定性之间找到最佳平衡。
  • 镜头运动控制:支持多种运镜方式,包括固定镜头、上下左右移动、上下左右摇、放大缩小、推进拉远、旋转、环绕以及焦点转移等。
  • 电影级运镜效果:能生成类似电影级别的复杂运镜效果,满足专业创作需求。
  • 动漫效果优化:在动漫风格视频生成方面表现出色,能生成具有虚化背景、动态动作等特效的视频。适合用于动画创作、短视频制作等应用场景。
  • 灵活的视频尺寸:支持多种尺寸的视频生成,包括横屏、竖屏和方屏,用户可以根据不同的创作需求和平台特性选择合适的视频尺寸。
  • 多语言支持:配备双语文本编码器,支持中英文提示输入,方便不同语言背景的用户使用。
  • 特效生成能力:初步具备特效生成能力,未来将通过技术优化进一步提升特效生成效果。

Step-Video-TI2V 的技术原理

  • 深度压缩的变分自编码器(Video-VAE):Step-Video-TI2V 使用了深度压缩的变分自编码器(Video-VAE),实现了 16×16 的空间压缩和 8× 的时间压缩。显著降低了视频生成任务的计算复杂度,同时保持了优异的视频重建质量。Video-VAE 采用了双路径架构,能有效分离高低频信息,进一步优化视频生成的效果。
  • 基于扩散的 Transformer(DiT)架构:模型基于扩散的 Transformer(DiT)架构,包含 3D 全注意力机制。通过 Flow Matching 训练方法,将输入噪声逐步去噪为潜在帧,将文本嵌入和时间步作为条件因子。这种架构在生成具有强烈运动动态和高美学质量的视频方面表现出色。
  • 双语文本编码器:Step-Video-TI2V 配备了双语文本编码器,能处理中英文提示。使模型可以直接理解中文或英文输入,生成与文本描述相符的视频。
  • 直接偏好优化(DPO):为了进一步提升生成视频的质量,Step-Video-TI2V 引入了视频直接偏好优化(Video-DPO)方法。DPO 通过人类偏好数据对模型进行微调,减少伪影并增强视觉效果,使生成的视频更加平滑和真实。
  • 级联训练策略:模型采用了级联训练流程,包括文本到图像(T2I)预训练、文本到视频/图像(T2VI)预训练、文本到视频(T2V)微调和直接偏好优化(DPO)训练。加速了模型的收敛,充分利用了不同质量的视频数据。
  • 系统优化:Step-Video-TI2V 在系统层面进行了优化,包括张量并行、序列并行和 Zero1 优化,实现高效的分布式训练。引入了高性能通信框架 StepRPC 和双层监控系统 StepTelemetry,优化数据传输效率和识别性能瓶颈。

如何运行 Step-Video-TI2V

1. 依赖安装

git clone https://github.com/stepfun-ai/Step-Video-TI2V.git
conda create -n stepvideo python=3.10
conda activate stepvideo

cd Step-Video-TI2V
pip install -e .

2. 推理脚本

python api/call_remote_server.py --model_dir where_you_download_dir &  ## 假设你有 4 个以上的 GPU 可用。此命令将返回 caption API 和 VAE API 的 URL。请在以下命令中使用返回的 URL。

parallel=1 or 4  # 或 parallel=8 单 GPU 也可以预测结果,但耗时较长
url='127.0.0.1'
model_dir=where_you_download_dir

torchrun --nproc_per_node $parallel run_parallel.py --model_dir $model_dir --vae_url $url --caption_url $url  --ulysses_degree  $parallel --prompt "笑起来" --first_image_path ./assets/demo.png --infer_steps 50  --cfg_scale 9.0 --time_shift 13.0 --motion_score 5.0

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 丰富的 AI 工具库 -> 每日更新 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦

相关文章
|
机器学习/深度学习 算法 Shell
【实操:人脸矫正】两次定位操作解决人脸矫正问题
【实操:人脸矫正】两次定位操作解决人脸矫正问题
578 0
|
9月前
|
存储 人工智能 自然语言处理
YT Navigator:AI秒搜YouTube!自然语言直达视频关键帧
YT Navigator 是一款 AI 驱动的 YouTube 内容搜索工具,通过自然语言查询快速定位视频中的关键信息,支持与视频内容对话,适用于研究人员、学生和内容创作者。
487 0
YT Navigator:AI秒搜YouTube!自然语言直达视频关键帧
|
9月前
|
人工智能 编解码 物联网
阶跃星辰开源Step-Video-TI2V 图生视频模型介绍
在今年 2 月,阶跃星辰开源了两款 Step 系列多模态大模型——Step-Video-T2V 视频生成模型和 Step-Audio 语音模型,为开源社区贡献了自己的多模态力量。
352 1
|
9月前
|
人工智能 监控 数据可视化
Manus再遭复刻!开源多智能体协作工具,实时查看每个AI员工的"脑回路"
LangManus 是一个基于分层多智能体系统的 AI 自动化框架,支持多种语言模型和工具集成,能够高效完成复杂任务,适用于人力资源、房产决策、旅行规划等多个场景。
1008 0
|
9月前
|
人工智能 文字识别 异构计算
SmolDocling:256M多模态小模型秒转文档!开源OCR效率提升10倍
SmolDocling 是一款轻量级的多模态文档处理模型,能够将图像文档高效转换为结构化文本,支持文本、公式、图表等多种元素识别,适用于学术论文、技术报告等多类型文档。
831 1
SmolDocling:256M多模态小模型秒转文档!开源OCR效率提升10倍
|
9月前
|
机器学习/深度学习 人工智能 文字识别
Umi-OCR:31K Star!离线OCR终结者!公式+二维码+多语种,开源免费吊打付费
Umi-OCR 是一款免费开源的离线 OCR 文字识别工具,支持截图、批量图片、PDF 扫描件的文字识别,内置多语言识别库,提供命令行和 HTTP 接口调用功能。
830 0
Umi-OCR:31K Star!离线OCR终结者!公式+二维码+多语种,开源免费吊打付费
|
9月前
|
人工智能 PyTorch API
Hunyuan3D 2.0:腾讯混元开源3D生成大模型!图生/文生秒建高精度模型,细节纹理自动合成
Hunyuan3D 2.0 是腾讯推出的大规模 3D 资产生成系统,专注于从文本和图像生成高分辨率的 3D 模型,支持几何生成和纹理合成。
1056 5
Hunyuan3D 2.0:腾讯混元开源3D生成大模型!图生/文生秒建高精度模型,细节纹理自动合成
|
9月前
|
人工智能 编解码
ReCamMaster:视频运镜AI革命!单镜头秒变多机位,AI重渲染颠覆创作
ReCamMaster 是由浙江大学与快手科技联合推出的视频重渲染框架,能够根据用户指定的相机轨迹重新生成视频内容,广泛应用于视频创作、后期制作、教育等领域,提升创作自由度和质量。
656 0
|
9月前
|
机器学习/深度学习 人工智能 自然语言处理
Reve Image:设计师失业警告!AI秒出海报级神图,排版自动搞定
Reve Image 是 Reve 推出的全新 AI 图像生成模型,专注于提升美学表现、精确的提示遵循能力以及出色的排版设计,能生成高质量的视觉作品。
533 29
Reve Image:设计师失业警告!AI秒出海报级神图,排版自动搞定
|
8月前
|
人工智能 计算机视觉
漫画师福音!开源AI神器让线稿着色快如闪电!MagicColor:港科大开源多实例线稿着色框架,一键生成动画级彩图
MagicColor是香港科技大学推出的多实例线稿着色框架,基于扩散模型和自监督训练策略,实现单次前向传播完成多实例精准着色,大幅提升动画制作和数字艺术创作效率。
664 20
漫画师福音!开源AI神器让线稿着色快如闪电!MagicColor:港科大开源多实例线稿着色框架,一键生成动画级彩图

热门文章

最新文章