阶跃星辰开源Step-Video-TI2V 图生视频模型介绍

本文涉及的产品
模型训练 PAI-DLC,100CU*H 3个月
交互式建模 PAI-DSW,每月250计算时 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
简介: 在今年 2 月,阶跃星辰开源了两款 Step 系列多模态大模型——Step-Video-T2V 视频生成模型和 Step-Audio 语音模型,为开源社区贡献了自己的多模态力量。

00引言

在今年 2 月,阶跃星辰开源了两款 Step 系列多模态大模型——Step-Video-T2V 视频生成模型和 Step-Audio 语音模型,为开源社区贡献了自己的多模态力量。

 

近日,阶跃星辰宣布开源图生视频模型——Step-Video-TI2V,基于 30B 参数Step-Video-T2V训练的图生视频模型,支持生成 102 帧、5 秒、540P 分辨率的视频,具备运动幅度可控和镜头运动可控两大核心特点,同时天生具备一定的特效生成能力。

 

和目前已有开源图生视频模型相比,Step-Video-TI2V 不仅在参数规模上对该领域的研究提供了更高的上限,其运动幅度可控能力,更是能够平衡图生视频生成结果的动态性和稳定性,为创作者提供更为灵活的选择。

01.两大技术亮点解析:Step-Video-TI2V 是如何炼成的

 

相比文生视频模型 Step-Video-T2V,此次开源的 Step-Video-TI2V 主要针对图生视频任务做了两大关键优化:

image.gif 编辑

 

第一,引入图像条件,提高一致性

为了让模型更好地理解输入的图片,我们没有采用传统的 cross-attention 方法,而是使用了更直接、更高效的方式,将该图像对应的向量表示和 DiT 第一帧对应的向量表示直接进行 channel 维度的拼接,这样生成的视频能和原图更一致。

 

第二,引入运动幅度控制,赋予用户更高自由度

在训练过程中,Step-Video-TI2V 通过 AdaLN 模块引入视频动态性打分信息,特别训练模型学习了视频的动感程度。用户在生成时可以简单地指定不同的运动级别(motion = 2, 5, 10),精准控制视频的动态幅度,平衡视频的动态性、稳定性和一致性。

 

image.gif 编辑

 

此外,在数据优化方面,对于主体动作和镜头运动,我们进行了专项精准标注,使得 Step-Video-TI2V 在主体动态性和运镜效果上更具优势。

 

在 VBench-I2V 基准测试中,Step-Video-TI2V 取得了 state-of-the-art 级别的表现,并验证了动态性打分对生成视频稳定性和一致性的控制能力。

 

image.gif 编辑

 

02.核心特点

1、运动幅度可控:动态 & 稳定自由切换

Step-Video-TI2V 支持控制视频的“运动幅度(motion)”,平衡图生视频内容的运动性和稳定性。无论是静态稳定画面,还是高动态动作场景,都能满足创作者需求。

https://live.csdn.net/v/470019

从左至右,运动幅度(motion)依次为:2 / 5 / 10 / 20,数值越大,动态性越强。生成时推荐 2、5、10 等数值。

2、多种运镜控制

除了对镜头内主体运动的控制, Step-Video-TI2V 支持对多种运镜的理解,可以对生成视频中的镜头运动进行精准控制,生成大片级运镜效果。从基本的推拉摇移、升降,到各种复杂的电影级运镜效果都能驾驭。

3、动漫效果尤佳

Step-Video-TI2V 在动漫类任务上的效果尤其优异,非常贴合动画创作、短视频制作等应用场景。

4、支持多尺寸生成

Step-Video-TI2V 支持多种尺寸图生视频,横屏的宽阔视野,竖屏的沉浸体验,还是方屏的经典复古,让创作随心所欲。

用户可以根据不同的创作需求和平台特性,自由选择图片尺寸,无需担心画面变形或比例失调的问题。

模型及技术报告链接如下,可复制到浏览器查看:

03.欢迎体验

现在,Step-Video-TI2V 模型已正式开源!阶跃 AI 网页版和 App 端均已上线,欢迎立即体验!

👉 网页版直达:

输入网址 https://yuewen.cn/,点击左边的【阶跃视频】即可体验;或者直接进入阶跃视频 https://yuewen.cn/videos

👉 App 体验:

下载阶跃 AI,点击【视频创作】即可。

image.gif 编辑

此外,Step-Video-TI2V 现在已初步具备一些特效生成能力,未来,我们还将通过 LoRA 等技术, 持续解锁模型的特效潜力,敬请期待更多惊喜!

04.模型推理

1、下载模型的权重,可以在 modelscope 上进行下载:https://modelscope.cn/models/stepfun-ai/stepvideo-ti2v/summary

#从modelscop下载stepvideo-ti2v模型
from modelscope import snapshot_download
# local_dir 指定下载路径
model_dir = snapshot_download('stepfun-ai/stepvideo-ti2v',local_dir='models/stepvideo/stepvideo-ti2v')

image.gif

2、从github中下载推理代码,安装所需环境

git clone https://github.com/stepfun-ai/Step-Video-TI2V.git
conda create -n stepvideo python=3.10
conda activate stepvideo
cd StepFun-StepVideo
pip install -e .

image.gif

3、在推理的时候对文本编码器、VAE解码和DiT采用了解耦策,先在本地启动一个api服务,在一个单独的GPU上加载文本编码器和VAE解码器,默认会使用机器上编号最后一个GPU。启动之后得到一个url,后续的文本编码和VAE解码会发到这个url 进行处理

# model_dir 是上面模型下载的路径
python api/call_remote_server.py --model_dir models/stepvideo/stepvideo-ti2v &

image.gif

 

4、采用多卡并行生成视频,在一个sh脚本定义参数和运行命令,通过运行sh脚本进行视频生成。

parallel=4  # 使用多少张卡进行推理
url='127.0.0.1' # 上面启动编码器和VAE解码器服务的url,默认是‘127.0.0.1’
model_dir=models/stepvideo/stepvideo-ti2v # 模型路径
torchrun --nproc_per_node $parallel run_parallel.py \
    --model_dir $model_dir \
    --vae_url $url \
    --caption_url $url  \
    --ulysses_degree  $parallel \
    --prompt "女孩头发在飘荡" \  # 生成视频的 prompt
    --first_image_path ./assets/girl.jpg \ # 参考图片的路径
    --infer_steps 50 \
    --save_path ./results \  # 保存视频路径
    --cfg_scale 9.0 \
    --motion_score 5.0 \
    --time_shift 12.573

image.gif

点击链接,即可跳转链接~

https://modelscope.cn/models/stepfun-ai/stepvideo-ti2v


目录
打赏
0
1
1
1
233
分享
相关文章
Step-Video-TI2V:开源视频生成核弹!300亿参数+102帧电影运镜
Step-Video-TI2V 是阶跃星辰推出的开源图生视频模型,支持根据文本和图像生成高质量视频,具备动态性调节和多种镜头运动控制功能,适用于动画制作、短视频创作等场景。
47 0
Step-Video-TI2V:开源视频生成核弹!300亿参数+102帧电影运镜
Step-Video-T2V:碾压Sora?国产开源巨兽Step-Video-T2V杀到:300亿参数一键生成204帧视频
Step-Video-T2V 是阶跃星辰团队推出的开源文本到视频模型,拥有 300 亿参数,能生成长达 204 帧的高质量视频。它支持中英文提示输入,并通过深度压缩的变分自编码器和扩散 Transformer 架构实现高效生成。
624 5
全网首发 | PAI Model Gallery一键部署阶跃星辰Step-Video-T2V、Step-Audio-Chat模型
Step-Video-T2V 是一个最先进的 (SoTA) 文本转视频预训练模型,具有 300 亿个参数,能够生成高达 204 帧的视频;Step-Audio 则是行业内首个产品级的开源语音交互模型,通过结合 130B 参数的大语言模型,语音识别模型与语音合成模型,实现了端到端的文本、语音对话生成,能和用户自然地进行高质量对话。PAI Model Gallery 已支持阶跃星辰最新发布的 Step-Video-T2V 文生视频模型与 Step-Audio-Chat 大语言模型的一键部署,本文将详细介绍具体操作步骤。
Text2Video Huggingface Pipeline 文生视频接口和文生视频论文API
文生视频是AI领域热点,很多文生视频的大模型都是基于 Huggingface的 diffusers的text to video的pipeline来开发。国内外也有非常多的优秀产品如Runway AI、Pika AI 、可灵King AI、通义千问、智谱的文生视频模型等等。为了方便调用,这篇博客也尝试了使用 PyPI的text2video的python库的Wrapper类进行调用,下面会给大家介绍一下Huggingface Text to Video Pipeline的调用方式以及使用通用的text2video的python库调用方式。
通义语音AI技术问题之CAM++模型中的CAM模块工作原理如何解决
通义语音AI技术问题之CAM++模型中的CAM模块工作原理如何解决
111 4
|
7月前
|
与Sora同架构,高效、连贯文生视频模型Snap Video
【8月更文挑战第4天】Snap Video是一种创新模型,针对视频生成中的运动保真度、视觉质量和可扩展性难题。它采用基于Transformer的架构,优化EDM框架以高效处理时空信息,提升视频连贯性和细节真实感。相较于U-Net,新的Transformer设计加速训练并提高推理效率。尽管如此,面对复杂场景及高计算需求仍有挑战,实际效能需进一步验证。[论文](https://arxiv.org/abs/2402.14797)
119 1
支付宝商业化广告算法问题之基于pretrain—>finetune范式的知识迁移中,finetune阶段全参数训练与部分参数训练的效果如何比较
支付宝商业化广告算法问题之基于pretrain—>finetune范式的知识迁移中,finetune阶段全参数训练与部分参数训练的效果如何比较
【机器学习】FFmpeg+Whisper:二阶段法视频理解(video-to-text)大模型实战
【机器学习】FFmpeg+Whisper:二阶段法视频理解(video-to-text)大模型实战
90 0
GLM(Generalized Linear Model)大模型-大数据自助查询平台
GLM(Generalized Linear Model)大模型-大数据自助查询平台
190 2

热门文章

最新文章