Step-Video-T2V:碾压Sora?国产开源巨兽Step-Video-T2V杀到:300亿参数一键生成204帧视频

本文涉及的产品
视觉智能开放平台,图像资源包5000点
视觉智能开放平台,视频资源包5000点
视觉智能开放平台,分割抠图1万点
简介: Step-Video-T2V 是阶跃星辰团队推出的开源文本到视频模型,拥有 300 亿参数,能生成长达 204 帧的高质量视频。它支持中英文提示输入,并通过深度压缩的变分自编码器和扩散 Transformer 架构实现高效生成。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 微信公众号|搜一搜:蚝油菜花 🥦


💻 「GPU救星来了!阶跃星辰开源16倍压缩黑科技:204帧视频生成,显存占用砍半!」

大家好,我是蚝油菜花。当全球还在为Sora的算力需求咋舌时,中国团队已经用数学之美破解了视频生成的「不可能三角」——

▶️ 开发者最痛的三座大山:

  • 🚫 动辄4090才能跑的AI视频模型
  • 🚫 英文提示词门槛劝退中文创作者
  • 🚫 生成视频像PPT,超过5秒就崩坏...

而今天开源的 Step-Video-T2V ,用三项核弹级突破撕碎这些枷锁:

  • Video-VAE时空压缩:16×16空间压缩+8倍时间压缩,让3060显卡也能跑204帧
  • 中英双语直输:唯一支持中文prompt的开源视频模型
  • DPO优化算法:204帧连续生成不跳帧,丝滑度提升300%

你可以通过跃问视频在线生成来体验用一句中文提示,5分钟生成属于你的微电影!

🚀 快速阅读

Step-Video-T2V 是一款强大的文本到视频生成模型,能够生成高质量的视频。

  1. 核心功能:支持中英文提示输入,生成长达 204 帧的高质量视频。
  2. 技术原理:基于深度压缩的变分自编码器(Video-VAE)和扩散 Transformer(DiT)架构,显著提高训练和推理效率。

Step-Video-T2V 是什么

Step-Video-T2V

Step-Video-T2V 是阶跃星辰团队推出的一款开源文本到视频预训练模型,拥有 300 亿参数,能够生成长达 204 帧的高质量视频。该模型基于深度压缩的变分自编码器(Video-VAE),实现了 16×16 的空间压缩和 8× 的时间压缩,显著提高了训练和推理效率。

此外,Step-Video-T2V 配备了双语文本编码器,支持中英文提示输入,能够理解并生成与文本描述相符的视频。通过直接偏好优化(DPO)方法,进一步提升了视频质量,使生成的视频更加平滑和真实。

Step-Video-T2V 的主要功能

  • 高质量视频生成:拥有 300 亿参数,能生成长达 204 帧的高质量视频,支持 544×992 分辨率。
  • 双语文本支持:配备双语文本编码器,支持中英文提示词的直接输入,能理解并生成与文本描述相符的视频。
  • 动态与美学优化:通过 3D 全注意力的 DiT 架构和 Flow Matching 训练方法,生成具有强烈动态效果和高美学质量的视频。

Step-Video-T2V 的技术原理

  • 深度压缩的变分自编码器(Video-VAE):实现了 16×16 的空间压缩和 8× 的时间压缩,显著降低了视频生成任务的计算复杂度,同时保持了优异的视频重建质量。
  • 双语文本编码器:模型配备了两个预训练的双语文本编码器,能处理中文和英文提示。Step-Video-T2V 可以直接理解中英文输入,生成与文本描述相符的视频。
  • 基于扩散的 Transformer(DiT)架构:包含 3D 全注意力机制,通过 Flow Matching 训练,将输入噪声逐步去噪为潜在帧,用文本嵌入和时间步作为条件因子。在生成具有强烈运动动态和高美学质量的视频方面表现出色。
  • 直接偏好优化(DPO):为了进一步提升生成视频的质量,引入了视频直接偏好优化(Video-DPO)方法。DPO 通过人类偏好数据对模型进行微调,减少伪影并增强视觉效果,使生成的视频更加平滑和真实。

如何运行 Step-Video-T2V

1. 环境准备

Step-Video-T2V 的运行需要以下环境:

Model height/width/frame Peak GPU Memory 50 steps w flash-attn 50 steps w/o flash-attn
Step-Video-T2V 544px992px204f 77.64 GB 743 s 1232 s
Step-Video-T2V 544px992px136f 72.48 GB 408 s 605 s
  • 需要 NVIDIA GPU 且支持 CUDA。
  • 推荐使用 80GB 内存的 GPU。
  • 测试操作系统:Linux。
  • 文本编码器仅支持 CUDA 能力 sm_80 sm_86 和 sm_90。

2. 安装依赖

git clone https://github.com/stepfun-ai/Step-Video-T2V.git
conda create -n stepvideo python=3.10
conda activate stepvideo

cd Step-Video-T2V
pip install -e .
pip install flash-attn --no-build-isolation  ## flash-attn 是可选的
AI 代码解读

3. 运行推理脚本

python api/call_remote_server.py --model_dir where_you_download_dir &  ## 假设你有 4 个或更多 GPU。此命令将返回用于文本编码器和 VAE 解码的 API URL。

parallel=4  # 或 parallel=8
url='127.0.0.1'
model_dir=where_you_download_dir

torchrun --nproc_per_node $parallel run_parallel.py --model_dir $model_dir --vae_url $url --caption_url $url  --ulysses_degree $parallel --prompt "一名宇航员在月球上发现一块石碑,上面印有“stepfun”字样,闪闪发光" --infer_steps 50  --cfg_scale 9.0 --time_shift 13.0
AI 代码解读

4. 最佳实践推理设置

Models infer_steps cfg_scale time_shift num_frames
Step-Video-T2V 30-50 9.0 13.0 204
Step-Video-T2V-Turbo (Inference Step Distillation) 10-15 5.0 17.0 204

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 微信公众号|搜一搜:蚝油菜花 🥦

目录
打赏
0
5
5
1
339
分享
相关文章
Stable Video 3D震撼上线,视频扩散模型史诗级提升!
【2月更文挑战第30天】Stability AI推出了创新技术SV3D,能从单张图片生成高质量3D模型,实现了多视图一致性,超越了先前的2D图像生成模型。该技术基于视频扩散模型,通过时间一致性确保3D一致性,并提供SV3D_u和SV3D_p两个版本,适应不同应用场景。在实验中,SV3D在新视图合成和3D重建方面表现出优秀性能。尽管面临计算资源需求高和使用门槛等问题,SV3D有望在3D内容创作领域发挥重大作用。项目及模型已开放下载。
449 2
Stable Video 3D震撼上线,视频扩散模型史诗级提升!
Ai实现FPS游戏自动瞄准 yolov5fps自瞄
Ai实现FPS游戏自动瞄准 yolov5fps自瞄
9588 0
Google Earth Engine ——MOD17A2H V6总初级生产力(GPP)产品是一个具有500米分辨率的8天累积综合数据产品
Google Earth Engine ——MOD17A2H V6总初级生产力(GPP)产品是一个具有500米分辨率的8天累积综合数据产品
1346 0
Google Earth Engine ——MOD17A2H V6总初级生产力(GPP)产品是一个具有500米分辨率的8天累积综合数据产品
Stable Virtual Camera:2D秒变3D电影!Stability AI黑科技解锁无限运镜,自定义轨迹一键生成
Stable Virtual Camera 是 Stability AI 推出的 AI 模型,能够将 2D 图像转换为具有真实深度和透视感的 3D 视频,支持自定义相机轨迹和多种动态路径,生成高质量且时间平滑的视频。
24 0
Light-A-Video:好莱坞级打光自由!上海AI Lab开源视频打光AI,无需训练秒改画面氛围,3步让阴天变夕阳
Light-A-Video 是由上海AI Lab联合交大等高校推出的无需训练的视频重照明方法,支持高质量、时间一致的光照控制,零样本生成和前景背景分离处理。
48 9
Valley:字节跳动开源小体积的多模态模型,在小于 10B 参数的模型中排名第二
Valley 是字节跳动推出的多模态大模型,能够处理文本、图像和视频数据,在电子商务和短视频领域表现优异,并在 OpenCompass 测试中排名第二。
179 10
Valley:字节跳动开源小体积的多模态模型,在小于 10B 参数的模型中排名第二
一张显卡看遍天下电影!智源联合高校开源Video-XL打破长视频理解极限,95%准确率刷爆纪录
智源研究院联合高校团队推出Video-XL,一款专为超长视频设计的理解模型。通过视觉上下文潜在摘要技术,Video-XL将大量视觉数据高效压缩,显著提升理解准确性并降低计算成本。在多项测试中,Video-XL超越现有方法,展现出卓越性能。其开源为视频理解领域带来新活力,适用于视频监控、电影分析等多种场景。尽管面临一些挑战,Video-XL仍是视频理解领域的重要里程碑。
72 6
ECCV 2024:JHU上交等提出首个可渲染X光3DGS!推理速度73倍NeRF,性能提升6.5dB
【10月更文挑战第8天】近日,约翰斯•霍普金斯大学和上海交通大学等机构的研究人员提出了一种名为X-Gaussian的新型3D Gaussian Splatting框架,用于X光新视角合成。该框架通过优化辐射性Gaussian点云模型和可微分辐射光栅化技术,显著提升了X光成像的渲染质量,同时大幅减少了训练时间和推理时间。实验结果显示,X-Gaussian在性能上比现有方法提升了6.5dB,训练时间减少了85%,推理速度提高了73倍。此外,该框架在稀疏视角CT重建中也展现出巨大潜力。
117 4
|
6月前
|
支持1024帧、准确率近100%,英伟达LongVILA开始发力长视频
【9月更文挑战第15天】近年来,随着人工智能技术的发展,长视频的理解与处理成为研究热点。针对长视频对模型长上下文能力的高要求,NVIDIA提出了综合性解决方案LongVILA,涵盖系统设计、模型训练及数据集开发。其MM-SP系统在多GPU环境下大幅提升训练速度;五阶段训练流程逐步增强模型理解能力;大规模数据集支持多阶段训练。LongVILA成功将VILA模型帧数扩展至1024,并显著提升了长视频字幕得分,但在计算成本和实际应用准确性方面仍面临挑战。
84 8

热门文章

最新文章