AI生成视频告别剪辑拼接!MAGI-1:开源自回归视频生成模型,支持一镜到底的长视频生成

本文涉及的产品
图像搜索,任选一个服务类型 1个月
简介: MAGI-1是Sand AI开源的全球首个自回归视频生成大模型,采用创新架构实现高分辨率流畅视频生成,支持无限扩展和精细控制,在物理行为预测方面表现突出。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 丰富的 AI 工具库 -> 每日更新 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦


🎬 「别让渲染农场绑架创意!AI把视频生成压缩到实时级」

大家好,我是蚝油菜花。这些数字创作的至暗时刻你是否正在经历——

  • 👉 渲染3秒动画要等8小时,显卡阵列耗电堪比炼钢厂
  • 👉 生成1080P视频时内存爆表,工程文件比黑洞还吞噬空间
  • 👉 想实现长镜头运镜,结果画面断层像被刀片切割...

今天要炸裂影视界的 MAGI-1 ,正在重写视频生成法则!这把「时空剪辑器」:

  • ✅ 量子级吞吐:24B模型分块生成,效率飙升300%
  • ✅ 流式造梦术:4块4090实时渲染,4K视频秒级输出
  • ✅ 物理级连贯:块因果注意力黑科技,杜绝画面撕裂

已有动画大厂用它制作电影级长镜头,短视频团队靠AI日更百条4K内容——你的创作流,是时候突破「渲染监狱」了!

MAGI-1 是什么

MAGI-1

MAGI-1 是 Sand AI 开源的全球首个自回归视频生成大模型,采用自回归架构,通过逐块预测视频序列生成流畅自然的视频,支持无限扩展和一镜到底的长视频生成。

模型原生分辨率可达 1440×2568,生成的视频动作流畅且细节逼真,具备可控生成能力,可通过分块提示实现平滑场景转换和细粒度控制。

MAGI-1 的主要功能

  • 高效视频生成:MAGI-1 能在短时间内生成高质量视频片段,例如生成 5 秒视频仅需 3 秒,生成 1 分钟视频可在 1 分钟内完成。通过分块生成(每块 24 帧)的方式,逐块去噪并并行处理,大幅提升生成效率。
  • 高保真输出:生成的视频具有高分辨率(原生 1440×2568),动作流畅且细节逼真,适合多种高质量视频创作需求。
  • 无限扩展与时间轴控制:支持无限长度扩展,可无缝续写生成连续长视频场景,具备秒级时间轴控制能力,用户可以通过逐块提示实现精细化的场景转换和编辑。
  • 可控生成:通过分块提示,MAGI-1 支持平滑的场景过渡、长视距合成和细粒度的文本驱动控制,能根据文本指令生成符合用户需求的视频内容。
  • 物理行为预测:在物理行为预测方面表现出色,能生成符合物理规律的动作和场景,适合复杂动态场景的生成。
  • 实时部署与灵活推理:支持实时流式视频生成,同时适配多种硬件配置,包括单张 RTX 4090 GPU 的部署,降低了使用门槛。

MAGI-1 的技术原理

  • 自回归去噪算法:MAGI-1 采用自回归去噪的方式生成视频,将视频划分为固定长度的片段(每块 24 帧),逐块进行去噪处理。当前一个片段达到一定去噪水平后,便开始生成下一个片段。这种流水线设计最多可同时处理四个片段,大幅提升了生成效率。
  • 基于 Transformer 的 VAE:模型使用基于 Transformer 架构的变分自编码器(VAE),实现了 8 倍空间压缩和 4 倍时间压缩。解码速度快,具备高竞争力的重建质量。
  • 扩散模型架构:MAGI-1 基于 Diffusion Transformer 构建,融入了多项创新技术,如块因果注意力、并行注意力块、QK-Norm 和 GQA、三明治归一化、SwiGLU 和 Softcap Modulation 等。提高了大规模训练的效率和稳定性。
  • 蒸馏算法:MAGI-1 采用了一种高效的蒸馏方法,训练了一个基于速度的模型,支持不同的推理预算。通过强制执行自一致性约束(将一个大步长等同于两个小步长),模型能在多个步长范围内逼近流匹配轨迹,实现高效推理。

如何运行 MAGI-1

1. 环境准备

我们提供两种运行 MAGI-1 的方式,推荐使用 Docker 环境。

使用 Docker 环境运行(推荐)

docker pull sandai/magi:latest

docker run -it --gpus all --privileged --shm-size=32g --name magi --net=host --ipc=host --ulimit memlock=-1 --ulimit stack=6710886 sandai/magi:latest /bin/bash

使用源代码运行

# 创建新环境
conda create -n magi python==3.10.12

# 安装 pytorch
conda install pytorch==2.4.0 torchvision==0.19.0 torchaudio==2.4.0 pytorch-cuda=12.4 -c pytorch -c nvidia

# 安装其他依赖
pip install -r requirements.txt

# 安装 ffmpeg
conda install -c conda-forge ffmpeg=4.4

# 安装 MagiAttention
git clone git@github.com:SandAI-org/MagiAttention.git
cd MagiAttention
git submodule update --init --recursive
pip install --no-build-isolation .

2. 推理命令

运行 MagiPipeline 时,可以通过修改 example/24B/run.shexample/4.5B/run.sh 脚本中的参数来控制输入和输出。以下是关键参数的说明:

参数说明

  • --config_file: 指定配置文件路径,包含模型配置参数,例如 example/24B/24B_config.json
  • --mode: 指定运行模式。可选模式包括:
    • t2v: 文本生成视频
    • i2v: 图像生成视频
    • v2v: 视频生成视频
  • --prompt: 用于视频生成的文本提示,例如 "Good Boy"
  • --image_path: 图像文件路径,仅在 i2v 模式下使用。
  • --prefix_video_path: 前缀视频文件路径,仅在 v2v 模式下使用。
  • --output_path: 生成的视频文件保存路径。

Bash 脚本

#!/bin/bash
# 运行 24B MAGI-1 模型
bash example/24B/run.sh

# 运行 4.5B MAGI-1 模型
bash example/4.5B/run.sh

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 丰富的 AI 工具库 -> 每日更新 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦

相关文章
|
20天前
|
人工智能 自然语言处理 算法
AI智能混剪视频大模型开发方案:从文字到视频的自动化生成·优雅草卓伊凡
AI智能混剪视频大模型开发方案:从文字到视频的自动化生成·优雅草卓伊凡
94 0
AI智能混剪视频大模型开发方案:从文字到视频的自动化生成·优雅草卓伊凡
|
11天前
|
机器学习/深度学习 人工智能 算法
通义OmniAudio大模型,让 AI 看懂 360° 视频,并“听”出对应的空间音频
OmniAudio 是一项突破性的空间音频生成技术,能够直接从 360° 视频生成 FOA(First-order Ambisonics)空间音频,为虚拟现实和沉浸式娱乐带来全新可能。通过自监督 coarse-to-fine 预训练和双分支视频表示微调,OmniAudio 在非空间音频质量和空间定位准确性上显著优于现有方法。项目包含超过 103,000 个视频片段的 Sphere360 数据集,支持高质量的模型训练与评估。代码、数据及论文均已开源,助力沉浸式体验技术发展。
|
18天前
|
人工智能 PyTorch TensorFlow
AI界的"翻译官":ONNX如何让各框架模型和谐共处
还在为不同框架间的模型转换头疼?ONNX让你在PyTorch训练的模型可以无缝在TensorFlow部署,甚至能让模型在手机上飞速运行。本文带你了解这个AI领域的'瑞士军刀',轻松实现跨平台高性能模型部署。
119 12
|
20天前
|
人工智能 小程序 计算机视觉
AI不只有大模型,小模型也蕴含着大生产力
近年来,AI大模型蓬勃发展,从ChatGPT掀起全球热潮,到国内“百模大战”爆发,再到DeepSeek打破算力壁垒,AI技术不断刷新认知。然而,在大模型备受关注的同时,许多小而精的细分模型却被忽视。这些轻量级模型无需依赖强大算力,可运行于手机、手持设备等边缘终端,广泛应用于物体识别、条码扫描、人体骨骼检测等领域。例如,通过人体识别模型衍生出的运动与姿态识别能力,已在AI体育、康复训练、线上赛事等场景中展现出巨大潜力,大幅提升了相关领域的效率与应用范围。本文将带您深入了解这些高效的小模型及其实际价值。
|
20天前
|
人工智能 数据安全/隐私保护 Docker
短短时间,疯狂斩获1.9k star,开源AI神器AingDesk:一键部署上百模型,本地运行还能联网搜索!
AingDesk 是一款开源的本地 AI 模型管理工具,已获 1.9k Star。它支持一键部署上百款大模型(如 DeepSeek、Llama),适配 CPU/GPU,可本地运行并联网搜索。五大核心功能包括零门槛模型部署、实时联网搜证、私人知识库搭建、跨平台共享和智能体工厂,满足学术、办公及团队协作需求。相比 Ollama 和 Cherry Studio,AingDesk 更简单易用,适合技术小白、团队管理者和隐私敏感者。项目地址:https://github.com/aingdesk/AingDesk。
163 3
|
20天前
|
机器学习/深度学习 人工智能 大数据
特征越多模型越好?这个AI领域的常识可能是错的
特征选择是机器学习中的"减肥秘方",它能帮助模型去除冗余特征,提高性能并降低计算成本。本文深入浅出地介绍特征选择的概念、方法与实践技巧,带你掌握这门让AI模型更高效的"瘦身术"。
48 1
|
24天前
|
人工智能 负载均衡 API
长连接网关技术专题(十二):大模型时代多模型AI网关的架构设计与实现
随着 AI 技术快速发展,业务对 AI 能力的渴求日益增长。当 AI 服务面对处理大规模请求和高并发流量时,AI 网关从中扮演着至关重要的角色。AI 服务通常涉及大量的计算任务和设备资源占用,此时需要一个 AI 网关负责协调这些请求来确保系统的稳定性与高效性。因此,与传统微服务架构类似,我们将相关 API 管理的功能(如流量控制、用户鉴权、配额计费、负载均衡、API 路由等)集中放置在 AI 网关层,可以降低系统整体复杂度并提升可维护性。 本文要分享的是B站在大模型时代基于多模型AI的网关架构设计和实践总结,希望能带给你启发。
94 4
|
24天前
|
机器学习/深度学习 人工智能 算法
Python+YOLO v8 实战:手把手教你打造专属 AI 视觉目标检测模型
本文介绍了如何使用 Python 和 YOLO v8 开发专属的 AI 视觉目标检测模型。首先讲解了 YOLO 的基本概念及其高效精准的特点,接着详细说明了环境搭建步骤,包括安装 Python、PyCharm 和 Ultralytics 库。随后引导读者加载预训练模型进行图片验证,并准备数据集以训练自定义模型。最后,展示了如何验证训练好的模型并提供示例代码。通过本文,你将学会从零开始打造自己的目标检测系统,满足实际场景需求。
273 0
Python+YOLO v8 实战:手把手教你打造专属 AI 视觉目标检测模型
|
13天前
|
人工智能 自然语言处理 前端开发
上线几天,轻松斩获10k,开源通用AI智能体Suna:一句话自动处理Excel/爬数据/写报告,程序员私人助理诞生!
Suna是由Kortix推出的全球首个开源通用型AI Agent,可通过自然语言对话自动完成浏览器操作、数据分析、系统管理等复杂任务。它具有“执行力”,能像人类员工一样理解指令并操作数字工具,支持自托管保障数据安全,适用于市场分析、学术研究、企业办公等场景。Suna的核心优势在于实现“语言→行动”的转化,适合需要实际操作的任务,如爬虫、报表生成和网站部署。项目地址为:https://github.com/kortix-ai/suna。
|
17天前
|
数据采集 人工智能 算法
面向AI应用开发的开源能源管理系统
人工智能在能源管理中发挥关键作用,通过优化资源分配、智能消费管理、精准监测预测以及改善客户体验等多方面推动行业转型。MyEMS作为重要工具,基于Python语言集成AI技术,实现数据采集处理、负荷预测、能源优化控制、故障诊断预警及可视化展示等功能,提供全面智能化解决方案,助力可持续发展与能源效率提升。
40 0

热门文章

最新文章