Hunyuan3D 2.0:腾讯混元开源3D生成大模型!图生/文生秒建高精度模型,细节纹理自动合成

本文涉及的产品
图像搜索,任选一个服务类型 1个月
简介: Hunyuan3D 2.0 是腾讯推出的大规模 3D 资产生成系统,专注于从文本和图像生成高分辨率的 3D 模型,支持几何生成和纹理合成。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 丰富的 AI 工具库 -> 每日更新 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦


🖌️ 「美术团队集体失业?腾讯这个AI把3D建模卷成填空题」

大家好,我是蚝油菜花。你是否也经历过这些数字创作者的噩梦:

  • 👉 原画师通宵赶稿,模型师却说「这个结构建不出来」
  • 👉 ZBrush雕到鼠标冒火星,UV展开像解莫比乌斯环
  • 👉 渲染农场跑一天,客户却说「纹理质感像塑料玩具」...

腾讯最新祭出的 Hunyuan3D 2.0 ,正在用「两段式生成术」血洗3D制作圈!这个让好莱坞视效总监都瞠目的AI,刚创下三大逆天纪录:

  • 几何精度暴涨300% :一根发丝级的模型细节秒杀传统流程
  • 纹理智能映射 :把「赛博朋克」文字描述变成8K PBR材质
  • Blender无缝对接 :AI生成模型直接进生产线修改

最疯狂的是某游戏公司实测——用这个工具把角色建模从3周压到2小时!

🚀 快速阅读

Hunyuan3D 2.0 是腾讯推出的大规模 3D 资产生成系统。

  1. 核心功能:支持高分辨率 3D 模型生成,几何与纹理分离生成,提供多种使用方式。
  2. 技术原理:采用两阶段生成流程,基于流扩散的几何生成模型和强大的纹理合成模型。

Hunyuan3D 2.0 是什么

Hunyuan3D-2-cover

Hunyuan3D 2.0 是腾讯推出的大规模 3D 资产生成系统,专注于从文本和图像生成高分辨率的 3D 模型。系统采用两阶段生成流程:首先生成无纹理的几何模型,再合成高分辨率纹理贴图。

该系统包含两个核心组件:Hunyuan3D-DiT(几何生成模型)和 Hunyuan3D-Paint(纹理合成模型),分别用于生成精确的几何结构和生动逼真的纹理。通过这种解耦方式,Hunyuan3D 2.0 能够有效分离形状和纹理生成的复杂性,同时为生成或手工制作的几何模型提供灵活的纹理处理。

Hunyuan3D 2.0 生成的 3D 示例

Hunyuan3D-2-e2e-1-s.gif

Hunyuan3D-2-e2e-2-s.gif

Hunyuan3D 2.0 的主要功能

Hunyuan3D-2-goods

  • 高分辨率 3D 模型生成:通过两阶段生成流程,先生成无纹理的几何模型,再为其合成纹理贴图,有效分离了形状和纹理生成的复杂性。
  • 高质量生成效果:在几何细节、条件对齐和纹理质量等方面全面优于现有的开源和闭源模型。
  • 多样的使用方式:支持通过代码调用、Gradio 应用、Blender 插件以及在线快速体验。

Hunyuan3D 2.0 的技术原理

Hunyuan3D-2-arch

  • 两阶段生成流程:Hunyuan3D 2.0 采用两阶段生成策略:首先是几何生成,然后是纹理生成。这种解耦方式有效分离了形状和纹理生成的复杂性,同时为生成或手工制作的几何模型提供灵活的纹理处理。
  • 几何生成模型(Hunyuan3D-DiT):Hunyuan3D-DiT 是基于流扩散的扩散模型,生成与给定条件图像精确匹配的几何模型。通过 Hunyuan3D-ShapeVAE 将 3D 形状编码为连续的潜码,然后基于双流和单流的 Transformer 架构进行扩散模型训练。
  • 纹理生成模型(Hunyuan3D-Paint):Hunyuan3D-Paint 基于强大的几何和扩散先验知识,为生成或手工制作的网格模型生成高分辨率且生动逼真的纹理贴图。通过多视图扩散生成方案,结合几何条件(如法线图和位置图)生成多视图图像,烘焙为高分辨率纹理。
  • 性能优化:Hunyuan3D 2.0 在几何细节、条件对齐和纹理质量等方面表现出色,超越了现有的开源和闭源模型。评估结果显示,在生成质量上显著优于其他基准模型。

如何运行 Hunyuan3D 2.0

Hunyuan3D 2.0 提供了多种运行方式,无论是通过代码、Gradio 应用、API 服务器,还是 Blender 插件,都能满足不同用户的需求。希望本教程能帮助你快速上手并发挥 Hunyuan3D 2.0 的强大功能!

1. 安装依赖

在开始之前,确保你的环境中已经安装了必要的依赖库。以下是安装步骤:

安装 PyTorch

请根据你的硬件配置(如是否使用 GPU)从PyTorch安装适合的版本。

安装其他依赖

运行以下命令安装其他必要的依赖库:

pip install -r requirements.txt
# 安装纹理生成相关的扩展
cd hy3dgen/texgen/custom_rasterizer
python3 setup.py install
cd ../../..
cd hy3dgen/texgen/differentiable_renderer
python3 setup.py install

2. 使用代码运行模型

Hunyuan3D 2.0 提供了一个类似于 diffusers 的 API,用于加载和运行形状生成模型 Hunyuan3D-DiT 和纹理合成模型 Hunyuan3D-Paint

使用 Hunyuan3D-DiT 生成形状

from hy3dgen.shapegen import Hunyuan3DDiTFlowMatchingPipeline

# 加载预训练模型
pipeline = Hunyuan3DDiTFlowMatchingPipeline.from_pretrained('tencent/Hunyuan3D-2')
# 使用输入图像生成 3D 形状
mesh = pipeline(image='assets/demo.png')[0]

# 将生成的网格保存为 GLB 文件
mesh.export('output_model.glb')

使用 Hunyuan3D-Paint 生成纹理

from hy3dgen.texgen import Hunyuan3DPaintPipeline
from hy3dgen.shapegen import Hunyuan3DDiTFlowMatchingPipeline

# 首先生成 3D 形状
pipeline = Hunyuan3DDiTFlowMatchingPipeline.from_pretrained('tencent/Hunyuan3D-2')
mesh = pipeline(image='assets/demo.png')[0]

# 然后为形状生成纹理
pipeline = Hunyuan3DPaintPipeline.from_pretrained('tencent/Hunyuan3D-2')
mesh = pipeline(mesh, image='assets/demo.png')

# 将带有纹理的模型保存为 GLB 文件
mesh.export('textured_model.glb')

代码解释

  1. Hunyuan3DDiTFlowMatchingPipeline 用于从输入图像生成 3D 形状。返回的 mesh 是一个 trimesh 对象,可以保存为多种格式的文件。
  2. Hunyuan3DPaintPipeline 用于为生成的 3D 形状添加纹理。
  3. 最终生成的模型可以导出为 GLB 或 OBJ 文件,方便在其他 3D 工具中使用。

3. 使用 Gradio 应用

如果你希望通过图形界面运行 Hunyuan3D 2.0,可以使用 Gradio 应用。以下是启动不同模型的命令:

# 启动 Hunyuan3D-2mini
python3 gradio_app.py --model_path tencent/Hunyuan3D-2mini --subfolder hunyuan3d-dit-v2-mini --texgen_model_path tencent/Hunyuan3D-2

# 启动 Hunyuan3D-2mv
python3 gradio_app.py --model_path tencent/Hunyuan3D-2mv --subfolder hunyuan3d-dit-v2-mv --texgen_model_path tencent/Hunyuan3D-2

# 启动 Hunyuan3D-2
python3 gradio_app.py --model_path tencent/Hunyuan3D-2 --subfolder hunyuan3d-dit-v2-0 --texgen_model_path tencent/Hunyuan3D-2

4. 使用 API 服务器

你也可以通过本地 API 服务器发送请求,实现从图像到 3D 模型的生成。以下是启动服务器和发送请求的示例:

启动 API 服务器

python api_server.py --host 0.0.0.0 --port 8080

发送 POST 请求生成 3D 模型

# 将图像转换为 Base64 字符串
img_b64_str=$(base64 -i assets/demo.png)

# 发送 POST 请求
curl -X POST "http://localhost:8080/generate" \
     -H "Content-Type: application/json" \
     -d '{
           "image": "'"$img_b64_str"'",
         }' \
     -o test2.glb

5. 使用 Blender 插件

通过 API 服务器,你还可以在 Blender 中使用 Hunyuan3D 2.0。请参考Blender 插件教程进行安装和使用。

6. 在线体验

如果你不想在本地运行,可以直接访问Hunyuan3D 在线体验进行快速使用。

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 丰富的 AI 工具库 -> 每日更新 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦

相关文章
|
6月前
|
编解码 物联网 API
"揭秘SD文生图的神秘面纱:从选择模型到生成图像,一键解锁你的创意图像世界,你敢来挑战吗?"
【10月更文挑战第14天】Stable Diffusion(SD)文生图功能让用户通过文字描述生成复杂图像。过程包括:选择合适的SD模型(如二次元、2.5D、写实等),编写精准的提示词(正向和反向提示词),设置参数(迭代步数、采样方法、分辨率等),并调用API生成图像。示例代码展示了如何使用Python实现这一过程。
348 4
|
4月前
|
人工智能 编解码 机器人
NVILA:英伟达开源视觉语言大模型,高效处理高分辨率图像和长视频
NVILA是英伟达推出的视觉语言大模型,旨在高效处理高分辨率图像和长视频,同时保持高准确性。该模型通过“扩展-压缩”策略和多种优化技术,在多个领域如机器人导航和医疗成像中展现出广泛的应用潜力。
166 13
NVILA:英伟达开源视觉语言大模型,高效处理高分辨率图像和长视频
|
5月前
|
编解码 人工智能 调度
Meissonic:高效高分辨率文生图重大革新
Meissonic的新模型,仅1b参数可实现高质量图像生成,能在普通电脑上运行,未来有望支持无线端文本到图像的生成。
|
7月前
|
JSON 人工智能 物联网
西游再现,一键部署 Flux 文生图大模型生成西游人物
从花果山的灵石出世,到取经路上的九九八十一难,再到大闹天宫的惊心动魄……这些耳熟能详的西游场景,如今都能通过 Flux 模型,以超乎想象的细节和真实感呈现在你眼前。本次实验在函数计算中内置的 flux.1-dev-fp8 大模型,搭配 Lora 模型,无需复杂的配置,一键部署,你就能成为这场视觉盛宴的创造者。
478 17
|
8月前
|
算法 物联网 Serverless
一键打造你的定制化AIGC文生图工具
【8月更文挑战第2天】一键打造你的定制化AIGC文生图工具
258 0
|
8月前
|
机器学习/深度学习 人工智能 编解码
AI文生图模型
8月更文挑战第16天
|
8月前
|
机器学习/深度学习 人工智能 编解码
|
编解码 人工智能 算法
社区供稿 | AIGC图像分辨率太低?快来试试像素感知扩散超分模型,你想要的细节都在这里!
本文介绍了一种全新的基于SD生成先验的图像超分辨率和修复算法,在多个任务上都有着SOTA的表现。
|
11月前
|
编解码 人工智能
PixArt-Σ:华为最新文生图模型,支持4K高清图像生成
【5月更文挑战第18天】华为发布PixArt-Σ模型,一款基于DiT架构的4K图像生成器,提升图像质量和文本对齐度。模型采用“弱到强训练”,以少量参数生成优质图像。引入高质量数据和高效标记压缩方法,实现超高分辨率图像生成。实验显示,PixArt-Σ在遵循复杂文本提示和图像质量上表现优异,与顶尖T2I模型相当。然而,计算资源需求大及处理复杂场景能力有限仍是待解问题。[链接](https://arxiv.org/pdf/2403.04692.pdf)
228 1
|
10月前
使用高性能服务器训练StableDiffusion——人物模型.safetensors
使用高性能服务器训练StableDiffusion——人物模型.safetensors
129 0

热门文章

最新文章