IoT

使用钉钉扫一扫加入圈子

物联网软硬件开发者一站式基地

找工具、找技术、找活动、找朋友、找资源,全在这里!大咖解读,助你深度了解物联网平台玩法;名师授课,手把手教你软硬件开发实战;活动聚会,最快找到技术同路人;扶持计划,为开发者提供入门到商业化的整体支持。

1

回答


我已经认真阅读了 你的问题:

【 FaceChain训练的人物Lora能否导出safetensors文件使用?

并思考了

建议如下:


是的,其他版本的 FaceChain 也是类似的。在训练过程中,人物 Lora 的权重通常会保存在一个二进制文件中,如您提到的 pytorch_lora_weights.bin。这个文件包含了模型在训练过程中学到的参数。
要将训练好的人物 Lora 导出到本地部署的 stable-diffusion 中使用,您需要执行以下步骤:

  1. 确保您的本地环境中已经安装了 PyTorch 和 stable-diffusion。
  2. 将训练好的人物 Lora 的权重文件(例如:pytorch_lora_weights.bin)和模型文件(例如:pytorch_lora_model.pt)从训练环境导出到本地环境。
  3. 在本地环境中使用 PyTorch 加载模型和权重。例如:

import torch
model = torch.load('pytorch_lora_model.pt')
weight = torch.load('pytorch_lora_weights.bin')
CopyCopy

  1. 使用 stable-diffusion 加载模型和权重。在稳定扩散的 Python API 中,您需要使用 load_model 函数加载模型和权重。例如:

from stable_baselines3 import PPO
from stable_baselines3.common.policies import ActorCriticPolicy
from stable_baselines3.common.env_util import make_vec_env
from stable_baselines3.common.callbacks import BaseCallback
from stable_baselines3.common.vec_env import VecNormalize

创建一个 PPO 模型

model = PPO(ActorCriticPolicy, env='Pendulum-v0', verbose=1)

加载训练好的模型和权重

model.load_model('pytorch_lora_model.pt', 'pytorch_lora_weights.bin')

创建一个环境

env = make_vec_env('Pendulum-v0', n_envs=4)

创建一个回调

class CustomCallback(BaseCallback):
def _on_step(self) -> bool:
return True

设置回调

model.learn(env, total_timesteps=10000, callback=CustomCallback())
CopyCopy

这样,您就可以在本地部署的 stable-diffusion 中使用训练好的人物 Lora 了。

算精通 评论 1

3

回答

游客b3gdsaqsmvhza 2023-08-25 423浏览量 回答数 3

57

回答

1

回答

2

回答

1

回答

已经全部加载了,小花花送你

近期公开课 全部