顺便吐槽一下,这个论坛人气太少了,提了问题都没人解
环境如下:
Ubuntu 20.04 + Python3.8
+---------------------------------------------------------------------------------------+ | NVIDIA-SMI 530.30.02 Driver Version: 530.30.02 CUDA Version: 12.1 | |-----------------------------------------+----------------------+----------------------+
#!/bin/bash
# 设置显存分片大小,防止OOM爆显存
cat>/etc/profile.d/proxy.sh<<EOF
export PYTORCH_CUDA_ALLOC_CONF=max_split_size_mb:32
EOF
# 更新以及安装必须的软件
apt update
apt upgrade -y
apt list --upgradable -a
apt-get install libsndfile1 sox nano wget curl git zip -y
apt autoclean -y
apt autoremove -y
# 登录时使能设置环境变量
source /etc/profile.d/proxy.sh
# 克隆官方基础库,魔法自备
git clone https://github.com/modelscope/modelscope.git
# 安装Audio所必须的包,亲测有效
cd modelscope
python -m pip install --upgrade pip
pip install -r requirements/tests.txt
pip install -r requirements/framework.txt -f https://modelscope.oss-cn-beijing.aliyuncs.com/releases/repo.html
pip install -r requirements/audio.txt -f https://modelscope.oss-cn-beijing.aliyuncs.com/releases/repo.html
pip install -r requirements/nlp.txt -f https://modelscope.oss-cn-beijing.aliyuncs.com/releases/repo.html
pip install .
pip install tts-autolabel -f https://modelscope.oss-cn-beijing.aliyuncs.com/releases/repo.html
pip install typeguard==2.13.3 pydantic==1.10.10 numpy==1.21.6 kantts==0.0.1 -y
pip uninstall funasr -y
# 下载nltk包到根目录
cd ~
wget https://isv-data.oss-cn-hangzhou.aliyuncs.com/ics/MaaS/TTS/download_files/nltk_data.zip
unzip nltk_data.zip
# 接下来就可以按照描述中的步骤进行体验
接下来用这个python脚本运行测试一下环境是否ok,如果没报错就应该是ok了
from modelscope.tools import run_auto_label
from modelscope.metainfo import Trainers
from modelscope.trainers import build_trainer
from modelscope.utils.audio.audio_utils import TtsTrainType
import os
from modelscope.models.audio.tts import SambertHifigan
from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks
import torch
print(torch.__version__)
print(torch.cuda.is_available())
from modelscope.outputs import OutputKeys
from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks
text = '待合成文本'
model_id = 'damo/speech_sambert-hifigan_tts_zh-cn_16k'
sambert_hifigan_tts = pipeline(task=Tasks.text_to_speech, model=model_id)
output = sambert_hifigan_tts(input=text, voice='zhitian_emo')
wav = output[OutputKeys.OUTPUT_WAV]
with open('output.wav', 'wb') as f:
f.write(wav)
当在其他的Ubuntu服务器上运行ModelScope脚本,您可以按照以下步骤进行操作:
确保您的Ubuntu服务器已经正确安装了Python和所需的依赖项。您可以使用以下命令来安装Python和pip:
sudo apt update
sudo apt install python3 python3-pip
创建一个新的工作目录,并进入该目录:
mkdir modelscope_example
cd modelscope_example
在该目录下创建一个新的Python虚拟环境(可选但推荐):
python3 -m venv venv
source venv/bin/activate
安装ModelScope SDK和其他相关依赖项:
pip install modelscope-sdk
创建一个Python脚本文件(例如modelscope_example.py
),并使用文本编辑器打开它:
nano modelscope_example.py
在脚本文件中编写您的ModelScope代码。以下是一个简单的示例,展示如何使用ModelScope加载和运行一个模型:
```python
import modelscope_sdk
modelscope_sdk.set_api_key("YOUR_API_KEY")
model = modelscope_sdk.load_model("your_model_id")
result = model.predict([1, 2, 3])
print(result)
7. 保存并关闭脚本文件。
8. 在终端中运行脚本:
python modelscope_example.py
```
通过以上步骤,您应该能够在Ubuntu服务器上成功运行ModelScope脚本。请确保替换代码中的YOUR_API_KEY
为您自己的API密钥,并将your_model_id
替换为实际的模型ID。
确认服务器上已正确安装所需的 Python 模块和依赖项。在运行脚本之前,您需要确保服务器上已正确安装所需的 Python 模块和依赖项,例如 PyTorch、NumPy、SciPy 等。您可以使用以下命令来检查这些模块是否已安装:
bash
Copy
python3 -c "import torch; print(torch.version)"
python3 -c "import numpy; print(numpy.version)"
python3 -c "import scipy; print(scipy.version)"
如果这些模块未安装,您可以使用 pip 或 conda 等包管理器来安装它们。
确认服务器上已正确安装所需的 CUDA 和 cuDNN。如果您的脚本中使用了 GPU 加速,您需要确保服务器上已正确安装所需的 CUDA 和 cuDNN 版本。您可以使用以下命令来检查 CUDA 和 cuDNN 是否已正确安装:
bash
Copy
nvcc --version
cat /usr/local/cuda/version.txt
如果 CUDA 和 cuDNN 未安装或版本不匹配,您需要安装或升级它们。
确认服务器上已正确设置环境变量。如果您的脚本中使用了 GPU 加速,您需要确保在运行脚本之前已正确设置 CUDA 和 cuDNN 的环境变量。例如,您可以在 .bashrc 文件中添加以下行来设置环境变量:
bash
Copy
export PATH=/usr/local/cuda/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH
export CUDNN_HOME=/usr/local/cuda
export LD_LIBRARY_PATH=$CUDNN_HOME/lib64:$LD_LIBRARY_PATH
```
这些环境变量的值可能与您的服务器配置有所不同,请根据您的实际情况进行设置。