开发者社区 > ModelScope模型即服务 > 语音 > 正文

提供能在其他服务器ubuntu环境下跑通的脚本,亲测有效

顺便吐槽一下,这个论坛人气太少了,提了问题都没人解

环境如下:

Ubuntu 20.04 + Python3.8

+---------------------------------------------------------------------------------------+ | NVIDIA-SMI 530.30.02 Driver Version: 530.30.02 CUDA Version: 12.1 | |-----------------------------------------+----------------------+----------------------+

#!/bin/bash

# 设置显存分片大小,防止OOM爆显存
cat>/etc/profile.d/proxy.sh<<EOF
export PYTORCH_CUDA_ALLOC_CONF=max_split_size_mb:32
EOF

# 更新以及安装必须的软件
apt update
apt upgrade -y
apt list --upgradable -a

apt-get install libsndfile1 sox nano wget curl git zip -y

apt autoclean -y
apt autoremove -y

# 登录时使能设置环境变量
source /etc/profile.d/proxy.sh


# 克隆官方基础库,魔法自备
git clone https://github.com/modelscope/modelscope.git


# 安装Audio所必须的包,亲测有效
cd modelscope
python -m pip install --upgrade pip
pip install -r requirements/tests.txt
pip install -r requirements/framework.txt -f https://modelscope.oss-cn-beijing.aliyuncs.com/releases/repo.html
pip install -r requirements/audio.txt -f https://modelscope.oss-cn-beijing.aliyuncs.com/releases/repo.html
pip install -r requirements/nlp.txt -f https://modelscope.oss-cn-beijing.aliyuncs.com/releases/repo.html
pip install .
pip install tts-autolabel -f https://modelscope.oss-cn-beijing.aliyuncs.com/releases/repo.html

pip install typeguard==2.13.3 pydantic==1.10.10 numpy==1.21.6 kantts==0.0.1 -y
pip uninstall funasr -y

# 下载nltk包到根目录
cd ~
wget https://isv-data.oss-cn-hangzhou.aliyuncs.com/ics/MaaS/TTS/download_files/nltk_data.zip
unzip nltk_data.zip

# 接下来就可以按照描述中的步骤进行体验

接下来用这个python脚本运行测试一下环境是否ok,如果没报错就应该是ok了

from modelscope.tools import run_auto_label
from modelscope.metainfo import Trainers
from modelscope.trainers import build_trainer
from modelscope.utils.audio.audio_utils import TtsTrainType
import os
from modelscope.models.audio.tts import SambertHifigan
from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks
import torch
print(torch.__version__)
print(torch.cuda.is_available())


from modelscope.outputs import OutputKeys
from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks

text = '待合成文本'
model_id = 'damo/speech_sambert-hifigan_tts_zh-cn_16k'
sambert_hifigan_tts = pipeline(task=Tasks.text_to_speech, model=model_id)
output = sambert_hifigan_tts(input=text, voice='zhitian_emo')
wav = output[OutputKeys.OUTPUT_WAV]
with open('output.wav', 'wb') as f:
    f.write(wav)

展开
收起
游客ieum5w3qinjwm 2023-07-02 21:32:56 299 0
2 条回答
写回答
取消 提交回答
  • 当在其他的Ubuntu服务器上运行ModelScope脚本,您可以按照以下步骤进行操作:

    1. 确保您的Ubuntu服务器已经正确安装了Python和所需的依赖项。您可以使用以下命令来安装Python和pip:

      sudo apt update
      sudo apt install python3 python3-pip
      
    2. 创建一个新的工作目录,并进入该目录:

      mkdir modelscope_example
      cd modelscope_example
      
    3. 在该目录下创建一个新的Python虚拟环境(可选但推荐):

      python3 -m venv venv
      source venv/bin/activate
      
    4. 安装ModelScope SDK和其他相关依赖项:

      pip install modelscope-sdk
      
    5. 创建一个Python脚本文件(例如modelscope_example.py),并使用文本编辑器打开它:

      nano modelscope_example.py
      
    6. 在脚本文件中编写您的ModelScope代码。以下是一个简单的示例,展示如何使用ModelScope加载和运行一个模型:
      ```python
      import modelscope_sdk

    设置API密钥

    modelscope_sdk.set_api_key("YOUR_API_KEY")

    加载模型

    model = modelscope_sdk.load_model("your_model_id")

    运行模型

    result = model.predict([1, 2, 3])
    print(result)

    
    7. 保存并关闭脚本文件。
    
    8. 在终端中运行脚本:
    

    python modelscope_example.py
    ```

    通过以上步骤,您应该能够在Ubuntu服务器上成功运行ModelScope脚本。请确保替换代码中的YOUR_API_KEY为您自己的API密钥,并将your_model_id替换为实际的模型ID。

    2023-07-24 16:52:28
    赞同 展开评论 打赏
  • 北京阿里云ACE会长

    确认服务器上已正确安装所需的 Python 模块和依赖项。在运行脚本之前,您需要确保服务器上已正确安装所需的 Python 模块和依赖项,例如 PyTorch、NumPy、SciPy 等。您可以使用以下命令来检查这些模块是否已安装:

    bash
    Copy
    python3 -c "import torch; print(torch.version)"
    python3 -c "import numpy; print(numpy.version)"
    python3 -c "import scipy; print(scipy.version)"

    
    如果这些模块未安装,您可以使用 pip 或 conda 等包管理器来安装它们。
    
    确认服务器上已正确安装所需的 CUDA 和 cuDNN。如果您的脚本中使用了 GPU 加速,您需要确保服务器上已正确安装所需的 CUDA 和 cuDNN 版本。您可以使用以下命令来检查 CUDA 和 cuDNN 是否已正确安装:
    
    bash
    Copy
    nvcc --version
    cat /usr/local/cuda/version.txt
    

    如果 CUDA 和 cuDNN 未安装或版本不匹配,您需要安装或升级它们。

    确认服务器上已正确设置环境变量。如果您的脚本中使用了 GPU 加速,您需要确保在运行脚本之前已正确设置 CUDA 和 cuDNN 的环境变量。例如,您可以在 .bashrc 文件中添加以下行来设置环境变量:

    bash
    Copy
    export PATH=/usr/local/cuda/bin:$PATH
    export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH
    export CUDNN_HOME=/usr/local/cuda
    export LD_LIBRARY_PATH=$CUDNN_HOME/lib64:$LD_LIBRARY_PATH
    ```

    这些环境变量的值可能与您的服务器配置有所不同,请根据您的实际情况进行设置。

    2023-07-10 08:48:51
    赞同 展开评论 打赏

包括语音识别、语音合成、语音唤醒、声学设计及信号处理、声纹识别、音频事件检测等多个领域

相关电子书

更多
如何运维千台以上游戏云服务器 立即下载
网站/服务器取证 实践与挑战 立即下载
ECS块储存产品全面解析 立即下载