开发者社区 > ModelScope模型即服务 > 语音 > 正文

用inference_pipeline时无法指定gpu

代码如下:

inference_pipeline = pipeline( task = Tasks.auto_speech_recognition, model = "damo/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-pytorch", device = "cuda:0", )

无论device怎么设置,都会自动把数据放到一块固定的GPU上

展开
收起
lingchen88 2023-02-21 13:25:02 509 0
1 条回答
写回答
取消 提交回答
  • 可以使用CUDA_VISIBLE_DEVICES参数指定使用那张卡,cpu解码的话,把CUDA_VISIBLE_DEVICES参数设置成-1 例子: GPU 比如想指定用第3卡跑解码 CUDA_VISIBLE_DEVICES=3 python infer.py CPU CUDA_VISIBLE_DEVICES=-1 python infer.py

    2023-02-22 17:39:45
    赞同 展开评论 打赏

包括语音识别、语音合成、语音唤醒、声学设计及信号处理、声纹识别、音频事件检测等多个领域

相关电子书

更多
低代码开发师(初级)实战教程 立即下载
冬季实战营第三期:MySQL数据库进阶实战 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载