用inference_pipeline时无法指定gpu

代码如下:

inference_pipeline = pipeline( task = Tasks.auto_speech_recognition, model = "damo/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-pytorch", device = "cuda:0", )

无论device怎么设置,都会自动把数据放到一块固定的GPU上

展开
收起
lingchen88 2023-02-21 13:25:02 580 分享 版权
1 条回答
写回答
取消 提交回答
  • 可以使用CUDA_VISIBLE_DEVICES参数指定使用那张卡,cpu解码的话,把CUDA_VISIBLE_DEVICES参数设置成-1 例子: GPU 比如想指定用第3卡跑解码 CUDA_VISIBLE_DEVICES=3 python infer.py CPU CUDA_VISIBLE_DEVICES=-1 python infer.py

    2023-02-22 17:39:45
    赞同 展开评论

包括语音识别、语音合成、语音唤醒、声学设计及信号处理、声纹识别、音频事件检测等多个领域

收录在圈子:
+ 订阅

热门讨论

热门文章

还有其他疑问?
咨询AI助理