代码如下:
inference_pipeline = pipeline( task = Tasks.auto_speech_recognition, model = "damo/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-pytorch", device = "cuda:0", )
无论device怎么设置,都会自动把数据放到一块固定的GPU上
可以使用CUDA_VISIBLE_DEVICES参数指定使用那张卡,cpu解码的话,把CUDA_VISIBLE_DEVICES参数设置成-1 例子: GPU 比如想指定用第3卡跑解码 CUDA_VISIBLE_DEVICES=3 python infer.py CPU CUDA_VISIBLE_DEVICES=-1 python infer.py