modelscope-funasr怎么设置使得模型可以用CUDA0以外的其他gpu?设置device='cuda:1'模型在cuda 0之外的gpu上面做推理就会出现 RuntimeError: Expected all tensors to be on the same device, but found at least two devices, cuda:1 and cuda:0
模型是基于PyTorch构建的,确保在模型加载和推理时,通过.to(device)方法将模型转移到目标GPU上,这里的device应该是你想要使用的GPU,比如device = torch.device('cuda:1'),然后model.to(device)。
确保所有输入数据、中间变量以及模型都在同一个GPU上。如果使用 DataLoader,可以通过num_workers参数指定使用哪个GPU,并且在数据加载时就将数据转移到目标GPU。