示例代码
from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks
pipeline_ins = pipeline(
Tasks.faq_question_answering,
'damo/nlp_structbert_faq-question-answering_chinese-base',
device='cuda'
)
pipeline_ins.get_sentence_embedding(['你好'])
执行时没发现gpu的占用
在你提供的示例代码中,get_sentence_embedding
方法的实现并没有明确指出是否使用了GPU。然而,从你指明device='cuda'
这一点来看,它应该尝试使用CUDA设备(通常是NVIDIA GPU)进行计算。如果执行时没有发现GPU占用,可能有以下原因:
模型不支持GPU:
环境配置问题:
torch.cuda.is_available()
返回的结果,以确保你的Python环境能够访问CUDA设备。资源限制:
nvidia-smi
命令检查当前的GPU状态,包括已分配的内存、正在运行的进程等。代码错误或优化问题:
为了确定get_sentence_embedding
是否实际使用了GPU,你可以尝试以下操作:
torch.cuda.current_device()
和torch.cuda.get_device_name()
来检查当前使用的设备和设备名称。nvidia-smi
或类似的工具来观察GPU在调用get_sentence_embedding
时是否有活动。ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352