问题一:各位老师好,问一下,怎样让modelscope在昇腾的NPU上运行问题二:你用的torch 和modelscope 是什么版本的。 除了安装modelscope外,我还需要做些什么吗
要使modelscope在昇腾的NPU上运行,您需要按照以下几个步骤进行操作:
首先,确保您的设备上已经安装了PaddlePaddle SDK。
其次,在安装PaddlePaddle SDK之后,请务必正确安装昇腾NPU的驱动程序,并将其添加到系统路径中。有关详细信息,请参阅华为官网的相关教程。
然后,使用ModelScope命令进行模型下载。您可以使用pip install命令安装ModelScope CLI工具包。例如:
pip install paddle-modelsuite-client
接下来,您可以使用ModelScope CLI命令进行模型下载。例如:
modelctl download --name resnet50_vd
最后,您可以使用以下代码将模型部署到昇腾NPU上:
from paddleslim.nas import NASNet
from paddleslim.common import get_logger
def main():
# 创建NASNet实例
nas = NASNet()
# 将模型部署到昇腾NPU
nas.deploy_huawei_ascend_npu()
if __name__ == "__main__":
main()
关于您的第二个问题,“你用的torch 和modelscope 是什么版本的”,由于我的知识库中并未包含相关信息,因此无法为您提供准确的答案。
问题一:要让Modelscope在昇腾的NPU上运行,你需要确保已经安装了适用于NPU的PyTorch版本,并且你的代码已经针对NPU进行了优化。此外,你可能还需要对Modelscope的代码进行一些修改,以适应NPU的计算特性。具体的操作步骤可能需要参考华为的官方文档或者咨询华为的工程师。
问题二:我使用的PyTorch和Modelscope的版本分别是1.9.0和0.4.0。这些版本是经过测试的,可以正常运行。如果你想使用其他版本,请确保它们与你的硬件和软件环境兼容。除了安装Modelscope之外,你可能还需要安装一些其他的依赖库,具体可以参考Modelscope的官方文档。
针对问题一的回答:我直接传入了acc包的device,成功了。您试一下这种方式,这是以前开发者用到的。
device_map=device针对问题二的回答:torch 2.0.1+cu118
modelscope 1.9.3
这是其他开发者写的,您浏览器搜一下npu相关的看看。——此回答整理自钉群:魔搭ModelScope开发者联盟群 ①