notebook和本地运行出同样的错误,代码:
from modelscope.utils.constant import Tasks
from modelscope.pipelines import pipeline
pipe = pipeline(task=Tasks.chat, model='ZhipuAI/chatglm2-6b', device_map='auto', model_revision='v1.0.3')
inputs = {'text':'你好', 'history': []}
result = pipe(inputs)
inputs = {'text':'介绍下大学', 'history': result['history']}
result = pipe(inputs)
print(result)
提示:
ValueError: ChatGLM26bTextGenerationPipeline: The current device_map
had weights offloaded to the disk. Please provide an offload_folder
for them. Alternatively, make sure you have safetensors
installed if the model you
这个错误提示表明您在运行ChatGLM26bTextGenerationPipeline时遇到了问题。根据错误信息,设备映射(device_map)中的权重被卸载到了磁盘上,但没有提供相应的offload_folder来加载这些权重。另外,错误还提到如果使用的模型需要safetensors,则需要安装该库。
为了解决这个问题,您可以考虑以下几个步骤:
torch
和transformers
等必要的依赖库,并且它们的版本是兼容的。您可以使用以下命令来安装最新版本:!pip install torch transformers
safetensors
库。您可以使用以下命令来安装:!pip install safetensors
pipe = pipeline(task=Tasks.chat, model='ZhipuAI/chatglm2-6b', device_map='auto', model_revision='v1.0.3', offload_folder='/path/to/offload_folder')
请确保将/path/to/offload_folder
替换为存储权重文件的实际路径。
根据您提供的错误信息 "No module named 'models'",这个错误通常是因为模块导入错误导致的。您可以尝试在代码开头添加以下语句:
Copy
import sys
sys.path.append('path/to/models')
其中 path/to/models 是指您本地安装的 models 库的路径。这样做将会把 models 库所在的路径添加到 Python 解释器的搜索路径中,以便在运行时能够找到 models 模块。
如果您仍然遇到问题,可以尝试卸载并重新安装 models 库,以确保安装正确。您可以使用以下命令来卸载和重新安装 models 库:
Copy
!pip uninstall -y models
!pip install models
ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352