ModelScope加完后运行报错,改脚本的哪个参数吗?

"59ef97c4b7b776ffb412f18379ec8157.png
ModelScope加完后运行报错,改脚本的哪个参数吗?"

展开
收起
小小爱吃香菜 2024-04-16 16:39:53 113 分享 版权
阿里云 AI 助理回答

在使用 ModelScope 时,如果运行报错,可能需要检查以下几个关键参数和配置是否正确。以下是可能导致问题的常见原因及解决方法:


1. 检查模型 ID 和版本号

确保脚本中指定的 MODEL_IDREVISION 参数与 ModelScope 官网上的模型信息一致。如果模型 ID 或版本号错误,可能会导致下载失败或运行报错。

  • 修改方式
    • 在脚本中找到类似以下代码段:
    MODEL_ID = "Qwen/Qwen-7B-Chat"
    REVISION = "v1.1.7"
    
    • 确保 MODEL_IDREVISION 的值与 ModelScope 官网提供的信息一致。
    • 如果不确定版本号,可以在 ModelScope 官网的模型页面查看最新版本。

2. 检查环境变量配置

如果部署的是非公开模型,需要配置访问令牌(ACCESS_TOKEN)。缺少或错误的访问令牌会导致权限验证失败。

  • 修改方式
    • 在脚本中添加或检查以下环境变量:
    export ACCESS_TOKEN="your-modelscope-sdk-token"
    
    • 如果未设置 SDK Token,可以通过 ModelScope 官网获取并正确配置。

3. 检查 GPU 驱动和资源分配

ModelScope 模型通常对 GPU 资源有较高要求。如果 GPU 驱动版本不匹配或显存不足,可能会导致运行失败。

  • 修改方式
    • 确保 GPU 节点的驱动版本为推荐的 525.105.17,可以通过为节点池添加标签来指定驱动版本:
    ack.aliyun.com/nvidia-driver-version:525.105.17
    
    • 确保 GPU 显存满足模型需求。例如,7B 模型建议使用 GU30 系列显卡,14B 模型可能需要双卡或更高显存的机型。

4. 检查磁盘空间

模型下载和运行需要足够的磁盘空间。如果磁盘空间不足,可能会导致模型下载失败或运行报错。

  • 修改方式
    • 确保 GPU 节点的磁盘空间至少预留 30 GB
    • 如果磁盘空间不足,可以通过扩容云盘解决。具体操作可参考云盘扩容指引。

5. 检查运行命令和依赖库

运行脚本时,确保所有依赖库已正确安装,并且运行命令与镜像配置匹配。

  • 修改方式
    • 检查是否安装了必要的依赖库,例如 git-lfsmodelscope
    sudo apt-get update
    sudo apt-get install git-lfs
    pip install modelscope
    
    • 确保运行命令与镜像配置一致。例如,使用 Arena 部署时,运行命令应如下所示:
    arena serve custom \
    -name=modelscope \
    -version=v1 \
    -gpus=1 \
    -replicas=1 \
    -restful-port=8000 \
    -image=kube-ai-registry.cn-shanghai.cr.aliyuncs.com/kube-ai/quick-deploy-llm:v1 \
    "MODEL_ID=qwen/Qwen1.5-4B-Chat python3 server.py"
    

6. 检查日志和错误信息

如果上述配置均无误,但仍然报错,建议查看详细的日志信息以定位问题。

  • 修改方式
    • 使用以下命令查看推理服务的详细信息:
    arena serve get modelscope
    
    • 根据日志中的错误提示,进一步调整相关参数或配置。

总结

根据知识库资料,运行报错时需要重点检查以下内容: 1. 模型 ID 和版本号 是否正确; 2. 环境变量 是否配置完整; 3. GPU 驱动和资源分配 是否满足需求; 4. 磁盘空间 是否充足; 5. 运行命令和依赖库 是否正确安装和配置。

如果问题仍未解决,请提供具体的错误日志以便进一步分析。您可以复制页面截图提供更多信息,我可以进一步帮您分析问题原因。

有帮助
无帮助
AI 助理回答生成答案可能存在不准确,仅供参考
0 条回答
写回答
取消 提交回答

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352

热门讨论

热门文章

还有其他疑问?
咨询AI助理