.ModelScope从modelhub直接下载的模型需要通过vllm部署的时候需要在什么地方设置?

ValueError: Loading /home/admin/.cache/modelscope/hub/tclf90/glm-4-9b-chat-GPTQ-Int8/ requires you to execute the configuration file in that repo on your local machine. Make sure you have read the code there to avoid malicious use, then set the option trust_remote_code=True to remove this error.ModelScope从modelhub直接下载的模型需要通过vllm部署的时候需要在什么地方设置trust_remote_code=True?

展开
收起
防火防爆 2024-08-16 16:08:49 487 发布于辽宁 分享
分享
版权
举报
1 条回答
写回答
取消 提交回答
  • 您参考这条命令,VLLM_USE_MODELSCOPE=True python -m vllm.entrypoints.openai.api_server --model="qwen/Qwen-7B-Chat" --revision="v1.1.8" --trust-remote-code。此回答整理自钉钉群“魔搭ModelScope开发者联盟群 ①”

    2024-08-28 11:27:00 举报
    赞同 评论

    评论

    全部评论 (0)

    登录后可评论

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352

热门讨论

热门文章

还有其他疑问?
咨询AI助理
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等