开发者社区 > ModelScope模型即服务 > 正文

ModelScope使用vllm启动Qwen2-57B-A14B-报这个错是什么意思?

"78ea01103e93276c044f31355ac5f502.png
ModelScope使用vllm启动Qwen2-57B-A14B-Instruct-GPTQ-Int4,报这个错是什么意思? 模型下载我使用modelscope download --model 'qwen/Qwen2-57B-A14B-Instruct-GPTQ-Int4' --local_dir './Qwen2-57B-A14B-Instruct-GPTQ-Int4' adc1ddcd98631928157f380618c0d91f.png
"

展开
收起
小小爱吃香菜 2024-07-17 08:18:30 112 0
1 条回答
写回答
取消 提交回答
  • "9668750f53acab92d0aa231e0a28f8ef.png
    这个才是比较关键的日志,看错误应该是vllm对这个模型的支持仅限于量化版本,可以查看下vllm官方文档是否如此 。 --quantization参数会比较有用。参考以下链接
    https://docs.vllm.ai/en/latest/quantization/auto_awq.html
    此回答整理自钉群“魔搭ModelScope开发者联盟群 ①”"

    2024-07-17 13:02:49
    赞同 5 展开评论 打赏

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352

热门讨论

热门文章

相关电子书

更多
视觉AI能力的开放现状及ModelScope实战 立即下载
ModelScope助力语音AI模型创新与应用 立即下载
低代码开发师(初级)实战教程 立即下载