按照ModelScope官网VLLM推理加速与部署的问题,依然报错,怎么解决?

"https://github.com/modelscope/swift/blob/main/docs/source/LLM/VLLM%E6%8E%A8%E7%90%86%E5%8A%A0%E9%80%9F%E4%B8%8E%E9%83%A8%E7%BD%B2.md 按照ModelScope官网VLLM推理加速与部署的问题,依然报错,怎么解决? conda create -n swift-vllm python=3.11pip install 'ms-swift[llm]' -Upip install vllm -Upip install openai -U运行CUDA_VISIBLE_DEVICES=0 swift app-ui --ckpt_dir 'xxx/vx-xxx/checkpoint-xxx-merged' --infer_backend vllm报错如下: 17f7ffe38849630d8813007599fad7e0.png
随后执行了pip install transformers==4.33.2还是报错"

展开
收起
小小爱吃香菜 2024-05-01 13:28:39 212 分享 版权
1 条回答
写回答
取消 提交回答

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352

热门讨论

热门文章

还有其他疑问?
咨询AI助理