开发者社区 > ModelScope模型即服务 > 正文

按照ModelScope官网VLLM推理加速与部署的问题,依然报错,怎么解决?

"https://github.com/modelscope/swift/blob/main/docs/source/LLM/VLLM%E6%8E%A8%E7%90%86%E5%8A%A0%E9%80%9F%E4%B8%8E%E9%83%A8%E7%BD%B2.md 按照ModelScope官网VLLM推理加速与部署的问题,依然报错,怎么解决? conda create -n swift-vllm python=3.11pip install 'ms-swift[llm]' -Upip install vllm -Upip install openai -U运行CUDA_VISIBLE_DEVICES=0 swift app-ui --ckpt_dir 'xxx/vx-xxx/checkpoint-xxx-merged' --infer_backend vllm报错如下: 17f7ffe38849630d8813007599fad7e0.png
随后执行了pip install transformers==4.33.2还是报错"

展开
收起
Lucidly 2024-05-01 13:28:39 20 0
1 条回答
写回答
取消 提交回答

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352

相关电子书

更多
视觉AI能力的开放现状及ModelScope实战 立即下载
ModelScope助力语音AI模型创新与应用 立即下载
低代码开发师(初级)实战教程 立即下载