在发布了这篇博文之后,有博主给我留言提出了自己的问题,由于原文比较长,这里不再原文后继续追加,而是重新补充博文来记录。在这里,也非常欢迎其他博主来提出自己的疑问,能解答的我都会详细解答的。
原文路径:
零门槛、百万token免费用,即刻拥有DeepSeek-R1满血版,还有实践落地调用场景等你来看
问题一
非常感谢博主 醇青酱 提出的问题,这里是我个人的习惯,希望从上到下的标题保持一致,引起了歧义,稍后我会进行修改,这里先对博主的问题进行回复
对于博主的疑问,其他三种方案同样是支持DeepSeek-R1 模型版本部署的,文中只是以 蒸馏版模型部署 DeepSeek-R1-Distill-Qwen-7B 作为示例进行操作的,这一点在官方的部署文档中有明确的细分
如果你需要部署DeepSeek-R1 模型 ,也都是可以的。
对于方案二,你可以在如下页面选择部署DeepSeek-R1 模型
但是目前没有资源,另外即使有的话资源也比较贵,个人承担的话有点力不从心
对于方案三,你可以理解为现在部署的就是 DeepSeek-R1 模型,在原部署方案中有详细的介绍【通过云原生应用开发平台 CAP 部署 Ollama 和Open WebUI 两个 FC 函数。Ollama 负责托管 lmstudio-community/DeepSeek-R1-Distill-Qwen-7B-GGUF
模型,它是基于 DeepSeek-R1 的推理能力,通过蒸馏技术将推理模式迁移到较小的 Qwen 模型上,从而在保持高效性能的同时降低了计算成本。】我在文中没有详细写是为了避免大段的复制官方文档,所以才没有粘贴这段话。
对于方案四,同样也是支持部署DeepSeek-R1方案的,只是需要你在部署的时候指定具体的模型名称,部署文档默认是 deepseek-ai/DeepSeek-R1-Distill-Qwen-7B
/bin/bash -c "$(curl -fsSL https://help-static-aliyun-doc.aliyuncs.com/install-script/deepseek-r1-for-platforms/vllm_install.sh)" -- deepseek-ai/DeepSeek-R1-Distill-Qwen-7B
如果想要部署 DeepSeek-R1 模型的话,那么你需要替换 deepseek-ai/DeepSeek-R1-Distill-Qwen-7B 为新的模型,
替换为部署 DeepSeek-R1 模型之后的部署命令如下
/bin/bash -c "$(curl -fsSL https://help-static-aliyun-doc.aliyuncs.com/install-script/deepseek-r1-for-platforms/vllm_install.sh)" -- deepseek-ai/DeepSeek-R1
问题二
关于我的文章中基于函数计算FC部署DeepSeek-R1 蒸馏版方案中,提到的Web 页面无法打开对话页面体验的问题,这里做一个更新,具体的更新内容如下。
这个问题其实是我操作的问题,正确的操作应该是点击部署页面左侧的【open-webui】,查看该tab下的访问地址,
点击访问地址之后就可以正常跳转到在线的Web页面体验DeepSeek-R1 的效果了,并且加载挺快,回答挺快,最终的效果如图
原来的文章中点击的访问域名本来就是对应API 接口访问的地址,而不是 webui 的访问地址,因此在浏览器中无法打开,但是在 Chatbox 以及 HTTP调用工具中都是可以正常返回的。
若还有其他问题,欢迎大家提问。