DeepSeek在Lobechat的使用

简介: 本文介绍了如何快速基于LobeChat平台打造专属AI助手,重点讲解了两种使用DeepSeek模型的方式。DeepSeek是由中国团队开发的开源大型语言模型,性能优异且支持API调用和本地部署。LobeChat则是开源的AI对话平台,支持私有化部署与多种主流模型集成。




最近一段时间,Deepseek已经引爆了国内外,谈到AI那么绕不过去的一个就是DeepSeek。现在如果你没有自己的一个deepseek助手,似乎已经跟不上时代的潮流了,本文就来教你如何快速基于LobeChat打造你的专属AI助手

一、DeepSeek 模型介绍

DeepSeek 是由中国团队开发的开源大型语言模型(LLM),最新版本 DeepSeek-V3 通过架构优化显著提升了性能,同时将训练成本降低 42.5%、推理成本减少 93.3%

1其模型系列覆盖多种规模:

  1. 低配置适配:如 1.5B 参数版本,适用于老旧 CPU、8GB 内存及以下设备,支持基础文本处理任务7;
  2. 中高配置适配:7B 参数版本需中等硬件(如 16GB 内存、4-6GB 显存),32B 及以上版本则需高性能 CPU(如 i7/i9)和显卡(如 RTX 30 系列)7。
  3. 最顶配的还有R1,V3版本,这个就只适合云端部署了 DeepSeek 支持 API 调用和本地部署,广泛应用于对话生成、代码编写等场景。

不过由于DeepSeek太过于火爆,现在多处于服务器繁忙状态。因此,可以参考本文提供的两种方式来使用DeepSeek模型。PS:其中一种有免费额度。


二、LobeChat 平台简介

LobeChat 是开源的 AI 对话平台,支持私有化部署与主流模型集成(如 OpenAI、Claude、Gemini、Ollama 等)

6

。核心功能包括:

  1. 多模型兼容性:支持云端 API 与本地模型(通过 Ollama 等工具管理)53;
  2. 可扩展性:提供插件系统、工作流设计及自定义 AI 角色功能6;
  3. 部署灵活性:支持 Docker 容器化部署、计算巢快速部署。

三、部署与集成步骤

(方式一)通过API密钥的方式使用DeepSeek和LobeChat

APIKey有两种方式获取:

(一)获取DeepSeek密钥
  1. 官网获取 API 密钥
  • 注册 DeepSeek 开放平台,新用户获赠 500M Tokens 免费额度1;
  • 在平台中创建 API 密钥并保存(密钥仅显示一次)1。
  1. (阿里云百炼)(推荐)获取API密钥
  • 新用户100万免费token
  • 不卡顿。

教程如下:

登录百炼控制台,获取百炼API地址和API-KEY 光标悬停在右上角人行图标上,点击“API-KEY”

点击“创建我的API-KEY”,创建API-KEY,并复制它备用。API-KEY是个人保密信息,切勿泄漏。


(二)云端部署LobeChat助手

可参考阿里云计算巢的这篇文章进行部署,只需要点击几下就部署好了,非常的快速+无脑!

这个部署文章也是挺有意思的。



  1. 当我们在计算巢部署好LobeChat后,应该长这样:

  1. 直接点击红框部分进入详情页,再点这个暴露出的URL进入LobeChat界面


  1. 接下来配置上你的APIkey。注意语言模型选择Qwen(千问),然后在模型列表 手动输入 deepseek-r1,并回车,就可以免费使用满血的r1模型啦。想使用更多的deepseek模型,可以去百炼官方文档找模型编码并输入。

  1. 然后你就可以开始用你的专属DeepSeek+Lobechat助手啦!考他个经典问题试试智商!
  2. image.png



(方式二)云端部署DeepSeek,随意更换模型

  1. (阿里云计算巢)(推荐)自己部署DeepSeek模型
  • 自带WebUI界面。支持联网搜索功能
  • 可以自己更换DeepSeek的模型。比如DeepSex(狗头保命)。

部署教程:

  1. 可访问此链接进行部署。部署教程参考。整体部署过程非常简单,点击下就部署好了。
  2. 此时如果仍然想使用LobeChat,而不用上面自带的WebUI,可以参考方式一里对LobeChat进行部署。
  3. 然后对部署的DeepSeek的安全组进行放开。点击下图的安全组


  1. 将入方向的11434接口的源改为0.0.0.0/0,或者是你的LobeChat的公网ip
  2. 打开LobeChat,并在配置里填上Ollama的地址。



  1. 正常使用LobeChat

image.png


更多有意思,又好玩又有深度的服务,请访问计算巢网址


相关实践学习
2048小游戏
基于计算巢&ECS云服务器快速部署,带您畅玩2048小游戏。
目录
打赏
0
1
1
1
52
分享
相关文章
基于PAI-EAS一键部署通义千问模型
本教程中,您将学习如何在阿里云模型在线服务(PAI-EAS)一键部署基于开源模型通义千问的WebUI应用,以及使用WebUI和API进行模型推理。
如何在阿里云上部署满血版DeepSeek
在阿里云部署“满血版”DeepSeek模型,需合理配置硬件与软件环境。首先注册阿里云账号并申请GPU计算型ECS实例(推荐V100/A10/A100),配置安全组规则。接着安装NVIDIA驱动、CUDA及Python依赖库,下载DeepSeek模型权重并克隆代码仓库。通过FastAPI编写推理接口,使用Uvicorn运行服务,支持反向代理与HTTPS配置。最后优化显存、监控性能,确保高效稳定运行。
如何在阿里云上部署满血版DeepSeek
Dify+DeepSeek+夸克 On DMS 实现联网版DeepSeek服务
阿里云DMS推出一站式AI应用部署解决方案——Dify+DeepSeek on DMS,限量50个名额,先到先得。
Dify+DeepSeek+夸克 On DMS 实现联网版DeepSeek服务
快速使用 DeepSeek-R1 满血版
DeepSeek是一款基于Transformer架构的先进大语言模型,以其强大的自然语言处理能力和高效的推理速度著称。近年来,DeepSeek不断迭代,从DeepSeek-V2到参数达6710亿的DeepSeek-V3,再到性能比肩GPT-4的DeepSeek-R1,每次都带来重大技术突破。其开源策略降低了AI应用门槛,推动了AI普惠化。通过阿里云百炼调用满血版API,用户可以快速部署DeepSeek,享受高效、低成本的云端服务,最快10分钟完成部署,且提供免费token,极大简化了开发流程。
191316 31
快速使用 DeepSeek-R1 满血版
在IDE里使用DeepSeek-V3 和 DeepSeek-R1 满血版模型
如何在IDE里使用DeepSeek-V3 和 DeepSeek-R1 满血版模型
349 97
用好Deepseek
构建高效提问体系,让deepseek成为你的智商增量。通过高维提问,解锁其隐藏潜力,不再只是搬运答案。细节与认知厚度决定反馈质量,使用STAR法则(情景、任务、行动、结果)优化提问,AI不仅能提供答案,更能帮你搭建完整解决方案,提升认知水平。
如何在通义灵码里用上DeepSeek-V3 和 DeepSeek-R1 满血版671B模型?
近期通义灵码能力再升级全新上线模型选择功能,目前已经支持 Qwen2.5、DeepSeek-V3 和 R1系列模型,用户可以在 VSCode 和 JetBrains 里搜索并下载最新通义灵码插件,在输入框里选择模型,即可轻松切换模型。
888 74
DeepSeek——DeepSeek模型部署实战
本文介绍了DeepSeek大模型的本地部署方法、使用方式及API接入。首先,通过下载Ollama平台部署DeepSeek-R1模型,提供7种不同参数版本(1.5b至671b),用户可根据硬件选择合适的模型大小。接着,文章详细描述了如何在终端运行命令启动模型,并通过Chatbox官网下载并接入DeepSeek API,实现本地和云端模型的交互。最后,提及了DeepSeek官网和集成工具如POE的使用,帮助用户更好地利用DeepSeek进行开发和应用。
|
21天前
|
即刻拥有DeepSeek-R1满血版
阿里云推出基于R1满血版DeepSeek的AI解决方案,助您高效学习与工作!访问专属链接进入详情页,按指引免费体验。具体步骤包括:注册阿里云账号、开通百炼模型服务、获取API-KEY、配置Chatbox客户端并测试对话功能。通过简单操作,即可调用DeepSeek-R1模型,实现智能化交互。快速上手,开启AI新体验!
121 7
千问QWQ-32B/满血DeepSeek R1部署指南,两种方式轻松玩转热门推理模型
本文介绍了如何利用阿里云CAP平台一键部署QWQ-32B和DeepSeek R1两大热门推理模型。通过应用模板或模型服务两种方式,开发者可快速完成部署并验证模型效果。QWQ-32B在数学、编程等任务上表现出色,而DeepSeek R1凭借强化学习训练,具备高效推理能力。两者均支持API调用及第三方平台集成,助力智能应用开发。
258 2
千问QWQ-32B/满血DeepSeek R1部署指南,两种方式轻松玩转热门推理模型

计算巢

+关注