最近一段时间,Deepseek已经引爆了国内外,谈到AI那么绕不过去的一个就是DeepSeek。现在如果你没有自己的一个deepseek助手,似乎已经跟不上时代的潮流了,本文就来教你如何快速基于LobeChat打造你的专属AI助手
一、DeepSeek 模型介绍
DeepSeek 是由中国团队开发的开源大型语言模型(LLM),最新版本 DeepSeek-V3 通过架构优化显著提升了性能,同时将训练成本降低 42.5%、推理成本减少 93.3%
1其模型系列覆盖多种规模:
- 低配置适配:如 1.5B 参数版本,适用于老旧 CPU、8GB 内存及以下设备,支持基础文本处理任务7;
- 中高配置适配:7B 参数版本需中等硬件(如 16GB 内存、4-6GB 显存),32B 及以上版本则需高性能 CPU(如 i7/i9)和显卡(如 RTX 30 系列)7。
- 最顶配的还有R1,V3版本,这个就只适合云端部署了 DeepSeek 支持 API 调用和本地部署,广泛应用于对话生成、代码编写等场景。
不过由于DeepSeek太过于火爆,现在多处于服务器繁忙状态。因此,可以参考本文提供的两种方式来使用DeepSeek模型。PS:其中一种有免费额度。
二、LobeChat 平台简介
LobeChat 是开源的 AI 对话平台,支持私有化部署与主流模型集成(如 OpenAI、Claude、Gemini、Ollama 等)
6
。核心功能包括:
- 多模型兼容性:支持云端 API 与本地模型(通过 Ollama 等工具管理)53;
- 可扩展性:提供插件系统、工作流设计及自定义 AI 角色功能6;
- 部署灵活性:支持 Docker 容器化部署、计算巢快速部署。
三、部署与集成步骤
(方式一)通过API密钥的方式使用DeepSeek和LobeChat
APIKey有两种方式获取:
(一)获取DeepSeek密钥
- (官网)获取 API 密钥
- 注册 DeepSeek 开放平台,新用户获赠 500M Tokens 免费额度1;
- 在平台中创建 API 密钥并保存(密钥仅显示一次)1。
- (阿里云百炼)(推荐)获取API密钥
- 新用户100万免费token
- 不卡顿。
教程如下:
登录百炼控制台,获取百炼API地址和API-KEY 光标悬停在右上角人行图标上,点击“API-KEY”
点击“创建我的API-KEY”,创建API-KEY,并复制它备用。API-KEY是个人保密信息,切勿泄漏。
(二)云端部署LobeChat助手
可参考阿里云计算巢的这篇文章进行部署,只需要点击几下就部署好了,非常的快速+无脑!
这个部署文章也是挺有意思的。
- 当我们在计算巢部署好LobeChat后,应该长这样:
- 直接点击红框部分进入详情页,再点这个暴露出的URL进入LobeChat界面
- 接下来配置上你的APIkey。注意语言模型选择Qwen(千问),然后在模型列表 手动输入 deepseek-r1,并回车,就可以免费使用满血的r1模型啦。想使用更多的deepseek模型,可以去百炼官方文档找模型编码并输入。
-
- 然后你就可以开始用你的专属DeepSeek+Lobechat助手啦!考他个经典问题试试智商!
(方式二)云端部署DeepSeek,随意更换模型
- (阿里云计算巢)(推荐)自己部署DeepSeek模型
- 自带WebUI界面。支持联网搜索功能
- 可以自己更换DeepSeek的模型。比如DeepSex(狗头保命)。
部署教程:
- 可访问此链接进行部署。部署教程参考。整体部署过程非常简单,点击下就部署好了。
- 此时如果仍然想使用LobeChat,而不用上面自带的WebUI,可以参考方式一里对LobeChat进行部署。
- 然后对部署的DeepSeek的安全组进行放开。点击下图的安全组
- 将入方向的11434接口的源改为0.0.0.0/0,或者是你的LobeChat的公网ip
- 打开LobeChat,并在配置里填上Ollama的地址。
- 正常使用LobeChat
更多有意思,又好玩又有深度的服务,请访问计算巢网址