👉「免费满血DeepSeek实战-联网搜索×Prompt秘籍|暨6平台横评」
文章原名:《满血 DeepSeek 免费用?附联网搜索教程!暨第三方 API 平台全面横评》
一、基础认知 1. 什么是 DeepSeek? 2.DeepSeek 模型有哪些?怎么用? 方法一:官方服务 方法二:本地部署 方法三:第三方 API/云资源 二、实战教程:通过阿里百炼免费调用 DeepSeek 模型 步骤一:开通阿里云账号 & 百炼平台 步骤二:获取百炼 API-KEY 步骤三:API 客户端配置及调用指南 工具一:Chatbox ,广泛使用且简单的 AI 客户端⭐⭐ 工具二:Page Assist,支持联网搜索&自建知识库的轻量浏览器插件⭐⭐⭐ 工具三:Dify,基于docker的 LLM 开发平台 ⭐⭐⭐⭐ 三、深度测评-阿里百炼 DeepSeek-R1 稳定性报告 1. 第三方 API 平台横评结果 2. 解决方案四种方式回看总结 还想说一点 四、进阶指南-Prompt 编写指北 零技巧示例(part.0) 官方模板解析(part.1) RTGO 结构(part.2) CO-STAR 框架(part.3) 高阶技巧集锦(part.4) 五、附录-多平台阅读指引 |
亮点:百炼 AI 嘎嘎好使,高可用的 API 平台,新人免费 100 万 token ,活动时间内 DeepSeek-R1 (671B)与 DeepSeek-V3 模型享五折优惠。https://www.aliyun.com/solution/tech-solution/deepseek-r1-for-platforms?utm_content=g_1000401616
一、基础认知
1. 什么是 DeepSeek?
DeepSeek 中文名「深度求索」,是一家专注实现通用人工智能(以大模型为代表)的科技公司。它由量化资管巨头「幻方量化」创立于2023年7月。此外,外界也将该公司开发一系列大模型产品笼统称为“DeepSeek”。据报,DeepSeek 官网注册使用人数在一周内就突破了一个亿。
2025年春节期间,DeepSeek开源的 R1 推理模型引爆互联网。(如果你使用https://chat.deepseek.com/ 网站使用【深度思考(R1)】选项来提问,那么你使用的就是 R1 推理模型)
2. DeepSeek 模型有哪些?怎么用?
DeepSeek 已经发布13个大模型,并且都已开源。因此模型不仅支持官方的聊天网站和API平台访问(需要注册账号使用官方算力资源),还可以使用本地部署方式来自己搭建 API 来使用。另一个自称非盈利的 OpenAI 旗下主打的核心模型都没有开源,用户要使用必须通过APP或 API 调用。
全球开发者都能使用DeepSeek的技术开发自己的模型、应用、产品。DeepSeek 使用了极其宽容的 MIT 许可证,你只要保留署名和许可文本,任意修改分发甚至商用都是被允许的。
各模型基本情况如下表所示:
最近引起全世界广泛关注的模型,主要是自研通用大模型 DeepSeek-V3、推理模型 DeepSeek-R1 。
DeepSeek-V3 是一个通用模型,日常常见的问题,都可以尝试使用 V3。
DeepSeek - R1 是一个推理模型,擅长处理复杂、需要多步思考的问题,适合做深度研究、解决代码问题、数学问题。
特点:
- DeepSeek-R1 的训练模式颠覆了常规认知。DeepSeek-R1 是首个验证了仅通过 RL(强化学习)无需 SFT (监督微调) 就能得到大幅推理能力增强和涌现的模型。这种训练方式大幅降低了数据标注成本,简化了训练流程,整体训练成本也得到了降低。
- R1 和 V3 都可以在 DeepSeek 官网上免费使用;API 的定价中,R1 输入部分的价格是 o1 的 1.82%,输出部分是 o1 的 3.65%;V3 输入部分的价格是 GPT-4o 的 1.12%,输出部分是 GPT-4o 的 2.8%。
- 这两款模型的性能接近甚至在某些场景超越了“公认”的全球标杆公司OpenAI的最好产品(DeepSeek-V3 对标GPT-4o,DeepSeek-R1对标o1)。
方法一、官方服务
第一种方式使用很简单,在https://chat.deepseek.com/网站上注册账号就能开始聊天了,并且官方对自家模型的优化毋庸置疑是最佳的,但是由于爆火,官方算力资源已经不能够应对这么多的服务请求。现在基本上在第一次提问并回答后就会一直出现如下图的服务不可用提示:
因此网友调侃,独自一人就能写一个媲美 deepseek 的AI代码,甚至不需要独立显卡就能运行。
同时,官方的开放平台也由于资源紧张而暂停了重置功能,基本处于不可用状态。
当前服务器资源紧张,为避免对您造成业务影响,我们已暂停 API 服务充值。存量充值金额可继续调用,敬请谅解!
方法二、本地部署
得益于 DeepSeek 的开源策略,因此通过本地部署去使用 deepseek 成为了可能,由于模型出色的性价比,本地部署的浪潮也随之袭来。
目前deepseek-r1模型大小提供了7个选择:1.5b、7b、8b、14b、32b、70b、671b(除了671b之外均是蒸馏模型)。普通的家用笔记本只能勉强跑一下 1.5b 大小的DeepSeek-R1-Distill-Qwen-1.5B模型,对于专用用户来说并不足以满足使用。根据网友测试,满血版的模型用 MI300x 运行也仅能供32个人去使用。
可见本地部署这种方式仍然存在局限性,你起码需要一台主流性能的中端电脑才能运行最小规格的模型,更别说更大规格的模型了。所以,下面介绍的这种方式更推荐普通人去使用,你甚至可以不在本地进行模型推理。
方法三、第三方 API\云资源
不少云计算厂商都支持了 DeepSeek 的模型部署和调用。
以阿里云为例,大模型服务平台百炼自2025年2月9日起就能够通过API调用DeepSeek系列模型,其中 deepseek-r1 与 deepseek-v3 分别有 100万的免费 Token,部分蒸馏模型限时免费体验。
相比于网络上动辄几百上千的割韭菜部署教程,阿里云提供了一站式解决方案,提供各种云产品免费试用,部署门槛非常低,不懂代码也可以五分钟搭建完毕。
值得注意的是【零门槛、即刻拥有 DeepSeek-R1 满血版】 技术解决方案整合了阿里云的计算资源提供四种路径,能够满足绝大多数人的个性化需求。对于普通使用者而言,建议选择最简易也是官方最推荐的阿里百炼调用方式,下面就针对这个方式进行详细体验和测评。
二、实战教程:通过阿里百炼免费调用 DeepSeek 模型
在官方资源十分紧张而手边又没有性能十分强大的电脑之时,使用云资源满足使用需求是不二选择,在阿里云提供的四种技术解决方案中最快上手的就是使用阿里百炼免费调用 DeepSeek 模型。
这种方式与使用官方开放平台效果近似,甚至更好,因为百炼平台提供了智能体等更多定制功能,且具备负载均衡和自动扩缩容机制,保障 API 调用稳定性。
这种方式可以最低成本(有免费使用额度)快速体验DeepSeek-R1
满血版模型。
用户也无需针对 API 平台开发专用 APP,目前已有基于通用 API 的开源客户端项目,搭配 Chatbox 可视化界面客户端或者你喜欢的任何一种 AI 客户端,进一步简化了调用流程,无需在命令行中操作,通过图形化界面即可轻松配置和使用 DeepSeek 模型。
我们点击立即部署,会默认跳转到最简单的方案-使用阿里百炼免费调用 DeepSeek 模型。跟着下面的技术解决方案一步步操作即可:
步骤一:开通阿里云账号&百炼平台
能打开这个技术解决方案的同学都是有阿里云账号的(如果没有会跳转到登录/注册页面,自行注册即可~)。如果是首次使用阿里云百炼,需要先开通百炼模型服务,登录阿里云百炼大模型服务平台,根据下图提示进行开通。
百炼提供的新人免费额度100万可以完全覆盖本教程所需资源消耗,100万 免费 token ,从百炼新用户开通起 180 天内有效。额度消耗完后按 token 计费,相比自行部署大模型可以显著降低初期投入成本。
步骤二:获取 百炼 API-KEY
百炼 API-KEY 可以理解为身份凭证,使用 API-KEY 可以使用 API 接口调用账号内资源。
登录阿里云百炼大模型服务平台,在右上方用户logo可悬停的下拉菜单处单击【API-KEY】
可以为了使用DeepSeek模型新建 API-KEY。
使用默认业务空间和任意备注即可。API KEY需谨慎保存,泄露可能会造成造成安全风险或资金损失。
步骤三:API 客户端配置及调用指南
百炼提供的 DeepSeek 模型规格如下:
由于技术解决方案追求简洁性,在这里补充一下具体API的使用方式https://help.aliyun.com/zh/model-studio/developer-reference/deepseek?
- 可以通过 OpenAI SDK 或 OpenAI 兼容的HTTP方式快速体验DeepSeek模型。
- 可以通过 DashScope SDK 或 HTTP 方式快速体验 DeepSeek 模型。
百炼的 DeepSeek 模型支持 OpenAI SDK 和 DashScope SDK 那么所有支持这两种接入方式的工具我们都可以使用!
P.S:当然不止有这三个工具,光是类似 ChatBox 的工具就不止十种了。除了聊天工具,还有知名的 LLM 应用程序开发平台——Dify,有了百炼平台的 API 你甚至可以用 Dify 自己开发一个 LLM 应用程序,介绍完主流的 Chatbox 和轻量又多功能的 PageAssist 我会带你认识 Dify 的。
提示:对于DeepSeek-R1 类模型,temperature、top_p、presence_penalty、frequency_penalty、logprobs、top_logprobs设置这些参数都不会生效,即使没有输出错误提示。阿里百炼提供的 DeepSeek API不支持联网搜索,但是联网搜索功能可以自建或使用支持的工具。
工具一:Chatbox ,广泛使用且简单的 AI 客户端⭐⭐
以主流的 Chatbox 为例,在官网下载并安装完成客户端后单击【使用自己的 API Key 或本地模型】
单击【添加自定义提供方】
API 设置
- 名称输入“阿里云-DeepSeek-R1”(可自定义);
- API 域名输入
https://dashscope.aliyuncs.com/compatible-mode/v1
;- API 路径输入
/chat/completions
;- API 密钥输入您的 API Key,获取方法请参见:获取API Key;
- 模型输入您需要使用的 DeepSeek 模型,此处以 deepseek-r1 为例;
- 单击保存,完成设置。
然后我们创建新对话选择使用刚才配置的服务即可:
但是该工具不支持联网搜索和知识库,想要支持更多功能需要付费或者定制开发,对于普通人并不是一个好的选择。
工具二、Page Assist,支持联网搜索&自建知识库的轻量浏览器插件⭐⭐⭐
前面说过了阿里百炼提供的 DeepSeek API 不支持原生的联网搜索。因此你使用 Chatbox 时不能使用联网搜索,知识库更新的时间点为2023年10月。
但是Page Assist支持联网搜索,在此之外,还可以使用 RAG 用文档对话(支持pdf、csv、txt、md、docx格式),甚至搭建自己的知识库,知识库数据全部本地存储,不会被平台获取。
Page Assist下载地址
https://github.com/n4ze3m/page-assist/releases/tag/v1.5.0
或者 在浏览器的应用扩展商店搜索Page Assist 并下载
P.S:如果你从GitHub下载,那么需要手动导入。选择合适自己浏览器的压缩包下载解压并在对应浏览器-扩展程序设置页导入即可。
Page Assist使用引导
这个工具本来是为本地部署开发的,API 功能在测试中,用户在 UI 的交互使用上容易出现错误配置,因此值得单独说一下。
设置中文,禁用Ollama连接状态检查
这个插件最先是只支持本地部署的模型,所以默认会检查 Ollama 连接状态,我们只需要使用 API 因此可以关闭这个检查功能。
添加 API 平台
我们只需要配置以下三项即可, API 密钥即【你的阿里百炼 API-Key】。
添加模型
我们在设置-管理模型-添加新模型,安装图示配置 【deepseek-r1】 模型即可。
开始聊天
然后我们就可以愉快的聊天啦~
联网搜索设置
联网搜索的搜索引擎可以指定,在 设置-一般设置 下面,默认使用 DuckDuckGo ,在国内推荐使用 Baidu,搜索速度和准确性更好一些。
RAG 设置
检索增强生成(RetrievalAugmentedGeneration),简称RAG。RAG的工作方式是在共享的语义空间中,从外部知识库中检索事实,将
这些事实用作决策过程的一部分,以此来提升大型语言模型的准确性。
让我们对比三种问答方案的优缺点,来理解为什么 RAG 是一个更好的选择:
1. 传统检索式问答 (Retrieval QA)
- ✅ 可靠性高:答案直接来自知识库,有明确的来源
- ✅ 知识可更新:添加新文档即可更新知识
- ❌ 灵活性差:只能返回知识库中已有的内容
- ❌ 表达生硬:难以用自然语言组织答案
2. 纯 LLM 问答
- ✅ 表达自然:能用流畅的语言组织答案
- ✅ 灵活理解:可以理解各种表达方式的问题
- ❌ 知识固化:知识仅限于训练数据,无法及时更新
- ❌ 可靠性差:容易产生幻觉,难以验证答案准确性
3. RAG 方案
- ✅ 可靠且可溯源:答案基于检索到的具体文档
- ✅ 知识可更新:可以持续添加新的知识
- ✅ 表达自然:利用 LLM 的语言能力组织答案
- ✅ 灵活理解:能理解各种形式的问题
- ✅ 成本可控:主要消耗在必要的 API 调用上
RAG 通过将检索和生成相结合,既保留了传统检索问答的可靠性,又获得了 LLM 的灵活性和自然表达能力。它能让 AI 始终基于最新的、可信的知识来回答问题,同时保持对话的流畅自然。使用 RAG 需要使用嵌入模型(又称向量模型)先对内容进行 Embedding 之后才能交由大模型使用。
更很棒的是,该插件支持 RAG ,用户只需要两步配置就能使用 RAG 和 知识库功能。
- 在模型管理中添加【嵌入模型】(支持本地模型和 API 调用,调用时具体的【嵌入模型 ID】 需要向提供商获得)
百炼模型广场中的嵌入模型
- 然后在 RAG设置 中 启用嵌入模型 并 保存。
- 最后在【管理知识】页面添加新知识后首页提问时引用知识即可。
工具三:Dify 基于docker的 LLM 开发平台 ⭐⭐⭐⭐
这款工具非常强大,它不仅能够用于 AI 聊天,它更是一个软件开发平台,包括代理 AI 工作流、RAG 知识库、Agent功能、模型管理、可观察性功能等,可以快速从原型到生产。下面我示范一个通过 Dify 使用百炼 API 实现 DeepSeek 联网搜索的案例。
安装 Dify
虽然它对功能的支持更全面,但是我还是没有把它列到本章节开篇的那个表格上,因为它是非常“重”的一个工具,普通用户使用它需要电脑上已安装WSL2(for Windows)、Docker Desktop(下载地址:https://docs.docker.com/desktop/setup/install/windows-install/)具体的安装脚本请访问该项目官方 readme:https://github.com/langgenius/dify ,下载整个项目后执行 docker compose up -d
然后需要耐心等待几分钟。
安装中图示
接入模型供应商
安装完成后打开Dify 网页的第一件事就是将 百炼 添加到 Dify 的模型配置中。
模型提供商选择自定义的方式
模型类型 |
模型名称 |
API endpoint URL |
模型上下文长度 |
最大 token 上限(最大回复长度) |
LLM |
deepseek-r1 |
65,792 |
8,192 |
|
LLM |
deepseek-v3 |
65,792 |
8,192 |
|
Text Embedding |
text-embedding-v3 |
1,024/768/512(向量维度) |
8,192(单行最大处理Token数) |
接入 API 后我们可以测试一下是否接入成功,如下图所示:
创建应用
现在已经拥有大模型能力了,下一步开始构建工作流,那么首先就是创建一个 Chatflow 空白应用:
联网搜索应用设计流程图及其效果如下所示(测试prompt:今天有什么新闻):
本应用全部使用 API 服务实现,本地无需部署任何大模型,当然你可以把知识库设置到本地,然后将知识库内容添加到工作流节点的上下文中。在拿到用户的输入之后,先使用 DeepSeek-V3 模型判断当前用户的输入是否需要进行网络请求,然后进入条件分支。若需要网络搜索则将用户输入内容放到网络搜索 API(该服务需要另外注册,在节点配置页面跳转注册即可),API 返回的搜索结果和用户输入内容一并提供给 DeepSeek-R1 生成最终回答。若无需网络搜索则将用户输入内容直接提供给 DeepSeek-R1 生成并直接回复。
该方案相对简洁,仅使用恰当的 prompt 给 LLM 赋予角色并执行目标任务就实现了相当不错的效果。但如果你想深入网络搜索的处理细节,可以学习一些 RAG 和搜索的相关知识然后搭建节点来代替上图工作流中搜索 API 的服务。要进行搜索,就需要有一个搜索关键词。当然我们可以将用户的输入直接当成关键词丢给搜索引擎,但现在大部分搜索引擎可没有大模型的理解能力,当用户搜索的内容冗长且很难找到重心时,你无法指望搜索引擎能直接给一个让人满意的结果,所以我们需要先使用模型根据用户输入整理出一个或多个适合的搜索关键词出来进行网络搜索流程。Dify 内置了DuckDuckGo、Bing、Google等多个搜索插件,你可以直接调用搜索插件然后获取搜索结果网页并提取网页内容最后格式化输入内容给模型,这样输入模型的内容就包括网页搜索结果和你原始的prompt,大模型会总结并返回你所期望的结果。
感兴趣的同学可以下去自己实验一下怎么构建更优雅的网络搜索/知识库系统的搜索架构。在这个过程中你可能会用到的比较前沿的搜索类大模型有:
- 格式化处理模型 例如,ReaderLM v2:从 HTML 到 Markdown 和 JSON 的小型语言模型,专门用于网络数据提取和清洗。
- 向量模型(又称嵌入模型) 例如,BGE:北京智源人工智能研究院提出的新的embedding模型,将文本数据快速转换为高质量的向量数据。
- 排序模型 例如,gte-rerank 通常用于语义检索、RAG等场景,可以简单、有效地提升文本检索的效果。
- 其他的文本分类、切分等功能的模型……
联网搜索部分相关逻辑
|
三、深度测评-阿里百炼 DeepSeek-R1 稳定性横评报告
DeepSeek-R1 是本次出圈的主角,为了给大家参考,本次测评选择了支持 API 调用方式的主流第三方服务商,使用逻辑推理题从回复率、准确率和推理耗时等方面评估其表现。
首先是费用方面,各个平台均提供了免费的额度,对于个人使用的新用户来说短期内是完全可以“白嫖”的。
具体测评参考主流的模型测试项设置以下指标,测试数据集为20题:
指标名称 | 定义与计算方式 | 公式表达 |
完整回复率 | 模型完整输出技术有效响应(无截断、无错误终止)的题目占比,仅评估技术完整性,不涉及答案正确性 | 完整回复率 = C / N (C=完整回复题数,N=总题数) |
截断率 | 模型输出中途断开导致答案不完整的题目占比 | 截断率 = T / N (T=截断题数) |
无回复率 | 模型未返回有效响应(含请求失败、超时或无输出)的题目占比 | 无回复率 = E / N (E=无响应题数) |
有效准确率 | 仅针对完整回复题目,模型答案与标准答案一致的比例(仅对比最终结果,忽略推理过程) | 有效准确率 = A / C (A=正确答案数) |
推理效率 | 仅针对完整回复题目,模型单题推理耗时均值(单位:秒/题) | 推理效率 = Σt / C (t=单题推理时间) |
指标独立性
- 完整回复率、截断率、无回复率三者之和为100%(
C + T + E = N
),逻辑闭环无重叠。
1. 第三方 API 平台横评结果
横评总结
- 阿里百炼平台的可用性要远大于 DeepSeek 官方网站,回复率位于第一梯队。推理效率有高峰期影响,本次测评结果数据仅能代表2025年2月14日下午工作时段的表现。
- 不同平台对模型最大输出长度的限制使得模型在生成较长回复时更容易发生截断现象,模型最大输出长度受限的平台会大幅度出现无法完整回复的现象。
- 付费第三方平台的服务稳定性通常高于免费平台。不同第三方平台在部署和运行DeepSeek-R1时表现出的稳定性存在显著差异。建议在选择平台时,综合评估其技术架构、资源调度能力以及用户负载情况,并结合自身需求(如回复率、推理耗时等指标)进行权衡。对于追求更高稳定性的用户,可以考虑用户量较少但资源分配更均衡的第三方平台,以降低因高并发导致的性能波动风险。
- 考虑到不同平台的用户量级存在差异,用户数量较高的平台可能因服务器负载过重而面临更高的不稳定性风险。平台服务稳定性不足,或将间接影响模型生成回复的完整性和推理速度。阿里百炼返回的输出长度是众多平台中最长的,但是有效准确率和推理效率并不尽人意,猜测是阿里百炼用户数量众多导致资源比较紧张,平均tokens生成速度要慢于并不那么知名的云厂商。但没有出现执行后没有响应、响应超时或者报错(An internal error has occured, please try again later or contact service support)的现象,完整回复率能够达到100%。
2. 解决方案四种方式回看总结
本文着眼于百炼方式 API 调用,给出 API 开通方式、注意事项、工具的选择和测评、甚至是不同平台的测评来横向对比百炼的优势。
但是官方的解决方案是涵盖了四种方法的,之所以没有把这四种方法全部拉出来测评,原因一是这样做会导致文章非常长,而我又是 TLDR (Too Long Didn't Read太长不看) 的一个人。原因二是其他三个方法并不适合普通用户去使用,百炼是最容易上手和使用成本最低的方式。因此我将其他三种方式体验后的心得总结到下面。官方写的帮助文档是很详细的,有想法使用其他三种方式的同学相比一定能够看懂并自行对方案进行延申,我就不再这里繁冗的记录体验过程了。
【零门槛、即刻拥有 DeepSeek-R1 满血版】 技术解决方案整合了阿里云的计算资源提供四种路径,我来斗胆定义一下服务类型并且提供一些心得:
理论上这四种部署方式都可以抽象成 API 方式接入各种软件和插件,例如接入 IOS 的快捷指令,让你的 IOS 比其他人更先支持 DeepSeek。但他们在部署架构、方式、时间、费用和定制化功能方面还是略有区别的。
- 基于百炼 API 调用满血版:SaaS 服务,开通即可用,相当于第三方的 API 开放平台。有免费额度,三分钟开通即可用,适合普通用户。“百炼”指的是阿里云提供的一个集成多种机器学习和深度学习算法的平台服务。通过调用其API,开发者可以轻松地将复杂的AI功能集成到自己的应用程序中,而无需关心底层的算法实现细节。
- 基于人工智能平台 PAI 部署: PaaS 服务,适合人工智能开发者使用。有免费额度,十分钟一键式部署。PAI(Platform of Artificial Intelligence)是阿里云提供的一站式机器学习平台,它支持从数据预处理、模型训练到模型部署(再到调用)的全流程操作。PAI可以帮助用户快速构建和应用机器学习模型,适用于各种规模的企业和个人开发者。
- 基于函数计算部署: FaaS (Function as a Service)服务,提供无服务器应用的搭建,更加弹性。有免费额度,十分钟一键式部署。该方案使用云原生应用开发平台 CAP,在里面构建 Ollama 作为后端(可以使用 Ollama API格式模板调用),Open WebUI 作为前端。函数计算是一种事件驱动的全托管计算服务。用户只需要编写并上传代码,无需管理或运维服务器等基础设施。函数计算会自动为用户准备好执行环境,并根据实际请求量自动扩展资源,非常适合用于响应实时事件、处理数据流以及构建无服务器架构的应用程序。
- 基于GPU 云服务器部署: IaaS 服务,提供带有GPU的云服务器,是更加传统的形式。无免费额度,最快三十分钟手动搭建完成。 这种方式是无限接近于本地部署的方式,只不过服务器搬到了云上,所以资源比较弹性,部署的动作非常多。该方案使用 vLLM 作为后端和 Open WebUI 作为前端。GPU云服务器是专门针对需要大量图形处理和高性能计算的应用场景设计的。相比传统的CPU服务器,GPU服务器在处理大规模并行计算任务时具有显著的优势,特别是在机器学习、科学计算、视频编码等领域。使用GPU云服务器,用户可以获得强大的计算能力来加速其应用的运行效率。
需要注意的是,PAI 部署、函数计算(FC)部署和GPU 云服务器部署还需要关注购买域名和ICP备案等问题。以 FC 方式为例,你调用时提供给你的域名地址只能作为临时使用。
基于百炼的方式是官方最推荐,也是点击【免费体验】按钮后官方默认跳转的一个路径,这种方式适合想要快速获得 AI 能力的普通人。如果你想做定制化开发或者做企业版的本地部署和调试那么其他三种方法一定也能够满足你。
PS,现在DeepSeek的朋友圈越来越大,阿里通义灵码也支持使用 DeepSeek 来写代码了,但是需要注意的是 R1 的思维链其实不太搭程序编码的场景,因为 R1 的思考时间很长,但是在 Debug 的场景下还是很有用的!阿里通义灵码不需要部署或者开通就能直接选择使用,因此不纳入本文测评范围。
还想说一点
此外,部署文档的步骤指引是准确的。在部署过程中并没有遇到报错或异常。步骤简明易懂,但是建议解决方案设计团队在设计页面的适合增加一个链接到官方文档的入口,这样想要学习更多的同学可以自己动手去学习。百炼里面关于 DeepSeek 大语言模型的文档真的挺难找,路径太长了。https://help.aliyun.com/zh/model-studio/developer-reference/deepseek
百炼平台的网址在部署文档中有体现,但是出于简洁的考虑没有对百炼平台做更多的讲解(我猜的,不知道猜对没有),如果你还想探索更多的话,请务必阅读上一段话末尾的那个链接,里面是官方的帮助文档,帮助文档永远是最棒的学习材料之一。
百炼官方 API 接口不支持 DeepSeek 联网搜索,但是 Page Assist 这个插件能够替代实现这个功能,虽然不够强大但是是可用的,能够解决用户的刚需。我觉得需要补充这种使用方式。经过解决方案四种方式的理解与横向评测,阿里百炼会是我使用 DeepSeek 的好帮手,是四种解决方案路径里面成本最低的,它在横向评测(不同厂商)中表现也是不错的。
不足与期望
我在API服务之外还测试了通义灵码、支付宝百宝箱和纳米AI搜索等服务,这些需要 插件/小程序/网页 访问的平台反而提供了更低的延迟和更高的效率。期望阿里百炼平台能够提供更多的计算资源来提升准确率和推理效率,好的产品站到风口上是绝佳的圈粉机会,但同时需要注意阿里百炼免费的 API 额度遭到滥用的可能。
四、进阶指南-Prompt 编写指北
相信到这里你已经了解了 DeepSeek 并且学会了使用通过百炼来使用属于你自己的 DeepSeek 模型能力,但是你真的会用吗?把我写的提示词生成案例放上来告诉你我 prompt 工程能力多厉害,没有多大意义,授人以鱼不如授人以渔。
既然现在你已经能使用流畅满血版的 DeepSeek 了,你是否跃跃欲试了呢?下面再来分享一下如何写 prompt!
part.0 零技巧示例
我相信没有学习技巧和提示词框架的你是使用口语表达来让 AI 完成任务的,那么我们先复盘一下你之前的表达方式吧~
口语是相当开放性的表达,跟人对话时,对方会结合环境和语境去理解你没有说出来的内容。常见的口语表达是 干什么?给谁干?目的是什么?约束是什么? 有主谓宾三要素就能完成一句话的表达。
part.1 官方提示库示例
https://api-docs.deepseek.com/zh-cn/prompt-library/
官方开发平台的帮助文档专门有一个板块告诉你 DeepSeek 可以完成什么任务,能够获得什么样的效果,如果你有类似的需求,最简单并且有成效的方法就是用我们小学二年级就学习过的仿写句式来造句完成自己的需求。
part.2 RTGO 提示语结构
RTGO 提示语结构里面定义了四个要素,分别是 Role(角色)、Task(任务)、Goal(目标)、Objective(操作要求)。有了这些明确的要素支撑,AI 能够更清楚的知道你的需求,而不是猜测出一个你并不满意的答案。其实我们一直再使用这个框架,只是会更加口语话的有意无意的省略其中的部分要素。优化后的提示语效果会更好。
举个生活中的例子:儿子(角色),你去买一瓶酱油(任务),这样做出来的饭菜才更有滋味(目标),走着去楼下的小卖部就行(操作要求)。
如果你觉得这样的提示语太单调,没有情商,信息密度不够,那么我们大可以让 AI 直接生成或者优化提示语然后再用优化后的提示语去完成任务。
还用生活中的例子举例,便于理解:
优化后的提示语: "儿子,能帮妈妈去楼下小卖部买瓶酱油吗?这样今天的饭菜会更香哦!慢慢走路去就好,注意看车,回来就能闻到香喷喷的红烧肉啦~"
优化后的提示语更富有情感,这样的任务交给儿子肯定能更好的完成。同理,我们使用该框架优化过的提示词来对 AI 提问,AI 的回答也会更加贴近我们的预期效果。
part.3 CO-STAR提示语框架
CO-STAR提示语框架是新加坡 GPT-4 提示工程竞赛冠军提示词框架,该框架包含六个要素,可以理解为 RTGO 提示语结构的增强和升级。
CO-STAR包括:
- "C"代表“Context(上下文)” 相关的背景信息,比如你自己或是你希望它完成的任务的信息。
- "O"代表“Objective(目标)” 明确的指示告诉AI你希望它做什么。
- "S"代表“Style(风格)” 想要的写作风格,如严肃的、有趣的、创新性表达、学术性……
- "T"代表“Tone(语调)” 幽默的?情绪化?有威胁性?
- "A"代表"Audience",受众是谁。 小白用户?专业人群?未成年群体?女性群体?
- "R",代表"Response",想要的回应类型。一份详细的研究报告?一个表格?Markdown格式?
同样使用生活化的例子来进行示范,优化之前的提示词示例:
C-O联动:用游戏化警报("能量不足")包装现实问题,降低任务抗拒感
S-T匹配:拟声词+表情符号营造趣味性,符合儿童认知特点(皮亚杰认知发展理论)
A-R适配:
分步指南:符合7-11岁儿童"执行功能"发育需求
可视化反馈:通过称号/经验值等游戏元素满足具象思维特征
风险控制:
"乌龟慢走模式"替代"注意安全"说教
用虚构咒语(护盾开启)强化安全意识
这样优化过后的提示词更加贴近小学二年级的表达习惯,堪称完美!
收到这样提示词的 AI 都想帮你多干点任务了!
part.4 都是技巧
part.0 我们了解了开放性的提问,也就是无技巧,最自然的方式。那么最后肯定是要学会点技巧的。以下表格可供学习:
层级 |
技巧分类 |
技巧名称 |
核心描述 |
应用示例 |
技术原理 |
基础层 |
需求表达 |
直接请求法 |
用祈使句明确任务目标 |
"请总结量子力学的基本原理" |
指令清晰化原理 |
结构优化 |
格式标记法 |
用符号分隔指令与内容 |
输入:<文章>...</文章> → 输出:<总结>...</总结> |
格式塔认知理论 |
|
进阶层 |
需求限定 |
精准限定法 |
添加输出格式/长度等约束条件 |
"用200字、3个要点和1个比喻解释相对论" |
框架效应理论 |
范例驱动 |
案例示范法 |
提供输入输出样本规范格式 |
输入示例:"太阳系行星" → 输出示例:"1.水星... 2.金星..." |
模式匹配原理 |
|
高阶层 |
认知引导 |
苏格拉底诘问法 |
引导AI自我检查回答完整性 |
"当前回答是否覆盖了所有时间维度?请补充1990年后的发展" |
元认知激发策略 |
系统设定 |
角色扮演法 |
赋予AI特定身份背景 |
"假设你是NASA工程师,用技术报告格式说明火星殖民挑战" |
情境认知理论 |
|
过程可视化 |
思维链技术 |
要求展示推理过程 |
"请分三步论证:首先定义关键概念,其次梳理历史脉络,最后给出当代应用" |
透明化推理机制 |
|
专家层 |
动态优化 |
提示词自生成 |
让AI创建优化后的提示模板 |
"请为'比较分析'类问题设计包含:分析维度、评分标准、风险提示的提示模板" |
递归优化算法 |
多维控制 |
RTGO 提示语结构 |
结构化控制4维参数 |
Role(角色)、Task(任务)、Goal(目标)、Objective(操作要求) | 多维约束满足模型 |
|
多维控制 |
CO-STAR框架 |
结构化控制6维参数 |
C(背景): 面向高中生讲 |
多维约束满足模型 |
五、附录-多平台阅读指引
https://www.cnblogs.com/palworld/p/18715725
https://blog.csdn.net/weixin_46281101/article/details/145637590