👉「免费满血DeepSeek实战-联网搜索×Prompt秘籍|暨6平台横评」

本文涉及的产品
通义法睿合同智能审查,1个月8份合同免费体验
简介: 满血 DeepSeek 免费用!支持联网搜索!创作声明:真人攥写-非AI生成,Written-By-Human-Not-By-AI

👉「免费满血DeepSeek实战-联网搜索×Prompt秘籍|暨6平台横评」

文章原名:《满血 DeepSeek 免费用?附联网搜索教程!暨第三方 API 平台全面横评》


Written-By-Human-Not-By-AI-Badge-white@2x.png Written-By-Human-Not-By-AI-Badge-black@2x.png

     一、基础认知

      1. 什么是 DeepSeek?

      2.DeepSeek 模型有哪些?怎么用?  

        方法一:官方服务

        方法二:本地部署

        方法三:第三方 API/云资源

    二、实战教程:通过阿里百炼免费调用 DeepSeek 模型

      步骤一:开通阿里云账号 & 百炼平台

      步骤二:获取百炼 API-KEY

      步骤三:API 客户端配置及调用指南

        工具一:Chatbox ,广泛使用且简单的 AI 客户端⭐⭐

        工具二:Page Assist,支持联网搜索&自建知识库的轻量浏览器插件⭐⭐⭐

        工具三:Dify基于docker的 LLM 开发平台 ⭐⭐⭐⭐

    三、深度测评-阿里百炼 DeepSeek-R1 稳定性报告

      1. 第三方 API 平台横评结果

      2. 解决方案四种方式回看总结

          还想说一点

    四、进阶指南-Prompt 编写指北

        零技巧示例(part.0)

        官方模板解析(part.1)

        RTGO 结构(part.2)

        CO-STAR 框架(part.3)

        高阶技巧集锦(part.4)

    五、附录-多平台阅读指引

亮点:百炼 AI 嘎嘎好使,高可用的 API 平台,新人免费 100 万 token ,活动时间内 DeepSeek-R1 (671B)与 DeepSeek-V3 模型享五折优惠。https://www.aliyun.com/solution/tech-solution/deepseek-r1-for-platforms?utm_content=g_1000401616

一、基础认知

1. 什么是 DeepSeek?

DeepSeek 中文名「深度求索」,是一家专注实现通用人工智能(以大模型为代表)的科技公司。它由量化资管巨头「幻方量化」创立于2023年7月。此外,外界也将该公司开发一系列大模型产品笼统称为“DeepSeek”。据报,DeepSeek 官网注册使用人数在一周内就突破了一个亿。

时间线.png

2025年春节期间,DeepSeek开源的 R1 推理模型引爆互联网。(如果你使用https://chat.deepseek.com/ 网站使用【深度思考(R1)】选项来提问,那么你使用的就是 R1 推理模型)

2. DeepSeek 模型有哪些?怎么用?

DeepSeek 已经发布13个大模型,并且都已开源。因此模型不仅支持官方的聊天网站和API平台访问(需要注册账号使用官方算力资源),还可以使用本地部署方式来自己搭建 API 来使用。另一个自称非盈利的 OpenAI 旗下主打的核心模型都没有开源,用户要使用必须通过APP或 API 调用。

全球开发者都能使用DeepSeek的技术开发自己的模型、应用、产品。DeepSeek 使用了极其宽容的 MIT 许可证,你只要保留署名和许可文本,任意修改分发甚至商用都是被允许的。

各模型基本情况如下表所示:

屏幕截图 2025-02-12 155404.png

最近引起全世界广泛关注的模型,主要是自研通用大模型 DeepSeek-V3、推理模型 DeepSeek-R1

DeepSeek-V3 是一个通用模型,日常常见的问题,都可以尝试使用 V3。

DeepSeek - R1 是一个推理模型,擅长处理复杂、需要多步思考的问题,适合做深度研究、解决代码问题、数学问题。


特点:

  • DeepSeek-R1 的训练模式颠覆了常规认知。DeepSeek-R1 是首个验证了仅通过 RL(强化学习)无需 SFT (监督微调) 就能得到大幅推理能力增强和涌现的模型。这种训练方式大幅降低了数据标注成本,简化了训练流程,整体训练成本也得到了降低。
  • R1 和 V3 都可以在 DeepSeek 官网上免费使用;API 的定价中,R1 输入部分的价格是 o1 的 1.82%,输出部分是 o1 的 3.65%;V3 输入部分的价格是 GPT-4o 的 1.12%,输出部分是 GPT-4o 的 2.8%。
  • 这两款模型的性能接近甚至在某些场景超越了“公认”的全球标杆公司OpenAI的最好产品(DeepSeek-V3 对标GPT-4o,DeepSeek-R1对标o1)。

方法一、官方服务

第一种方式使用很简单,在https://chat.deepseek.com/网站上注册账号就能开始聊天了,并且官方对自家模型的优化毋庸置疑是最佳的,但是由于爆火,官方算力资源已经不能够应对这么多的服务请求。现在基本上在第一次提问并回答后就会一直出现如下图的服务不可用提示:

image.png

因此网友调侃,独自一人就能写一个媲美 deepseek 的AI代码,甚至不需要独立显卡就能运行。

image.png

同时,官方的开放平台也由于资源紧张而暂停了重置功能,基本处于不可用状态。

当前服务器资源紧张,为避免对您造成业务影响,我们已暂停 API 服务充值。存量充值金额可继续调用,敬请谅解!

方法二、本地部署

得益于 DeepSeek 的开源策略,因此通过本地部署去使用 deepseek 成为了可能,由于模型出色的性价比,本地部署的浪潮也随之袭来

image.png

目前deepseek-r1模型大小提供了7个选择:1.5b、7b、8b、14b、32b、70b、671b(除了671b之外均是蒸馏模型)。普通的家用笔记本只能勉强跑一下 1.5b 大小的DeepSeek-R1-Distill-Qwen-1.5B模型,对于专用用户来说并不足以满足使用。根据网友测试,满血版的模型用 MI300x 运行也仅能供32个人去使用。

image.png

可见本地部署这种方式仍然存在局限性,你起码需要一台主流性能的中端电脑才能运行最小规格的模型,更别说更大规格的模型了。所以,下面介绍的这种方式更推荐普通人去使用,你甚至可以不在本地进行模型推理。

方法三、第三方 API\云资源

不少云计算厂商都支持了 DeepSeek 的模型部署和调用。


以阿里云为例,大模型服务平台百炼自2025年2月9日起就能够通过API调用DeepSeek系列模型,其中 deepseek-r1 与 deepseek-v3 分别有 100万的免费 Token,部分蒸馏模型限时免费体验。


相比于网络上动辄几百上千的割韭菜部署教程,阿里云提供了一站式解决方案,提供各种云产品免费试用,部署门槛非常低,不懂代码也可以五分钟搭建完毕。


值得注意的是【零门槛、即刻拥有 DeepSeek-R1 满血版】 技术解决方案整合了阿里云的计算资源提供四种路径,能够满足绝大多数人的个性化需求。对于普通使用者而言,建议选择最简易也是官方最推荐的阿里百炼调用方式,下面就针对这个方式进行详细体验和测评。

二、实战教程:通过阿里百炼免费调用 DeepSeek 模型

在官方资源十分紧张而手边又没有性能十分强大的电脑之时,使用云资源满足使用需求是不二选择,在阿里云提供的四种技术解决方案中最快上手的就是使用阿里百炼免费调用 DeepSeek 模型。


这种方式与使用官方开放平台效果近似,甚至更好,因为百炼平台提供了智能体等更多定制功能,且具备负载均衡和自动扩缩容机制,保障 API 调用稳定性。


这种方式可以最低成本(有免费使用额度)快速体验DeepSeek-R1 满血版模型。


用户也无需针对 API 平台开发专用 APP,目前已有基于通用 API 的开源客户端项目,搭配 Chatbox 可视化界面客户端或者你喜欢的任何一种 AI 客户端,进一步简化了调用流程,无需在命令行中操作,通过图形化界面即可轻松配置和使用 DeepSeek 模型。


我们点击立即部署,会默认跳转到最简单的方案-使用阿里百炼免费调用 DeepSeek 模型。跟着下面的技术解决方案一步步操作即可:

image.png

步骤一:开通阿里云账号&百炼平台

能打开这个技术解决方案的同学都是有阿里云账号的(如果没有会跳转到登录/注册页面,自行注册即可~)。如果是首次使用阿里云百炼,需要先开通百炼模型服务,登录阿里云百炼大模型服务平台,根据下图提示进行开通。

百炼提供的新人免费额度100万可以完全覆盖本教程所需资源消耗,100万 免费 token ,从百炼新用户开通起 180 天内有效。额度消耗完后按 token 计费,相比自行部署大模型可以显著降低初期投入成本。

image.png

步骤二:获取 百炼 API-KEY

百炼 API-KEY 可以理解为身份凭证,使用 API-KEY 可以使用 API 接口调用账号内资源。

登录阿里云百炼大模型服务平台,在右上方用户logo可悬停的下拉菜单处单击【API-KEY】

image.png

可以为了使用DeepSeek模型新建 API-KEY。

image.png

使用默认业务空间和任意备注即可。API KEY需谨慎保存,泄露可能会造成造成安全风险或资金损失。

image.png

步骤三:API 客户端配置及调用指南

百炼提供的 DeepSeek 模型规格如下:

image.png

由于技术解决方案追求简洁性,在这里补充一下具体API的使用方式https://help.aliyun.com/zh/model-studio/developer-reference/deepseek?

  • 可以通过 OpenAI SDK 或 OpenAI 兼容的HTTP方式快速体验DeepSeek模型。
  • 可以通过 DashScope SDK 或 HTTP 方式快速体验 DeepSeek 模型。

百炼的 DeepSeek 模型支持 OpenAI SDK 和 DashScope SDK 那么所有支持这两种接入方式的工具我们都可以使用!

第三方工具.png

P.S:当然不止有这三个工具,光是类似 ChatBox 的工具就不止十种了。除了聊天工具,还有知名的 LLM 应用程序开发平台——Dify,有了百炼平台的 API 你甚至可以用 Dify 自己开发一个 LLM 应用程序,介绍完主流的 Chatbox 和轻量又多功能的 PageAssist 我会带你认识 Dify 的。

提示:对于DeepSeek-R1 类模型,temperature、top_p、presence_penalty、frequency_penalty、logprobs、top_logprobs设置这些参数都不会生效,即使没有输出错误提示。阿里百炼提供的 DeepSeek API不支持联网搜索,但是联网搜索功能可以自建或使用支持的工具。

工具一:Chatbox ,广泛使用且简单的 AI 客户端⭐⭐

以主流的 Chatbox 为例,在官网下载并安装完成客户端后单击【使用自己的 API Key 或本地模型】

image.png

单击【添加自定义提供方】

image.png

API 设置

  1. 名称输入“阿里云-DeepSeek-R1”(可自定义);
  2. API 域名输入https://dashscope.aliyuncs.com/compatible-mode/v1
  3. API 路径输入/chat/completions
  4. API 密钥输入您的 API Key,获取方法请参见:获取API Key
  5. 模型输入您需要使用的 DeepSeek 模型,此处以 deepseek-r1 为例;
  6. 单击保存,完成设置。

image.png


然后我们创建新对话选择使用刚才配置的服务即可:

image.png

但是该工具不支持联网搜索和知识库,想要支持更多功能需要付费或者定制开发,对于普通人并不是一个好的选择。

工具二、Page Assist,支持联网搜索&自建知识库的轻量浏览器插件⭐⭐⭐

前面说过了阿里百炼提供的 DeepSeek API 不支持原生的联网搜索。因此你使用 Chatbox 时不能使用联网搜索,知识库更新的时间点为2023年10月。

image.png

但是Page Assist支持联网搜索,在此之外,还可以使用 RAG 用文档对话(支持pdf、csv、txt、md、docx格式),甚至搭建自己的知识库,知识库数据全部本地存储,不会被平台获取。

image.png

Page Assist下载地址

https://github.com/n4ze3m/page-assist/releases/tag/v1.5.0

或者 在浏览器的应用扩展商店搜索Page Assist 并下载

image.png

P.S:如果你从GitHub下载,那么需要手动导入。选择合适自己浏览器的压缩包下载解压并在对应浏览器-扩展程序设置页导入即可。

image.png

Page Assist使用引导

这个工具本来是为本地部署开发的,API 功能在测试中,用户在 UI 的交互使用上容易出现错误配置,因此值得单独说一下。

设置中文,禁用Ollama连接状态检查

image.png

这个插件最先是只支持本地部署的模型,所以默认会检查 Ollama 连接状态,我们只需要使用 API 因此可以关闭这个检查功能。

image.png

添加 API 平台

image.png

我们只需要配置以下三项即可, API 密钥即【你的阿里百炼 API-Key】。

image.png

添加模型

我们在设置-管理模型-添加新模型,安装图示配置 【deepseek-r1】 模型即可。

image.png

开始聊天

然后我们就可以愉快的聊天啦~

image.png

联网搜索设置

联网搜索的搜索引擎可以指定,在 设置-一般设置 下面,默认使用 DuckDuckGo ,在国内推荐使用 Baidu,搜索速度和准确性更好一些。

image.png

RAG 设置

检索增强生成(RetrievalAugmentedGeneration),简称RAG。RAG的工作方式是在共享的语义空间中,从外部知识库中检索事实,将

这些事实用作决策过程的一部分,以此来提升大型语言模型的准确性。

让我们对比三种问答方案的优缺点,来理解为什么 RAG 是一个更好的选择:


1. 传统检索式问答 (Retrieval QA)

  - ✅ 可靠性高:答案直接来自知识库,有明确的来源

  - ✅ 知识可更新:添加新文档即可更新知识

  - ❌ 灵活性差:只能返回知识库中已有的内容

  - ❌ 表达生硬:难以用自然语言组织答案


2. 纯 LLM 问答

  - ✅ 表达自然:能用流畅的语言组织答案

  - ✅ 灵活理解:可以理解各种表达方式的问题

  - ❌ 知识固化:知识仅限于训练数据,无法及时更新

  - ❌ 可靠性差:容易产生幻觉,难以验证答案准确性


3. RAG 方案

  - ✅ 可靠且可溯源:答案基于检索到的具体文档

  - ✅ 知识可更新:可以持续添加新的知识

  - ✅ 表达自然:利用 LLM 的语言能力组织答案

  - ✅ 灵活理解:能理解各种形式的问题

  - ✅ 成本可控:主要消耗在必要的 API 调用上


RAG 通过将检索和生成相结合,既保留了传统检索问答的可靠性,又获得了 LLM 的灵活性和自然表达能力。它能让 AI 始终基于最新的、可信的知识来回答问题,同时保持对话的流畅自然。使用 RAG 需要使用嵌入模型(又称向量模型)对内容进行 Embedding 之后才能交由大模型使用。


更很棒的是,该插件支持 RAG ,用户只需要两步配置就能使用 RAG 和 知识库功能。

  1. 在模型管理中添加【嵌入模型】(支持本地模型和 API 调用,调用时具体的【嵌入模型 ID】 需要向提供商获得)

image.png

百炼模型广场中的嵌入模型

1740465893013_0AB9B4F2-56CF-4ea9-8058-8DA59EDE019F.png

  1. 然后在 RAG设置 中 启用嵌入模型 并 保存。

image.png

  1. 最后在【管理知识】页面添加新知识后首页提问时引用知识即可。

工具三:Dify 基于docker的 LLM 开发平台 ⭐⭐⭐⭐

这款工具非常强大,它不仅能够用于 AI 聊天,它更是一个软件开发平台,包括代理 AI 工作流、RAG 知识库、Agent功能、模型管理、可观察性功能等,可以快速从原型到生产。下面我示范一个通过 Dify 使用百炼 API 实现 DeepSeek 联网搜索的案例。

dify.png

安装 Dify

虽然它对功能的支持更全面,但是我还是没有把它列到本章节开篇的那个表格上,因为它是非常“重”的一个工具,普通用户使用它需要电脑上已安装WSL2(for Windows)、Docker Desktop(下载地址:https://docs.docker.com/desktop/setup/install/windows-install/)具体的安装脚本请访问该项目官方 readme:https://github.com/langgenius/dify ,下载整个项目后执行 docker compose up -d 然后需要耐心等待几分钟。

image.png

安装中图示

接入模型供应商

安装完成后打开Dify 网页的第一件事就是将 百炼 添加到 Dify 的模型配置中。

fffc3572f07e0a044249b61921f23829.png

模型提供商选择自定义的方式

模型类型

模型名称

API endpoint URL

模型上下文长度

最大 token 上限(最大回复长度

LLM

deepseek-r1

https://dashscope.aliyuncs.com/compatible-mode/v1

65,792

8,192

LLM

deepseek-v3

https://dashscope.aliyuncs.com/compatible-mode/v1

65,792

8,192

Text Embedding

text-embedding-v3

https://dashscope.aliyuncs.com/compatible-mode/v1

1,024/768/512(向量维度)

8,192(单行最大处理Token数)

接入 API 后我们可以测试一下是否接入成功,如下图所示:

image.png

创建应用

现在已经拥有大模型能力了,下一步开始构建工作流,那么首先就是创建一个 Chatflow 空白应用:

image.png

联网搜索应用设计流程图及其效果如下所示(测试prompt:今天有什么新闻): image.png

本应用全部使用 API 服务实现,本地无需部署任何大模型,当然你可以把知识库设置到本地,然后将知识库内容添加到工作流节点的上下文中。在拿到用户的输入之后,先使用 DeepSeek-V3 模型判断当前用户的输入是否需要进行网络请求,然后进入条件分支。若需要网络搜索则将用户输入内容放到网络搜索 API(该服务需要另外注册,在节点配置页面跳转注册即可),API 返回的搜索结果和用户输入内容一并提供给 DeepSeek-R1 生成最终回答。若无需网络搜索则将用户输入内容直接提供给 DeepSeek-R1 生成并直接回复。


该方案相对简洁,仅使用恰当的 prompt 给 LLM 赋予角色并执行目标任务就实现了相当不错的效果。但如果你想深入网络搜索的处理细节,可以学习一些 RAG 和搜索的相关知识然后搭建节点来代替上图工作流中搜索 API 的服务。要进行搜索,就需要有一个搜索关键词。当然我们可以将用户的输入直接当成关键词丢给搜索引擎,但现在大部分搜索引擎可没有大模型的理解能力,当用户搜索的内容冗长且很难找到重心时,你无法指望搜索引擎能直接给一个让人满意的结果,所以我们需要先使用模型根据用户输入整理出一个或多个适合的搜索关键词出来进行网络搜索流程。Dify 内置了DuckDuckGo、Bing、Google等多个搜索插件,你可以直接调用搜索插件然后获取搜索结果网页并提取网页内容最后格式化输入内容给模型,这样输入模型的内容就包括网页搜索结果和你原始的prompt,大模型会总结并返回你所期望的结果。


感兴趣的同学可以下去自己实验一下怎么构建更优雅的网络搜索/知识库系统的搜索架构。在这个过程中你可能会用到的比较前沿的搜索类大模型有:

  • 格式化处理模型 例如,ReaderLM v2:从 HTML 到 Markdown 和 JSON 的小型语言模型,专门用于网络数据提取和清洗。
  • 向量模型(又称嵌入模型) 例如,BGE:北京智源人工智能研究院提出的新的embedding模型,将文本数据快速转换为高质量的向量数据。
  • 排序模型 例如,gte-rerank 通常用于语义检索、RAG等场景,可以简单、有效地提升文本检索的效果。
  • 其他的文本分类、切分等功能的模型……

联网搜索部分相关逻辑

  • 搜索触发判断
  • 参考 DeepSeek 官网的实现方式:先识别用户输入,如果用户输入的内容仅通过模型已有的知识就可以回答,那么就不需要耗费资源与时间去进行网络搜索,比如用户问你是谁,用户想让模型报自己的 ID,就没有必要让大模型联网搜索“我是谁”,不仅会浪费资源,还会产生完全无关的结果,违背用户的预期。
  • Prompt设计:通过System指令约束模型判断是否需要联网搜索(如用户输入是否依赖实时/外部知识)。
  • 条件分支:根据模型输出yes/no决定后续流程。
  • 关键词生成
  • 单/多关键词策略:当前仅生成单一关键词,但理论上支持拆分复杂问题为多关键词(未实现)。
  • 搜索引擎选择
  • Dify 内的搜索模块:获得Google、Bing等搜索引擎的搜索结果。
  • SEARXNG集成:获取搜索引擎聚合搜索结果。
  • 网页抓取与过滤
  • 并行下载:使用HTTP请求并行抓取网页HTML,过滤失败请求。
  • 内容提取:调用Jina Reader-LLM-V2模型提取网页正文,通过相关性评分(阈值5)过滤低质量内容。

三、深度测评-阿里百炼 DeepSeek-R1 稳定性横评报告

DeepSeek-R1 是本次出圈的主角,为了给大家参考,本次测评选择了支持 API 调用方式的主流第三方服务商,使用逻辑推理题从回复率、准确率和推理耗时等方面评估其表现。


首先是费用方面,各个平台均提供了免费的额度,对于个人使用的新用户来说短期内是完全可以“白嫖”的。

费用.png

具体测评参考主流的模型测试项设置以下指标,测试数据集为20题:

指标名称 定义与计算方式 公式表达
完整回复率 模型完整输出技术有效响应(无截断、无错误终止)的题目占比,仅评估技术完整性,不涉及答案正确性 完整回复率 = C / N(C=完整回复题数,N=总题数)
截断率 模型输出中途断开导致答案不完整的题目占比 截断率 = T / N(T=截断题数)
无回复率 模型未返回有效响应(含请求失败、超时或无输出)的题目占比 无回复率 = E / N(E=无响应题数)
有效准确率 仅针对完整回复题目,模型答案与标准答案一致的比例(仅对比最终结果,忽略推理过程) 有效准确率 = A / C(A=正确答案数)
推理效率 仅针对完整回复题目,模型单题推理耗时均值(单位:秒/题) 推理效率 = Σt / C(t=单题推理时间)

指标独立性

  • 完整回复率、截断率、无回复率三者之和为100%(C + T + E = N),逻辑闭环无重叠。

1. 第三方 API 平台横评结果

回复率更新.png

准确率.png

横评总结

  • 阿里百炼平台的可用性要远大于 DeepSeek 官方网站,回复率位于第一梯队。推理效率有高峰期影响,本次测评结果数据仅能代表2025年2月14日下午工作时段的表现。
  • 不同平台对模型最大输出长度的限制使得模型在生成较长回复时更容易发生截断现象,模型最大输出长度受限的平台会大幅度出现无法完整回复的现象。
  • 付费第三方平台的服务稳定性通常高于免费平台。不同第三方平台在部署和运行DeepSeek-R1时表现出的稳定性存在显著差异。建议在选择平台时,综合评估其技术架构、资源调度能力以及用户负载情况,并结合自身需求(如回复率、推理耗时等指标)进行权衡。对于追求更高稳定性的用户,可以考虑用户量较少但资源分配更均衡的第三方平台,以降低因高并发导致的性能波动风险。
  • 考虑到不同平台的用户量级存在差异,用户数量较高的平台可能因服务器负载过重而面临更高的不稳定性风险。平台服务稳定性不足,或将间接影响模型生成回复的完整性和推理速度。阿里百炼返回的输出长度是众多平台中最长的,但是有效准确率和推理效率并不尽人意,猜测是阿里百炼用户数量众多导致资源比较紧张,平均tokens生成速度要慢于并不那么知名的云厂商。但没有出现执行后没有响应、响应超时或者报错(An internal error has occured, please try again later or contact service support)的现象,完整回复率能够达到100%。


2. 解决方案四种方式回看总结

本文着眼于百炼方式 API 调用,给出 API 开通方式、注意事项、工具的选择和测评、甚至是不同平台的测评来横向对比百炼的优势。


但是官方的解决方案是涵盖了四种方法的,之所以没有把这四种方法全部拉出来测评,原因一是这样做会导致文章非常长,而我又是 TLDR (Too Long Didn't Read太长不看) 的一个人。原因二是其他三个方法并不适合普通用户去使用,百炼是最容易上手和使用成本最低的方式。因此我将其他三种方式体验后的心得总结到下面。官方写的帮助文档是很详细的,有想法使用其他三种方式的同学相比一定能够看懂并自行对方案进行延申,我就不再这里繁冗的记录体验过程了。


【零门槛、即刻拥有 DeepSeek-R1 满血版】 技术解决方案整合了阿里云的计算资源提供四种路径,我来斗胆定义一下服务类型并且提供一些心得:

 理论上这四种部署方式都可以抽象成 API 方式接入各种软件和插件,例如接入 IOS 的快捷指令,让你的 IOS 比其他人更先支持 DeepSeek。但他们在部署架构、方式、时间、费用和定制化功能方面还是略有区别的。

  1. 基于百炼 API 调用满血版SaaS 服务,开通即可用,相当于第三方的 API 开放平台。有免费额度,三分钟开通即可用,适合普通用户。“百炼”指的是阿里云提供的一个集成多种机器学习和深度学习算法的平台服务。通过调用其API,开发者可以轻松地将复杂的AI功能集成到自己的应用程序中,而无需关心底层的算法实现细节。
  2. 基于人工智能平台 PAI 部署 PaaS 服务,适合人工智能开发者使用。有免费额度,十分钟一键式部署。PAI(Platform of Artificial Intelligence)是阿里云提供的一站式机器学习平台,它支持从数据预处理、模型训练到模型部署(再到调用)的全流程操作。PAI可以帮助用户快速构建和应用机器学习模型,适用于各种规模的企业和个人开发者。
  3. 基于函数计算部署FaaS (Function as a Service)服务,提供无服务器应用的搭建,更加弹性。有免费额度,十分钟一键式部署。该方案使用云原生应用开发平台 CAP,在里面构建 Ollama 作为后端(可以使用 Ollama API格式模板调用Open WebUI 作为前端。函数计算是一种事件驱动的全托管计算服务。用户只需要编写并上传代码,无需管理或运维服务器等基础设施。函数计算会自动为用户准备好执行环境,并根据实际请求量自动扩展资源,非常适合用于响应实时事件、处理数据流以及构建无服务器架构的应用程序。
  4. 基于GPU 云服务器部署 IaaS 服务,提供带有GPU的云服务器,是更加传统的形式。无免费额度,最快三十分钟手动搭建完成。 这种方式是无限接近于本地部署的方式,只不过服务器搬到了云上,所以资源比较弹性,部署的动作非常多。该方案使用 vLLM 作为后端和 Open WebUI 作为前端。GPU云服务器是专门针对需要大量图形处理和高性能计算的应用场景设计的。相比传统的CPU服务器,GPU服务器在处理大规模并行计算任务时具有显著的优势,特别是在机器学习、科学计算、视频编码等领域。使用GPU云服务器,用户可以获得强大的计算能力来加速其应用的运行效率。


需要注意的是,PAI 部署、函数计算(FC)部署和GPU 云服务器部署还需要关注购买域名和ICP备案等问题。以 FC 方式为例,你调用时提供给你的域名地址只能作为临时使用。


基于百炼的方式是官方最推荐,也是点击【免费体验】按钮后官方默认跳转的一个路径,这种方式适合想要快速获得 AI 能力的普通人。如果你想做定制化开发或者做企业版的本地部署和调试那么其他三种方法一定也能够满足你。


PS,现在DeepSeek的朋友圈越来越大,阿里通义灵码也支持使用 DeepSeek 来写代码了,但是需要注意的是 R1 的思维链其实不太搭程序编码的场景,因为 R1 的思考时间很长,但是在 Debug 的场景下还是很有用的!阿里通义灵码不需要部署或者开通就能直接选择使用,因此不纳入本文测评范围。


还想说一点

此外,部署文档的步骤指引是准确的。在部署过程中并没有遇到报错或异常。步骤简明易懂,但是建议解决方案设计团队在设计页面的适合增加一个链接到官方文档的入口,这样想要学习更多的同学可以自己动手去学习。百炼里面关于 DeepSeek 大语言模型的文档真的挺难找,路径太长了。https://help.aliyun.com/zh/model-studio/developer-reference/deepseek

image.png

百炼平台的网址在部署文档中有体现,但是出于简洁的考虑没有对百炼平台做更多的讲解(我猜的,不知道猜对没有),如果你还想探索更多的话,请务必阅读上一段话末尾的那个链接,里面是官方的帮助文档,帮助文档永远是最棒的学习材料之一。


百炼官方 API 接口不支持 DeepSeek 联网搜索,但是 Page Assist 这个插件能够替代实现这个功能,虽然不够强大但是是可用的,能够解决用户的刚需。我觉得需要补充这种使用方式。经过解决方案四种方式的理解与横向评测,阿里百炼会是我使用 DeepSeek 的好帮手,是四种解决方案路径里面成本最低的,它在横向评测(不同厂商)中表现也是不错的。

不足与期望

我在API服务之外还测试了通义灵码、支付宝百宝箱和纳米AI搜索等服务,这些需要 插件/小程序/网页 访问的平台反而提供了更低的延迟和更高的效率。期望阿里百炼平台能够提供更多的计算资源来提升准确率和推理效率,好的产品站到风口上是绝佳的圈粉机会,但同时需要注意阿里百炼免费的 API 额度遭到滥用的可能。


四、进阶指南-Prompt 编写指北

相信到这里你已经了解了 DeepSeek 并且学会了使用通过百炼来使用属于你自己的 DeepSeek 模型能力,但是你真的会用吗?把我写的提示词生成案例放上来告诉你我 prompt 工程能力多厉害,没有多大意义,授人以鱼不如授人以渔。


既然现在你已经能使用流畅满血版的 DeepSeek 了,你是否跃跃欲试了呢?下面再来分享一下如何写 prompt!

part.0 零技巧示例

我相信没有学习技巧和提示词框架的你是使用口语表达来让 AI 完成任务的,那么我们先复盘一下你之前的表达方式吧~


口语是相当开放性的表达,跟人对话时,对方会结合环境和语境去理解你没有说出来的内容。常见的口语表达是 干什么?给谁干?目的是什么?约束是什么? 有主谓宾三要素就能完成一句话的表达。


part.1 官方提示库示例

https://api-docs.deepseek.com/zh-cn/prompt-library/

官方开发平台的帮助文档专门有一个板块告诉你 DeepSeek 可以完成什么任务,能够获得什么样的效果,如果你有类似的需求,最简单并且有成效的方法就是用我们小学二年级就学习过的仿写句式来造句完成自己的需求。

image.png

image.png

part.2 RTGO 提示语结构

RTGO 提示语结构里面定义了四个要素,分别是 Role(角色)、Task(任务)、Goal(目标)、Objective(操作要求)。有了这些明确的要素支撑,AI 能够更清楚的知道你的需求,而不是猜测出一个你并不满意的答案。其实我们一直再使用这个框架,只是会更加口语话的有意无意的省略其中的部分要素。优化后的提示语效果会更好。


举个生活中的例子:儿子(角色),你去买一瓶酱油(任务),这样做出来的饭菜才更有滋味(目标),走着去楼下的小卖部就行(操作要求)


如果你觉得这样的提示语太单调,没有情商,信息密度不够,那么我们大可以让 AI 直接生成或者优化提示语然后再用优化后的提示语去完成任务。


还用生活中的例子举例,便于理解:


image.png

优化后的提示语: "儿子,能帮妈妈去楼下小卖部买瓶酱油吗?这样今天的饭菜会更香哦!慢慢走路去就好,注意看车,回来就能闻到香喷喷的红烧肉啦~"


优化后的提示语更富有情感,这样的任务交给儿子肯定能更好的完成。同理,我们使用该框架优化过的提示词来对 AI 提问,AI 的回答也会更加贴近我们的预期效果。

part.3 CO-STAR提示语框架

CO-STAR提示语框架是新加坡 GPT-4 提示工程竞赛冠军提示词框架,该框架包含六个要素,可以理解为 RTGO 提示语结构的增强和升级。


CO-STAR包括:

  1. "C"代表“Context(上下文)” 相关的背景信息,比如你自己或是你希望它完成的任务的信息。
  2. "O"代表“Objective(目标)” 明确的指示告诉AI你希望它做什么。
  3. "S"代表“Style(风格)” 想要的写作风格,如严肃的、有趣的、创新性表达、学术性……
  4. "T"代表“Tone(语调)” 幽默的?情绪化?有威胁性?
  5. "A"代表"Audience",受众是谁。 小白用户?专业人群?未成年群体?女性群体?
  6. "R",代表"Response",想要的回应类型。一份详细的研究报告?一个表格?Markdown格式?


同样使用生活化的例子来进行示范,优化之前的提示词示例:

image.png

C-O联动:用游戏化警报("能量不足")包装现实问题,降低任务抗拒感

S-T匹配:拟声词+表情符号营造趣味性,符合儿童认知特点(皮亚杰认知发展理论)

A-R适配:

分步指南:符合7-11岁儿童"执行功能"发育需求

可视化反馈:通过称号/经验值等游戏元素满足具象思维特征

风险控制:

"乌龟慢走模式"替代"注意安全"说教

用虚构咒语(护盾开启)强化安全意识


这样优化过后的提示词更加贴近小学二年级的表达习惯,堪称完美!


收到这样提示词的 AI 都想帮你多干点任务了!

part.4 都是技巧

part.0 我们了解了开放性的提问,也就是无技巧,最自然的方式。那么最后肯定是要学会点技巧的。以下表格可供学习:

层级

技巧分类

技巧名称

核心描述

应用示例

技术原理

基础层

需求表达

直接请求法

用祈使句明确任务目标

"请总结量子力学的基本原理"

指令清晰化原理

结构优化

格式标记法

用符号分隔指令与内容

输入:<文章>...</文章> → 输出:<总结>...</总结>

格式塔认知理论

进阶层

需求限定

精准限定法

添加输出格式/长度等约束条件

"用200字、3个要点和1个比喻解释相对论"

框架效应理论

范例驱动

案例示范法

提供输入输出样本规范格式

输入示例:"太阳系行星" → 输出示例:"1.水星... 2.金星..."

模式匹配原理

高阶层

认知引导

苏格拉底诘问法

引导AI自我检查回答完整性

"当前回答是否覆盖了所有时间维度?请补充1990年后的发展"

元认知激发策略

系统设定

角色扮演法

赋予AI特定身份背景

"假设你是NASA工程师,用技术报告格式说明火星殖民挑战"

情境认知理论

过程可视化

思维链技术

要求展示推理过程

"请分三步论证:首先定义关键概念,其次梳理历史脉络,最后给出当代应用"

透明化推理机制

专家层

动态优化

提示词自生成

让AI创建优化后的提示模板

"请为'比较分析'类问题设计包含:分析维度、评分标准、风险提示的提示模板"

递归优化算法

多维控制

RTGO 提示语结构

结构化控制4维参数

Role(角色)、Task(任务)、Goal(目标)、Objective(操作要求)

多维约束满足模型

多维控制

CO-STAR框架

结构化控制6维参数

C(背景): 面向高中生讲
O(目标): 用生活案例说明电磁感应
S(风格): 脱口秀式幽默
T(语调): 兴奋好奇
A(受众): 00后学生
R(格式): 对话体+表情包

多维约束满足模型

五、附录-多平台阅读指引

https://www.cnblogs.com/palworld/p/18715725

https://blog.csdn.net/weixin_46281101/article/details/145637590

相关实践学习
如何快速创建插件agent
阿里云百炼应用基于Assistant API技术架构,结合大语言模型(LLM)的推理、知识检索增强、插件调度等能力,构建应对各类复杂场景任务的场景应用。通过集成化、直观易用的产品界面,为开发者提供了丰富的应用配置选项,包括大型语言模型(LLM)选择、Pro
目录
打赏
0
11
10
1
231
分享
相关文章
1688商品数据实战:API搜索接口开发与供应链分析应用
本文详细介绍了如何通过1688开放API实现商品数据的获取与应用,涵盖接入准备、签名流程、数据解析存储及商业化场景。开发者可完成智能选品、价格监控和供应商评级等功能,同时提供代码示例与问题解决方案,确保法律合规与数据安全。适合企业开发者快速构建供应链管理系统。
Python 中调用 DeepSeek-R1 API的方法介绍,图文教程
本教程详细介绍了如何使用 Python 调用 DeepSeek 的 R1 大模型 API,适合编程新手。首先登录 DeepSeek 控制台获取 API Key,安装 Python 和 requests 库后,编写基础调用代码并运行。文末包含常见问题解答和更简单的可视化调用方法,建议收藏备用。 原文链接:[如何使用 Python 调用 DeepSeek-R1 API?](https://apifox.com/apiskills/how-to-call-the-deepseek-r1-api-using-python/)
【重磅发布】 免费领取阿里云百炼AI大模型100万Tokens教程出炉,API接口实战操作,DeepSeek-R1满血版即刻体验!
阿里云百炼是一站式大模型开发及应用构建平台,支持开发者和业务人员轻松设计、构建大模型应用。通过简单操作,用户可在5分钟内开发出大模型应用或在几小时内训练专属模型,专注于创新。
683 89
【重磅发布】 免费领取阿里云百炼AI大模型100万Tokens教程出炉,API接口实战操作,DeepSeek-R1满血版即刻体验!
一文轻松拿下DeepSeek满血版的Api接口接入
本文详细介绍了如何基于阿里云百炼平台快速接入DeepSeek满血版API接口,实现文本问答的智能操作。通过简单的步骤,包括开通平台、创建API-KEY、配置环境变量、安装SDK和调用模型,即使是编程新手也能在5分钟内完成配置。DeepSeek-R1模型拥有671B参数,在数学、代码和自然语言推理等任务上表现出色。文章还提供了完整的Java代码示例,帮助读者轻松上手。链接:[解决方案](https://www.aliyun.com/solution/tech-solution/deepseek-r1-for-platforms?utm_content=g_1000401616)
497 1
一文轻松拿下DeepSeek满血版的Api接口接入
【2025.3.08更新】Linkreate wordpressAI智能插件|自动生成SEO文章/图片/视频+长尾词优化 内置DeepSeek多模型支持与API扩展
Linkreate WordPress AI插件提供强大的自动化文章生成、SEO优化、关键词管理和内容采集功能。它能根据关键词自动生成高质量文章,支持多语言和批量生成,内置长尾关键词生成工具,并可定时自动发布文章。插件还集成了多种AI服务,支持前端AI客服窗口及媒体生成,帮助用户高效管理网站内容,提升SEO效果。
Linkreate wordpressAI智能插件|自动生成SEO文章/图片/视频+长尾词优化 内置DeepSeek多模型支持与API扩展
Linkreate WordPress AI插件提供强大的文章生成与优化功能,支持自动化生成高质量文章、批量生成、SEO优化及双标题定制。关键词生成管理方面,可批量生成长尾关键词并自定义参数。内容采集功能支持单篇和批量采集指定网站内容,可视化规则生成器方便使用。定时任务实现全自动文章生成,24小时稳定运行。API集成兼容多种AI服务,如DeepSeek、OpenAI等,并支持前端AI客服窗口。媒体生成功能包括自动为文章生成图片和短视频,提升内容丰富度。官网提供插件演示及下载:[https://idc.xymww.com/](https://idc.xymww.com/)
JavaScript中通过array.map()实现数据转换、创建派生数组、异步数据流处理、复杂API请求、DOM操作、搜索和过滤等,array.map()的使用详解(附实际应用代码)
array.map()可以用来数据转换、创建派生数组、应用函数、链式调用、异步数据流处理、复杂API请求梳理、提供DOM操作、用来搜索和过滤等,比for好用太多了,主要是写法简单,并且非常直观,并且能提升代码的可读性,也就提升了Long Term代码的可维护性。 只有锻炼思维才能可持续地解决问题,只有思维才是真正值得学习和分享的核心要素。如果这篇博客能给您带来一点帮助,麻烦您点个赞支持一下,还可以收藏起来以备不时之需,有疑问和错误欢迎在评论区指出~
DeepClaude:结合 DeepSeek R1 和 Claude AI 各自优势开发的 AI 应用平台,支持 API 调用和零延迟的即时响应
DeepClaude 是一个开源的 AI 应用开发平台,结合了 DeepSeek R1 和 Claude 模型的优势,提供即时响应、端到端加密和高度可配置的功能。
325 4
DeepClaude:结合 DeepSeek R1 和 Claude AI 各自优势开发的 AI 应用平台,支持 API 调用和零延迟的即时响应
1688平台API接口实战:Python实现店铺全量商品数据抓取
本文介绍如何使用Python通过1688开放平台的API接口自动化抓取店铺所有商品数据。首先,开发者需在1688开放平台完成注册并获取App Key和App Secret,申请“商品信息查询”权限。接着,利用`alibaba.trade.product.search4trade`接口,构建请求参数、生成MD5签名,并通过分页机制获取全量商品数据。文中详细解析了响应结构、存储优化及常见问题处理方法,还提供了竞品监控、库存预警等应用场景示例和完整代码。
解锁 DeepSeek API 接口:构建智能应用的技术密钥
在数字化时代,智能应用蓬勃发展,DeepSeek API 作为关键技术之一,提供了强大的自然语言处理能力。本文详细介绍 DeepSeek API,并通过 Python 请求示例帮助开发者快速上手。DeepSeek API 支持文本生成、问答系统、情感分析和文本分类等功能,具备高度灵活性和可扩展性,适用于多种场景。示例展示了如何使用 Python 调用 API 生成关于“人工智能在医疗领域的应用”的短文。供稿者:Taobaoapi2014。

热门文章

最新文章