解密:Prompt、Token、和completions是什么?

简介: 解密:Prompt、Token、和completions是什么?

Prompt、Token、和completions

本文是科普向,大家放心阅读

在ChatGPT越来越火的时候,很多开发者都想大展拳脚,但在这之前,我们需要了解一些基础知识,比如你知道什么是token、什么是prompt、什么是Complemention

Prompt

提示词Prompt,简单来说,就是让告诉Chatgpt它需要做什么,类似程序员编程。但不同之处在于,你只需要输入纯文本,ChatGPT会尽可能地理解你的意思,并完成你提出的任务。

因此,Prompt的质量将会直接影响ChatGPT回答的质量。这也很好理解,它都没有理解你的意思,给你的回答自然无法置信。

那么怎样输入一个理想的Prompt?别急,我们先看看Prompt的分类。

从Prompt的内容和形式,可以将其分为三类:

  • Zero-shot prompts
  • One-shot prompts
  • Few-shot prompts

分别代表零样本提示词、单样本提示词和少样本提示词。

其中,**零样本提示词是指用户仅提供了一个任务描述,**例如一个问题、一个故事的开头或是某些指令,比如写一份邮件:

Write an email to my friend Jay from me Steve thanking him for covering my shift this past Friday. Tell him to let me know if I can ever return the favor. Subject:

d0f2c66a3d142cb803c5ceba96a1fb50.png

可以看到,ChatGPT根据提示生成了一份邮件。

所以,零样本提示词可以让ChatGPT去完成一些简单清晰的工作。

那么单样本提示词是什么?

举个例子:

A list of actors in the movie Star Wars 1. Mark Hamill: Luke Skywalker


简单来说,GPT根据用户所给的Prompt了解到了如何去完成用户所要求的任务。和零样本提示词不同的是,单样本提示词告诉了GPT,如何去完成某一个任务,而不仅仅是下达了一个完成任务的指令。

我想你应该大概知道少样本提示词有什么不同了。

直接看例子:

This is a conversation between Steve, the author of the book Exploring GPT-3 and someone who is reading the book.


Reader: Why did you decide to write the book?


Steve: Because I’m super fascinated by GPT-3 and emerging technology in general.


Reader: What will I learn from this book?


Steve: The book provides an introduction to GPT-3 from OpenAI. You’ll learn what GPT-3 is and how to get started using it.


Reader: Do I need to be a coder to follow along?


Steve: No. Even if you’ve never written a line of code before, you’ll be able to follow along just fine.


Reader:

a11a0149796c6d0c8e28a4fb1ecb6556.png

很明显,GPT会根据拟定的聊天话题及语境去进行会话的拓展。

总结一下,零样本提示词告诉AI做什么;单样本提示词告诉AI怎么去做某件事情;多样本提示词告诉AI你需要按照某种模式去完成任务。三者的区别主要在于上下文的多寡,首先抛一个结论:上下文越多,得到的回答越准确。

Token

“Token”(标记)是指将输入文本分解为更小的单位,例如单词、字母或字符。在自然语言处理中,将文本分解为标记有助于模型理解语义和语法结构。

当一个Prompt被发送给GPT时,它会被分解成多个Token,这个过程被称为Tokenier。一般情况下,对于英文单词,四个字符表示一个标记Token。


对于Chatgpt3.5来说,它最开始支持的Token最大值是4096。也就是说,你输入的Prompt加上GPT回复给你的内容不能大于4096个Token,否则就会超限,导致报错或是截断。

completions

completions,其实就是AI根据你的输入完成一次输出的过程。

Ref:https://subscription.packtpub.com/book/data/9781800563193/2/ch02lvl1sec06/understanding-prompts-completions-and-tokens

相关文章
|
机器学习/深度学习 自然语言处理 搜索推荐
神经网络算法 —— Embedding(嵌入)!!
神经网络算法 —— Embedding(嵌入)!!
5552 1
|
2月前
|
人工智能 安全 JavaScript
CoPaw是什么?和OpenClaw有什么差异?部署OpenClaw配置阿里云百炼API及避坑指南
CoPaw(Co Personal Agent Workstation)是阿里云通义实验室基于AgentScope框架于2026年2月开源的个人AI助手,定位为**面向普通用户的国产友好型AI智能体**,主打“本地/云端双部署、国内平台原生适配、主动执行任务、零代码扩展”。其核心是做能主动协作、全域可用的“搭档小爪子”,目标用户覆盖职场人、内容创作者与中小企业,强调开箱即用与本土化体验。
5637 4
|
3月前
|
人工智能 JavaScript Serverless
这个Skill能自动学会你的所有习惯,踩过的坑!
Claudeception是一款让Claude Code自动学习用户工作模式的智能插件。它通过分析调试过程、写作流程、文件管理等真实行为,将经验沉淀为可复用的Skill,实现“越用越懂你”。GitHub获1660星,适合Claude重度用户,2–3周后效果显著。(239字)
|
4月前
|
人工智能 中间件 API
2026 AI 大模型 LLM API 生态全景:AnythingLLM、OpenRouter、LiteLLM 与 n1n.ai 深度对比
面对 AI 生态的爆发,如何选择合适的 LLM API 基础设施?本文深度横评 AnythingLLM、OpenRouter、LiteLLM 与 n1n.ai 四大主流工具。从个人 AI 开发到企业级 AI 大模型部署,剖析各平台在 AI API 聚合及成本控制上的优劣,助你构建高效的 AI 大模型技术栈。
1564 10
|
4月前
|
人工智能 安全 API
资源有限,跑大模型太难?手把手教你用 llama.cpp 安全部署任意 GGUF 模型(含 DeepSeek-R1 实战)
无需高端显卡,手把手教你用 llama.cpp 本地安全部署任意 GGUF 模型!支持 DeepSeek-R1 实战,实现离线运行、流式输出与 OpenAI 兼容 API。涵盖 Docker 安全加固、模型切换、双模客户端调用,适用于企业知识库、智能客服等场景,个人开发者与企业皆可快速落地。

热门文章

最新文章