解密:Prompt、Token、和completions是什么?

简介: 解密:Prompt、Token、和completions是什么?

Prompt、Token、和completions

本文是科普向,大家放心阅读

在ChatGPT越来越火的时候,很多开发者都想大展拳脚,但在这之前,我们需要了解一些基础知识,比如你知道什么是token、什么是prompt、什么是Complemention

Prompt

提示词Prompt,简单来说,就是让告诉Chatgpt它需要做什么,类似程序员编程。但不同之处在于,你只需要输入纯文本,ChatGPT会尽可能地理解你的意思,并完成你提出的任务。

因此,Prompt的质量将会直接影响ChatGPT回答的质量。这也很好理解,它都没有理解你的意思,给你的回答自然无法置信。

那么怎样输入一个理想的Prompt?别急,我们先看看Prompt的分类。

从Prompt的内容和形式,可以将其分为三类:

  • Zero-shot prompts
  • One-shot prompts
  • Few-shot prompts

分别代表零样本提示词、单样本提示词和少样本提示词。

其中,**零样本提示词是指用户仅提供了一个任务描述,**例如一个问题、一个故事的开头或是某些指令,比如写一份邮件:

Write an email to my friend Jay from me Steve thanking him for covering my shift this past Friday. Tell him to let me know if I can ever return the favor. Subject:

d0f2c66a3d142cb803c5ceba96a1fb50.png

可以看到,ChatGPT根据提示生成了一份邮件。

所以,零样本提示词可以让ChatGPT去完成一些简单清晰的工作。

那么单样本提示词是什么?

举个例子:

A list of actors in the movie Star Wars 1. Mark Hamill: Luke Skywalker


简单来说,GPT根据用户所给的Prompt了解到了如何去完成用户所要求的任务。和零样本提示词不同的是,单样本提示词告诉了GPT,如何去完成某一个任务,而不仅仅是下达了一个完成任务的指令。

我想你应该大概知道少样本提示词有什么不同了。

直接看例子:

This is a conversation between Steve, the author of the book Exploring GPT-3 and someone who is reading the book.


Reader: Why did you decide to write the book?


Steve: Because I’m super fascinated by GPT-3 and emerging technology in general.


Reader: What will I learn from this book?


Steve: The book provides an introduction to GPT-3 from OpenAI. You’ll learn what GPT-3 is and how to get started using it.


Reader: Do I need to be a coder to follow along?


Steve: No. Even if you’ve never written a line of code before, you’ll be able to follow along just fine.


Reader:

a11a0149796c6d0c8e28a4fb1ecb6556.png

很明显,GPT会根据拟定的聊天话题及语境去进行会话的拓展。

总结一下,零样本提示词告诉AI做什么;单样本提示词告诉AI怎么去做某件事情;多样本提示词告诉AI你需要按照某种模式去完成任务。三者的区别主要在于上下文的多寡,首先抛一个结论:上下文越多,得到的回答越准确。

Token

“Token”(标记)是指将输入文本分解为更小的单位,例如单词、字母或字符。在自然语言处理中,将文本分解为标记有助于模型理解语义和语法结构。

当一个Prompt被发送给GPT时,它会被分解成多个Token,这个过程被称为Tokenier。一般情况下,对于英文单词,四个字符表示一个标记Token。


对于Chatgpt3.5来说,它最开始支持的Token最大值是4096。也就是说,你输入的Prompt加上GPT回复给你的内容不能大于4096个Token,否则就会超限,导致报错或是截断。

completions

completions,其实就是AI根据你的输入完成一次输出的过程。

Ref:https://subscription.packtpub.com/book/data/9781800563193/2/ch02lvl1sec06/understanding-prompts-completions-and-tokens

相关文章
|
前端开发 Java Maven
frontend-maven-plugin
frontend-maven-plugin
927 1
|
5月前
|
存储 安全 Java
ThreadLocal - 原理与应用场景详解
ThreadLocal是Java中用于实现线程隔离的重要工具,为每个线程提供独立的变量副本,避免多线程数据共享带来的安全问题。其核心原理是通过 ThreadLocalMap 实现键值对存储,每个线程维护自己的存储空间。ThreadLocal 广泛应用于线程隔离、跨层数据传递、复杂调用链路的全局参数传递及数据库连接管理等场景。此外,InheritableThreadLocal 支持子线程继承父线程的变量值,而 TransmittableThreadLocal 则解决了线程池中变量传递的问题,提升了多线程上下文管理的可靠性。深入理解这些机制,有助于开发者更好地解决多线程环境下的数据隔离与共享挑战。
1069 43
|
6月前
|
Cloud Native 关系型数据库 分布式数据库
登顶TPC-C|云原生数据库PolarDB技术揭秘:Limitless集群和分布式扩展篇
阿里云PolarDB云原生数据库在TPC-C基准测试中以20.55亿tpmC的成绩刷新世界纪录,展现卓越性能与性价比。其轻量版满足国产化需求,兼具高性能与低成本,适用于多种场景,推动数据库技术革新与发展。
|
自然语言处理 算法 OLAP
阿里云PAI大模型RAG对话系统最佳实践
本文为大模型RAG对话系统最佳实践,旨在指引AI开发人员如何有效地结合LLM大语言模型的推理能力和外部知识库检索增强技术,从而显著提升对话系统的性能,使其能更加灵活地返回用户查询的内容。适用于问答、摘要生成和其他依赖外部知识的自然语言处理任务。通过该实践,您可以掌握构建一个大模型RAG对话系统的完整开发链路。
|
10月前
|
机器学习/深度学习 自然语言处理 PyTorch
Transformers入门指南:从零开始理解Transformer模型
【10月更文挑战第29天】作为一名机器学习爱好者,我深知在自然语言处理(NLP)领域,Transformer模型的重要性。自从2017年Google的研究团队提出Transformer以来,它迅速成为NLP领域的主流模型,广泛应用于机器翻译、文本生成、情感分析等多个任务。本文旨在为初学者提供一个全面的Transformers入门指南,介绍Transformer模型的基本概念、结构组成及其相对于传统RNN和CNN模型的优势。
9327 1
|
开发者 异构计算 容器
NRI - 在容器的生命周期焊接“芯片”
个人调研containerd 1.7版本新特性NRI,欢迎指正
696 1
|
人工智能 前端开发 Java
【实操】Spring Cloud Alibaba AI,阿里AI这不得玩一下(含前后端源码)
本文介绍了如何使用 **Spring Cloud Alibaba AI** 构建基于 Spring Boot 和 uni-app 的聊天机器人应用。主要内容包括:Spring Cloud Alibaba AI 的概念与功能,使用前的准备工作(如 JDK 17+、Spring Boot 3.0+ 及通义 API-KEY),详细实操步骤(涵盖前后端开发工具、组件选择、功能分析及关键代码示例)。最终展示了如何成功实现具备基本聊天功能的 AI 应用,帮助读者快速搭建智能聊天系统并探索更多高级功能。
3942 2
【实操】Spring Cloud Alibaba AI,阿里AI这不得玩一下(含前后端源码)
|
存储 缓存 JSON
详解HTTP四种请求:POST、GET、DELETE、PUT
【4月更文挑战第3天】
65314 3
详解HTTP四种请求:POST、GET、DELETE、PUT
|
机器学习/深度学习 人工智能 文字识别
香橙派——雕琢智能时代的瑰宝为AI而生(二)
香橙派——雕琢智能时代的瑰宝为AI而生(二)
914 2