使用 OpenAI GPT 模型的最佳实践

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
简介: 自从 GPT 模型发布以来,每个人都一直在使用它们。从提出简单的问题到开发复杂的编码,GPT 模型可以快速帮助用户。这就是为什么模型只会随着时间的推移而变得更大。

推荐:使用NSDT场景编辑器助你快速搭建可二次编辑的3D应用场景

为了帮助用户获得最佳输出,OpenAI 提供了使用 GPT 模型的最佳实践。这来自体验,因为许多用户不断尝试使用此模型并找到了最有效的方法。

在本文中,我将总结使用 OpenAI GPT 模型应了解的最佳实践。这些做法是什么?让我们进入它。

GPT 最佳做法

GPT 模型输出仅与您的提示一样好。通过对您想要的内容的明确说明,它将提供您期望的结果。提高 GPT 输出的一些提示包括:

  1. 在提示中提供详细信息以获取相关答案。例如,我们可以写“通过 Python 中的代码示例为我提供标准分布计算”,而不是提示“给我代码来计算正态分布”。在每个部分中放置注释,并解释为什么每个代码都以这种方式执行。
  2. 给出一个角色或示例,并添加输出的长度。 我们可以将角色或示例引入模型,以便更清晰。例如,我们可以传递系统角色参数,以教师向学生解释的方式解释某些内容。通过提供角色,GPT 模型将以我们需要的方式带来结果。如果要更改角色,下面是一个示例代码。
import openai
openai.api_key = ""
res = openai.ChatCompletion.create(
    model="gpt-3.5-turbo",
    max_tokens=100,
    temperature=0.7,
    messages=[
        {
            "role": "system",
            "content": """
          When I ask to explain something, bring it in a way that teacher 
          would explain it to students in every paragraph.
          """,
        },
        {
            "role": "user",
            "content": """
         What is golden globe award and what is the criteria for this award? Summarize them in 2 paragraphs.
          """,
        },
    ],
)

提供示例结果来指导 GPT 模型应如何回答您的问题也很棒。例如,在此代码中,我传递了如何解释情绪,GPT 模型应模仿我的风格。

res = openai.ChatCompletion.create(
    model="gpt-3.5-turbo",
    max_tokens=100,
    temperature=0.7,
    messages=[
        {
            "role": "system",
            "content": "Answer in a consistent style.",
        },
        {
            "role": "user",
            "content": "Teach me about Love",
        },
        {
            "role": "assistant",
            "content": "Love can be sweet, can be sour, can be grand, can be low, and can be anything you want to be",
        },
        {
            "role": "user",
            "content": "Teach me about Fear",
        },
    ],
)
  1. 指定完成任务的步骤。 提供有关如何输出以获得最佳输出的详细步骤。详细说明 GPT 模型应如何操作的说明。例如,我们在此代码中放置了带有前缀和翻译的两步指令。
res = openai.ChatCompletion.create(
        model="gpt-3.5-turbo",
        max_tokens=100,
        temperature=0.7,
        messages= [
            {
          "role": "system",
          "content": """
          Use the following step-by-step instructions to respond to user inputs.
        step 1 - Explain the question input by the user in 2 paragraphs or less with the prefix "Explanation: ".
        Step 2 - Translate the Step 1 into Indonesian, with a prefix that says "Translation: ".
          """,
         },
         {
          "role": "user",
          "content":"What is heaven?",
         },
        ])
  1. 提供参考、链接或引用。如果我们已经有各种问题参考,我们可以将它们用作 GPT 模型的基础来提供输出。提供您认为与您的问题相关的任何参考文献的列表,并将它们传递给系统角色。
  2. 给 GPT 时间“思考”。提供一个查询,允许 GPT 在急于给出不正确的结果之前详细处理提示。如果我们给助理角色传递错误的结果,并且我们希望 GPT 能够自己批判性地思考,则尤其如此。例如,下面的代码显示了我们如何要求 GPT 模型对用户输入更加严格。
res = openai.ChatCompletion.create(
        model="gpt-3.5-turbo",
        max_tokens=100,
        temperature=0.7,
        messages= [
            {
          "role": "system",
          "content": """
        Work on your solution to the problem, then compare your solution to the user and evaluate
        if the solution is correct or not. Only decide if the solution is correct once you have done the problem yourself.
          """,
         }, 
         {
          "role": "user",
          "content":"1 + 1 = 3",
         },
        ])
  1. 使 GPT 使用代码执行来获得精确的结果。 对于更扩展和更复杂的计算,GPT 可能无法按预期工作,因为模型可能会提供不准确的结果。为了缓解这种情况,我们可以要求 GPT 模型编写和运行编码,而不是直接计算它们。这样,GPT 可以依赖代码而不是其计算。例如,我们可以提供如下输入。
res = openai.ChatCompletion.create(
        model="gpt-3.5-turbo",
        max_tokens=100,
        temperature=0.7,
        messages= [
            {
          "role": "system",
          "content": """
      Write and execute Python code by enclosing it in triple backticks,
       e.g. ```code goes here```. Use this to perform calculations.
          """,
         }, 
         {
          "role": "user",
          "content":"""
          Find all real-valued roots of the following polynomial equation: 2*x**5 - 3*x**8- 2*x**3 - 9*x + 11.
          """,
         },
        ])

结论

GPT 模型是目前最好的模型之一,以下是改进 GPT 模型输出的一些最佳实践:

  1. 在提示中提供详细信息以获取相关答案
  2. 给出一个角色或示例,并添加输出的长度
  3. 指定完成任务的步骤
  4. 提供参考、链接或引用
  5. 给 GPT 时间“思考”
  6. 使 GPT 使用代码执行来获得精确的结果

原文链接:使用 OpenAI GPT 模型的最佳实践

目录
相关文章
|
3月前
|
机器学习/深度学习 人工智能 并行计算
"震撼!CLIP模型:OpenAI的跨模态奇迹,让图像与文字共舞,解锁AI理解新纪元!"
【10月更文挑战第14天】CLIP是由OpenAI在2021年推出的一种图像和文本联合表示学习模型,通过对比学习方法预训练,能有效理解图像与文本的关系。该模型由图像编码器和文本编码器组成,分别处理图像和文本数据,通过共享向量空间实现信息融合。CLIP利用大规模图像-文本对数据集进行训练,能够实现zero-shot图像分类、文本-图像检索等多种任务,展现出强大的跨模态理解能力。
283 2
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
当语言遇见智慧火花:GPT家族历代模型大起底,带你见证从平凡到卓越的AI进化奇迹!
【10月更文挑战第6天】随着自然语言处理技术的进步,GPT系列模型(Generative Pre-trained Transformers)成为该领域的明星。从GPT-1的开创性工作,到GPT-2在规模与性能上的突破,再到拥有1750亿参数的GPT-3及其无需微调即可执行多种NLP任务的能力,以及社区驱动的GPT-NeoX,这些模型不断进化。虽然它们展现出强大的语言理解和生成能力,但也存在如生成错误信息或偏见等问题。本文将对比分析各代GPT模型的特点,并通过示例代码展示其部分功能。
164 2
|
1月前
|
Go 开发工具
百炼-千问模型通过openai接口构建assistant 等 go语言
由于阿里百炼平台通义千问大模型没有完善的go语言兼容openapi示例,并且官方答复assistant是不兼容openapi sdk的。 实际使用中发现是能够支持的,所以自己写了一个demo test示例,给大家做一个参考。
|
3月前
|
数据采集 API 决策智能
华为诺亚联合中科大发布工具调用模型ToolACE,效果持平GPT-4获开源第一
 【10月更文挑战第10天】华为诺亚方舟实验室与中国科学技术大学合作推出ToolACE,一种自进化合成过程的工具调用模型。ToolACE通过多智能体交互和双重验证系统生成准确、复杂、多样化的工具学习数据,显著提升大型语言模型(LLM)的功能调用能力。实验结果显示,使用ToolACE数据训练的80亿参数模型性能媲美GPT-4,在伯克利功能调用排行榜上获得开源第一。
100 4
|
25天前
|
数据采集 人工智能 数据可视化
InternVL 2.5,首个MMMU超过70%的开源模型,性能媲美GPT-4o
近期Internvl2.5发布,性能与GPT-4o和Claude-3.5-sonnet等领先的商业模型相媲美,成为首个在MMMU上超过70%的开源模型,通过链式思考(CoT)推理实现了3.7个百分点的提升,展示了强大的测试时间可扩展性潜力。
|
10天前
|
人工智能 自然语言处理 机器人
OpenAI推出具有图像上传和分析功能的完整o1模型,并首次推出ChatGPT Pro
OpenAI推出具有图像上传和分析功能的完整o1模型,并首次推出ChatGPT Pro
|
1月前
|
人工智能 自然语言处理 计算机视觉
OpenAI发布sCM提升50倍效率,扩散模型重大技术突破!
OpenAI近期发布了Simplified Consistency Models (sCM) 技术,这是在扩散模型基础上的重大改进,实现了50倍效率提升。sCM通过简化和稳定连续时间一致性模型的训练过程,解决了传统模型中的离散化误差和训练不稳定性问题,显著提升了生成模型的性能和效率。在多个数据集上的测试结果表明,sCM不仅超越了现有模型,还在生成模型的实际应用中展现了巨大潜力。论文地址:https://arxiv.org/abs/2410.11081
48 3
|
2月前
|
自然语言处理 搜索推荐 Serverless
基于函数计算部署GPT-Sovits模型实现语音生成
阿里云开发者社区邀请您参加“基于函数计算部署GPT-Sovits模型实现语音生成”活动。完成指定任务即可获得收纳箱一个。活动时间从即日起至2024年12月13日24:00:00。快来报名吧!
|
3月前
|
存储 数据采集 数据安全/隐私保护
商汤、清华、复旦等开源百亿级多模态数据集,可训练类GPT-4o模型
商汤科技、清华大学和复旦大学等机构联合开源了名为OmniCorpus的多模态数据集,规模达百亿级,旨在支持类似GPT-4级别的大型多模态模型训练。该数据集包含86亿张图像和1696亿个文本标记,远超现有数据集规模并保持高质量,具备广泛来源和灵活性,可轻松转换为纯文本或图像-文本对。经验证,该数据集质量优良,有望促进多模态模型研究,但同时也面临存储管理、数据偏见及隐私保护等挑战。
195 60
|
2月前
|
弹性计算 自然语言处理 搜索推荐
活动实践 | 基于函数计算部署GPT-Sovits模型实现语音生成
通过阿里云函数计算部署GPT-Sovits模型,可快速实现个性化声音的文本转语音服务。仅需少量声音样本,即可生成高度仿真的语音。用户无需关注服务器维护与环境配置,享受按量付费及弹性伸缩的优势,轻松部署并体验高质量的语音合成服务。