使用 OpenAI GPT 模型的最佳实践

本文涉及的产品
实时数仓Hologres,5000CU*H 100GB 3个月
实时计算 Flink 版,5000CU*H 3个月
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
简介: 自从 GPT 模型发布以来,每个人都一直在使用它们。从提出简单的问题到开发复杂的编码,GPT 模型可以快速帮助用户。这就是为什么模型只会随着时间的推移而变得更大。

推荐:使用NSDT场景编辑器助你快速搭建可二次编辑的3D应用场景

为了帮助用户获得最佳输出,OpenAI 提供了使用 GPT 模型的最佳实践。这来自体验,因为许多用户不断尝试使用此模型并找到了最有效的方法。

在本文中,我将总结使用 OpenAI GPT 模型应了解的最佳实践。这些做法是什么?让我们进入它。

GPT 最佳做法

GPT 模型输出仅与您的提示一样好。通过对您想要的内容的明确说明,它将提供您期望的结果。提高 GPT 输出的一些提示包括:

  1. 在提示中提供详细信息以获取相关答案。例如,我们可以写“通过 Python 中的代码示例为我提供标准分布计算”,而不是提示“给我代码来计算正态分布”。在每个部分中放置注释,并解释为什么每个代码都以这种方式执行。
  2. 给出一个角色或示例,并添加输出的长度。 我们可以将角色或示例引入模型,以便更清晰。例如,我们可以传递系统角色参数,以教师向学生解释的方式解释某些内容。通过提供角色,GPT 模型将以我们需要的方式带来结果。如果要更改角色,下面是一个示例代码。
import openai
openai.api_key = ""
res = openai.ChatCompletion.create(
    model="gpt-3.5-turbo",
    max_tokens=100,
    temperature=0.7,
    messages=[
        {
            "role": "system",
            "content": """
          When I ask to explain something, bring it in a way that teacher 
          would explain it to students in every paragraph.
          """,
        },
        {
            "role": "user",
            "content": """
         What is golden globe award and what is the criteria for this award? Summarize them in 2 paragraphs.
          """,
        },
    ],
)

提供示例结果来指导 GPT 模型应如何回答您的问题也很棒。例如,在此代码中,我传递了如何解释情绪,GPT 模型应模仿我的风格。

res = openai.ChatCompletion.create(
    model="gpt-3.5-turbo",
    max_tokens=100,
    temperature=0.7,
    messages=[
        {
            "role": "system",
            "content": "Answer in a consistent style.",
        },
        {
            "role": "user",
            "content": "Teach me about Love",
        },
        {
            "role": "assistant",
            "content": "Love can be sweet, can be sour, can be grand, can be low, and can be anything you want to be",
        },
        {
            "role": "user",
            "content": "Teach me about Fear",
        },
    ],
)
  1. 指定完成任务的步骤。 提供有关如何输出以获得最佳输出的详细步骤。详细说明 GPT 模型应如何操作的说明。例如,我们在此代码中放置了带有前缀和翻译的两步指令。
res = openai.ChatCompletion.create(
        model="gpt-3.5-turbo",
        max_tokens=100,
        temperature=0.7,
        messages= [
            {
          "role": "system",
          "content": """
          Use the following step-by-step instructions to respond to user inputs.
        step 1 - Explain the question input by the user in 2 paragraphs or less with the prefix "Explanation: ".
        Step 2 - Translate the Step 1 into Indonesian, with a prefix that says "Translation: ".
          """,
         },
         {
          "role": "user",
          "content":"What is heaven?",
         },
        ])
  1. 提供参考、链接或引用。如果我们已经有各种问题参考,我们可以将它们用作 GPT 模型的基础来提供输出。提供您认为与您的问题相关的任何参考文献的列表,并将它们传递给系统角色。
  2. 给 GPT 时间“思考”。提供一个查询,允许 GPT 在急于给出不正确的结果之前详细处理提示。如果我们给助理角色传递错误的结果,并且我们希望 GPT 能够自己批判性地思考,则尤其如此。例如,下面的代码显示了我们如何要求 GPT 模型对用户输入更加严格。
res = openai.ChatCompletion.create(
        model="gpt-3.5-turbo",
        max_tokens=100,
        temperature=0.7,
        messages= [
            {
          "role": "system",
          "content": """
        Work on your solution to the problem, then compare your solution to the user and evaluate
        if the solution is correct or not. Only decide if the solution is correct once you have done the problem yourself.
          """,
         }, 
         {
          "role": "user",
          "content":"1 + 1 = 3",
         },
        ])
  1. 使 GPT 使用代码执行来获得精确的结果。 对于更扩展和更复杂的计算,GPT 可能无法按预期工作,因为模型可能会提供不准确的结果。为了缓解这种情况,我们可以要求 GPT 模型编写和运行编码,而不是直接计算它们。这样,GPT 可以依赖代码而不是其计算。例如,我们可以提供如下输入。
res = openai.ChatCompletion.create(
        model="gpt-3.5-turbo",
        max_tokens=100,
        temperature=0.7,
        messages= [
            {
          "role": "system",
          "content": """
      Write and execute Python code by enclosing it in triple backticks,
       e.g. ```code goes here```. Use this to perform calculations.
          """,
         }, 
         {
          "role": "user",
          "content":"""
          Find all real-valued roots of the following polynomial equation: 2*x**5 - 3*x**8- 2*x**3 - 9*x + 11.
          """,
         },
        ])

结论

GPT 模型是目前最好的模型之一,以下是改进 GPT 模型输出的一些最佳实践:

  1. 在提示中提供详细信息以获取相关答案
  2. 给出一个角色或示例,并添加输出的长度
  3. 指定完成任务的步骤
  4. 提供参考、链接或引用
  5. 给 GPT 时间“思考”
  6. 使 GPT 使用代码执行来获得精确的结果

原文链接:使用 OpenAI GPT 模型的最佳实践

目录
相关文章
|
9天前
长上下文能力只是吹牛?最强GPT-4o正确率仅55.8%,开源模型不如瞎蒙
【8月更文挑战第10天】新研究NoCha挑战显示,即使是顶级的大型语言模型GPT-4o,在处理长篇幅文本时正确率仅55.8%,低于人类直观水平。该挑战基于近作英文小说,检验模型对整本书信息的理解与推理能力。结果显示,模型在全局推理上的表现不佳,倾向于依赖局部信息而非整体上下文,尤其是在复杂推理需求高的科幻小说上表现更弱。这一发现揭示了当前模型在处理长上下文任务上的局限性。论文链接: [https://arxiv.org/pdf/2406.16264](https://arxiv.org/pdf/2406.16264)。
104 65
|
16天前
|
人工智能 自然语言处理
公理训练让LLM学会因果推理:6700万参数模型比肩万亿参数级GPT-4
【8月更文挑战第3天】新论文提出“公理训练”法,使仅有6700万参数的语言模型掌握因果推理,性能媲美万亿级GPT-4。研究通过大量合成数据示例教授模型因果公理,实现有效推理并泛化至复杂图结构。尽管面临合成数据需求大及复杂关系处理限制,此法仍为语言模型的因果理解开辟新途径。[链接: https://arxiv.org/pdf/2407.07612]
28 1
|
1月前
|
人工智能 知识图谱
LeCun谢赛宁首发全新视觉多模态模型,等效1000张A100干翻GPT-4V
【7月更文挑战第7天】LeCun与谢赛宁团队推出 Cambrian-1,一款视觉多模态大语言模型,挑战GPT-4V。该模型以视觉为中心,利用20多种视觉编码器强化表示学习,实现SOTA性能,同时开源权重、代码及工具,促进领域发展。尽管面临资源需求与数据隐私的讨论,但其创新如空间视觉聚合器(SVA)降低了计算需求。[论文链接: https://arxiv.org/abs/2406.16860]
34 1
|
6天前
|
人工智能
ECCV 2024:让GPT-4图像理解更易出错,全新策略增强VLP模型对抗迁移性
【8月更文挑战第13天】在AI领域,视觉语言预训练(VLP)模型展现出了强大的图像与文本理解能力,但也易受多模态对抗样本攻击。为此,研究者提出了Cross-Clean-Adversarial Regional Diversification (CCAR-Div)策略,通过增强对抗样本多样性以提升VLP模型的对抗迁移性。此策略在对抗轨迹交集区域采样,增加样本多样性,并利用模态交互作用。经Flickr30K和MSCOCO数据集验证,CCAR-Div能有效提高跨模型与跨任务场景下的对抗迁移性,如使用ALBEF生成的对抗样本攻击TCL时,成功率高达95.58%。
96 60
|
2天前
|
人工智能 安全 搜索推荐
OpenAI宣布为企业和消费者提供可定制的GPT
OpenAI宣布为企业和消费者提供可定制的GPT
|
5天前
|
人工智能 安全 测试技术
Google DeepMind推出大模型 Gemini (vs GPT4):规模最大、能力最强的人工智能模型
Google DeepMind推出大模型 Gemini (vs GPT4):规模最大、能力最强的人工智能模型
16 4
|
5天前
|
编解码 自然语言处理 计算机视觉
OpenAI 生成视频模型 Sora 论文翻译
OpenAI 生成视频模型 Sora 论文翻译
9 1
|
13天前
|
人工智能 测试技术
ACL 2024:对25个开闭源模型数学评测,GPT-3.5-Turbo才勉强及格
【8月更文挑战第6天】在ACL 2024会议上,研究人员提出GSM-Plus对抗性基准,旨在评估大型语言模型(LLMs)如GPT-3.5-Turbo在数学推理上的鲁棒性。通过对25个模型和4种提示技术的测试,结果显示模型们虽能在标准GSM8K数据集上取得好成绩,但在遇到问题变异时表现欠佳,提示技术提升作用有限,揭示了LLMs在数学理解深度上的局限。论文详述了这一发现及其对未来研究的意义。
28 2
|
2天前
|
人工智能 机器人 API
OpenAI内斗对GPT是福是祸?对人类?对微软?
OpenAI内斗对GPT是福是祸?对人类?对微软?
|
4天前
|
知识图谱 缓存
模型遇见知识图谱问题之ARTIST模型通过GPT生成图像序列的问题如何解决
模型遇见知识图谱问题之ARTIST模型通过GPT生成图像序列的问题如何解决