GPT-3胡言乱语怎么办?OpenAI:我们重新调教了一下,新版本更「听话」

本文涉及的产品
NLP自然语言处理_高级版,每接口累计50万次
NLP自然语言处理_基础版,每接口每天50万次
NLP 自学习平台,3个模型定制额度 1个月
简介: GPT-3胡言乱语怎么办?OpenAI:我们重新调教了一下,新版本更「听话」

虽然 1.3B 的 InstructGPT 在参数量上还不及 GPT-3 的百分之一,但它的表现可比 GPT-3 讨人喜欢多了。

给定一些示例作为输入,GPT-3   等大型语言模型可以根据这些「提示(prompt)」去完成一系列自然语言处理任务。然而,它们有时会表现出一些出人意料的行为,如编造事实、生成有偏见或有害的文本,或者根本不遵循用户的指示。比如在下面这个例子中,用户给出的指示是:「用几句话向一个  6 岁的孩子解释一下登月」,GPT-3 的的输出显然是不着边际。

image.png

这是因为,GPT-3 被训练成基于互联网文本的大数据集预测下一个单词,而不是安全地执行用户想要它执行的语言任务。换句话说,这些模型的输出与用户的意图并不一致。对于在数百个应用中部署和使用的语言模型来说,避免这些意想不到的行为尤其重要。

通过训练语言模型按照用户的意图行动,OpenAI   在调整语言模型方面取得了新进展。这里的「意图」既有明确的(如遵循指令),也有隐含的(如尊重事实、不带有偏见或恶意等),他们希望改进后的模型是有用的(帮助用户解决他们的问题)、诚实的(不编造信息或误导用户)、无害的(不对人或环境造成身体、心理或社会伤害)。

为了达成这一目标,他们使用了利用人类反馈的强化学习方法(RLHF)对  GPT-3 进行微调,使其遵循广泛的书面指令。这项技术利用人类的偏好作为奖励信号来微调 GPT-3。这一过程让 GPT-3  的行为与特定人群(主要是 OpenAI 的标注者和研究人员)的既定偏好保持一致,而不是更广泛的「人类价值」概念。他们将得到的模型称为  InstructGPT。

在面对同一指令(用几句话向一个 6 岁的孩子解释一下登月)时,InstructGPT 给出了如下的输出结果:

image.png

研究者主要通过让标注者对测试集上的模型输出质量进行评分来评估模型,测试集包含来自「held-out」标注者的  prompt,还在一系列公共的 NLP 数据集上进行了自动评估。他们训练了三种尺寸的模型(1.3B、6B 和 175B  参数),所有的模型都使用 GPT-3 架构。其主要发现如下:

1、标注者明显更喜欢 InstructGPT 的输出,而不是 GPT-3。在测试集中,来自 1.3B InstructGPT 模型的输出优于来自 175B GPT-3 的输出,尽管前者的参数量还不到后者的 1/100。2、与 GPT-3 相比,InstructGPT 输出的真实性有所提高。3、与 GPT-3 相比,InstructGPT 输出的有害性略有改善,但偏见程度并没有。4、可以通过修改 RLHF 微调过程来最小化模型在公共 NLP 数据集上的性能倒退。5、模型可以泛化至「held-out」标注者的偏好,这部分标注者没有参与任何训练数据的生产。6、公共的 NLP 数据集并不能反映 InstructGPT 语言模型的实际效果。7、InstructGPT 模型显示出了泛化至 RLHF 微调分布之外的指令的潜力。8、InstructGPT 仍然会犯一些简单的错误。

所以总的来看,通过人类的反馈进行微调是一个很有前途的方向,可以使语言模型与人类的意图保持一致,但在提高它们的安全性和可靠性方面还有很多工作要做。

方法

image.png

为了训练 InstructGPT 模型,研究者采用了人类反馈强化学习方法 ,即使用人类偏好作为奖励信号来微调模型。这一点很重要,因为要解决的安全和一致性问题是复杂的、主观的,并且不能完全被简单的自动度量捕获。

研究者首先用提交到  OpenAI API 的提示(prompt)做了一个人工编写的演示数据集,然后利用这个数据集来训练监督学习基线。接下来,他们又在一个更大的  API  提示集上收集两个模型输出之间的人工标注的对比数据集。然后,他们在这个数据集上训练了一个奖励模型(RM)来预测标注者更偏好的输出。最后,他们使用该  RM 作为奖励函数,并使用 PPO 算法微调他们的 GPT-3 策略以最大化该奖励。

这个过程可以这么理解:它「解锁」了 GPT-3 已经拥有的能力,但仅仅通过 prompt 工程很难激发出这些能力。这是因为,相对于在预训练中学到的能力,训练程序教授模型新能力的水准是有限的,因为它使用的计算量和数据相对于模型预训练只有不到 2%。

这种方法的一个局限性是,它会引入一种叫做「一致性税(alignment  tax)」的东西,即如果仅仅让模型与用户任务达成一致,可能会使其在另外一些学术 NLP  任务上的表现更差。这是不可取的,因为如果文章中提到的一致性技术使模型在人们关注的任务上变得表现更糟,那么它们在实践中就不太可能被采用。

研究者发现了一个简单的算法调整方式,能够最大限度上减少这种「一致性税」:  在 RL 微调期间,研究者混合了一小部分用于训练 GPT-3  的原始数据,并使用正常的对数似然最大化在这些数据上进行训练。这大致保持了模型在安全性和人类偏好方面的表现,同时降低了模型在学术 NLP  任务上的性能损失,在有些情况下甚至超过了 GPT-3 基线。

结果

研究者首先通过让标注者将  InstructGPT 的输出与 GPT-3 的输出进行比较,来评估 InstructGPT  遵循用户指令的效果。结果发现,InstructGPT 模型显然更受欢迎。当向 GPT-3  的提示中添加前置信息以使其进入「指令遵循模式」时,这种情况仍然存在:

image.pngimage.gif

对提交到  API 上 InstructGPT 模型的各种型号 (X 轴) 的模型输出按 1-7 比例 (Y 轴)  进行质量评级。在只有少量提示和没有提示以及模型微调与监督式学习的情况下,labeler 给出的 InstructGPT 输出得分远高于  GPT-3 的输出得分。对于提交到 API 上的 GPT-3 模型的提示,可以找到类似的结果。

为了衡量模型的安全性,研究者使用了一套公开可用数据集上的现有指标。与  GPT-3 相比,InstructGPT 产生的模仿性谎言更少 (TruthfulQA)  ,而且毒性更小(RealToxicityPrompts)。研究者还对 API 提示分布进行了人工评估,发现 InstructGPT  编造事实(hallucinates) 的频率较低,并生成了更恰当的输出。

image.pngimage.gif

评估 InstructGPT 的结果。图中是不同规模模型的结果组合。Toxicity、Hallucination 两个指标上,分数越低越好;TruthfulQA、Appropriateness 两个指标上,分数越高越好。

最后,研究者发现在用户分布中,InstructGPT 的输出优于 FLAN 和 T0 的输出。这表明,用于训练 FLAN 和 T0 的数据大多数是学术性 NLP 任务的,并不能完全代表部署语言模型在实践中的使用情况。

在更广泛的群体中的泛化效果

OpenAI   采取的流程使得该模型表现与标注者的偏好保持一致,标注者直接生成用于训练模型的数据,研究者则通过书面指示、具体例子的直接反馈以及非正式对话为标注者提供指导。此外,模型还受到用户和  API  策略中隐含的偏好的影响。研究者选择了那些在筛选测试中表现良好的标注者,他们在识别和回应敏感的提示方面表现出色。然而,这些对数据产生影响的不同来源并不能保证模型与任何更广泛群体的偏好保持一致。

研究者借助了两个实验来探究这个问题。首先,使用没有提供任何训练数据的  held-out 标注者来评估 GPT-3 和 InstructGPT,并发现这些标注者更喜欢 InstructGPT  模型的输出,其比率与训练数据标注者大致相同。然后,研究者使用来自一部分标注者的数据训练奖励模型,发现它们能很好地预测不同标注者子集的偏好。这表明该模型并没有过拟合训练数据标注者的偏好。然而,研究者还需要做更多的工作来研究这些模型在更广泛的用户群体中的表现,以及在人们对相同输入产生不同预期时模型会如何表现。

局限性

尽管已经取得了重大进展,但当前的  InstructGPT  模型还远远算不上与用户意图完全一致或对用户来说完全安全:它们仍然会产生有害、有偏见的输出,或者编造事实,并在没有明确警示的情况下产生色情、暴力内容。但是,机器学习系统的安全性不仅取决于底层模型的行为,还取决于这些模型的部署方式。OpenAI  表示,为了支持 OpenAI API 的安全性,他们将继续在应用程序上线之前对其进行审查,并提供内容过滤器来检测不安全的输出,监控其滥用情况。

训练模型遵循用户指示还有一个副作用:如果用户指示它们产生不安全的输出,它们可能更容易被误用。因此,研究者要教模型拒绝某些指令。如何可靠地做到这一点将是一个重要的开放性研究问题。

此外,在许多情况下,与标注者的平均偏好保持一致是不可取的。例如,当生成一定程度上影响了少数群体的文本时,该群体的偏好应该得到更多的权重。目前,InstructGPT   接受的是用英语进行指导的训练,因此,它更偏向于讲英语的人的文化价值观。研究者也在逐渐了解标注者偏好之间的差异和分歧,这样就可以根据更具体的人群的价值观来设置模型。一般来说,根据特定人类的价值观调整模型输出会面临社会影响方面的抉择,最终必须建立负责任的、包容性的处理程序来做出这些决定。

上述研究结果表明,这些技术在改善通用 AI 系统与人类意图的一致性方面是非常有效的。然而,这仅仅是个开始。研究者们还将继续推进这些技术,以改进当前和未来的模型,使之朝着对人类更安全、更有用的方向发展。

相关文章
|
3月前
|
人工智能 安全 测试技术
忘掉GPT-5!OpenAI推出全新AI模型系列o1,声称性能达到博士级
忘掉GPT-5!OpenAI推出全新AI模型系列o1,声称性能达到博士级
|
2月前
|
API
2024-05-14 最新!OpenAI 新模型 GPT-4 omni 简单测试,4o速度确实非常快!而且很便宜!
2024-05-14 最新!OpenAI 新模型 GPT-4 omni 简单测试,4o速度确实非常快!而且很便宜!
48 0
|
4月前
|
人工智能 搜索推荐 机器人
OpenAI 将向企业开放 GPT-4o 模型定制版,国内怎么使用ChatGPT?
OpenAI新推功能让企业客户能定制GPT-4o模型,通过微调技术满足特定需求和业务场景,以前所未有的方式优化AI投资回报。企业上传自有数据后,可在一到两小时内完成模型定制,如滑板公司打造专业客服聊天机器人解答详细问题,大幅提升服务针对性与客户体验。目前定制限于文本数据,但仍显著增强了企业应用AI的灵活性与效率。
107 2
OpenAI 将向企业开放 GPT-4o 模型定制版,国内怎么使用ChatGPT?
|
4月前
|
人工智能 机器人
OpenAI推出了其最强大模型的迷你版本
OpenAI推出了其最强大模型的迷你版本
OpenAI推出了其最强大模型的迷你版本
|
3月前
|
测试技术 人机交互
没有等来OpenAI开源GPT-4o,等来了开源版VITA
【9月更文挑战第9天】近日,论文《Towards Open-Source Interactive Omni Multimodal LLM》介绍了VITA,一种基于Mixtral 8×7B的新型开源多模态大语言模型,能处理视频、图像、文本和音频等多模态数据,并提供先进的人机交互体验,填补了开源模型在多模态能力上的空白。经多任务学习及指令微调,VITA在多个基准测试中表现出色,但仍存在基础能力和嘈杂音频处理等方面的局限。更多详情见论文:https://arxiv.org/pdf/2408.05211
50 3
|
4月前
|
人工智能 API Python
Openai python调用gpt测试代码
这篇文章提供了使用OpenAI的Python库调用GPT-4模型进行聊天的测试代码示例,包括如何设置API密钥、发送消息并接收AI回复。
|
4月前
|
缓存 测试技术 C++
OpenAI GPT-4 Code Interpreter测试
本文分析了OpenAI GPT-4 Beta版本中的Code Interpreter功能,测试了其处理不同文件类型(如图表PNG、长文本PDF、短代码ipynb和长代码C++)的能力,并指出了在处理超出Token Limit内容时的局限性。
55 0
OpenAI GPT-4 Code Interpreter测试
|
4月前
|
人工智能 安全 搜索推荐
OpenAI宣布为企业和消费者提供可定制的GPT
OpenAI宣布为企业和消费者提供可定制的GPT
|
4月前
|
人工智能 机器人 API
OpenAI内斗对GPT是福是祸?对人类?对微软?
OpenAI内斗对GPT是福是祸?对人类?对微软?
|
6月前
|
机器学习/深度学习 人工智能 监控
[AI OpenAI] 提取GPT-4中的概念
研究人员采用新的可扩展方法,将GPT-4的内部表示分解为1600万个通常可解释的模式,这些模式被称为“特征”,目的是提高语言模型的透明度和可解释性。
[AI OpenAI] 提取GPT-4中的概念

热门文章

最新文章