挖掘GPT的隐藏实力就靠它了

本文涉及的产品
实时数仓Hologres,5000CU*H 100GB 3个月
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
实时计算 Flink 版,5000CU*H 3个月
简介: 这个GitHub新项目,能让ChatGPT完成复杂任务,GPT3.5和GPT-4都支持。它通过将问题拆解,并调用外部资源,提高了GPT的工作能力。在它的调教下,GPT-4回答的准确率从68%提高到了85%。

这个GitHub新项目,能让ChatGPT完成复杂任务,GPT3.5和GPT-4都支持。

它通过将问题拆解,并调用外部资源,提高了GPT的工作能力。

在它的调教下,GPT-4回答的准确率从68%提高到了85%。

ex855w.jpg

这个项目名叫SmartGPT,这个名字很直白地告诉了我们它的作用。

无论是直观感受还是量化数据,GPT在它的加持之下回答正确率都有提高。

我们不妨看看几个经典的问题。

晾干5件衣服需要5个小时,那么晾30件需要多长时间呢?

这是一个来自OpenAI Playground的经典问题。

只见GPT一顿操作猛如虎,又是推理又是列方程……

然而最后给出的答案是30个小时。

image.png

而经过SmartGPT调教之后,不仅得到了正确答案,还指出了此前的思路为什么会出错。


再来举个栗子,同样是来自于OpenAI Playground的问题。

假设有6升和12升的罐子各一个,如何量取6升水?

GPT的答案嘛……麻烦不说,能不能解释下第五步的2升是怎么剩下的?


经过调教之后嘛……虽然不理解为什么不直接用6升的,但也有很大进步了。


我们也用倒拔垂杨柳的问题进行了测试,提供了诸葛亮、孙悟空和林黛玉三个选项。


第一轮,GPT-4给出的答案是……孙悟空。


经过调教之后,GPT-4终于发现了三个选项都是错误的。

同时还指出了孙悟空虽然没有倒拔垂杨柳但是有相似的情节。

(《西游记》第二十五回中,孙悟空在五庄观因愤怒将人参果树拔倒)


需要说明的是,由于没有GPT-4的API,测试是按照开发者介绍的方法手工完成的。

当然了,个例并不能说明它的表现,还是要用数据集测试一下。

开发者使用了MMLU数据集分别对调教前后的GPT-4进行了测试。

结果显示,未经调教的版本只答对了68%,而调教后的版本答对了85%。

顺便提一句,真人专家在测试中的平均成绩是89.8%。


数学方面,同样使用MMLU数据集进行测试,开发者从中选择了15个大学难度的数学问题。

虽然准确率只有60%,但也是及格了,而且比原版GPT的40%已经好了太多。

化整为零,逐步解决

开发者将SmartGPT中的环节形象地比作了职场中的角色:

“甲方”:SmartGPT用户。“经理”:和“甲方”对接,把任务拆分成高级子任务并逐一汇报给“老板”。“老板”:制定计划,将高级子任务再次拆分,并分发给“员工”。“员工”:接收任务,编写伪代码,交给“小黄人”执行。“小黄人”:将伪代码优化成LUA脚本并运行。

作为“甲方”的用户,需要做的只是像使用普通GPT一样输入自己的问题,而不必给出额外指令

SmartGPT会帮助用户把问题拆分,然后按照步骤提交给GPT。

此前有人发现,在输入给GPT的指令中加入“let’s think step by step”可以提高回复的准确率。

同时,GPT-4具有回溯能力,能够发现并指出自己此前回答中的错误。

以上两个特性为SmartGPT的工作提供了重要支撑。


SmartGPT工作流程图

在用户输入完指令后,SmartGPT对其进行处理拆分,包括添加“let’s think step by step”类似的表述。

然后它会将处理好的指令传至GPT的API,并重复多次获取不同的答案。

接着,SmartGPT会向API发送要求其回溯答案并选择最优解的指令。

最后,将GPT自己选择的最佳答案展示给用户。

上述步骤受到了三篇学术论文的启发(图中白框)。

这三篇论文的内容分别关于“链式提示方式”、“动态记忆及让LLM自我回溯”和“用对话提高LLM完成度”。

和其他工具相比,SmartGPT好在哪

AutoGPT等工具同样可以用来优化GPT,SmartGPT比它们好在哪里呢?

由于其工作原理是将任务进行拆分,会形成逻辑链条,因此SmartGPT拥有更强大的推理能力。

实用性方面,SmartGPT由独立的子模块组成,使用者可以对它们进行任意排列、组合和删改。

此外,无论对于用户还是开发人员,SmartGPT的配置过程都更为简单。

不过开发者也坦言,这个项目刚推出不久,因此稳定性有待考证,在内存优化方面还有所欠缺,消耗的环境资源也更多。

在项目推出之后,有网友表示我们低估了GPT的潜力,甚至包括OpenAI自己。


那么,你期待GPT未来的表现吗?

SmartGPT目前暂无开箱可用版本,需要自行在Linux环境搭建,动手能力强的读者可根据下面的项目页面中的指示体验:

项目地址:https://github.com/Cormanz/smartgpt

目录
打赏
0
0
0
0
471
分享
相关文章
中外AIGC大模型的差距、态势与结构
【1月更文挑战第21天】中外AIGC大模型的差距、态势与结构
427 2
中外AIGC大模型的差距、态势与结构
深度揭秘CoT!普林斯顿耶鲁发布最新报告:大模型既有记忆推理、也有概率推理
普林斯顿大学和耶鲁大学研究人员发布报告,探讨链式思维(CoT)提示对大型语言模型(LLM)推理能力的影响。研究通过移位密码任务,揭示了三个关键因素:任务输出概率、预训练阶段的隐性学习及中间操作数量(噪声推理)。实验使用GPT-4、Claude 3和Llama 3.1模型,发现CoT提示可显著提升模型准确性,但也存在局限性。论文地址:https://arxiv.org/abs/2407.01687。
172 29
MME-CoT:多模态模型推理能力终极评测!六大领域细粒度评估,港中大等机构联合推出
MME-CoT 是由港中文等机构推出的用于评估大型多模态模型链式思维推理能力的基准测试框架,涵盖数学、科学、OCR、逻辑、时空和一般场景等六个领域,提供细粒度的推理质量、鲁棒性和效率评估。
81 0
LeCun赞转!类Sora模型能否理解物理规律?字节豆包大模型团队系统性研究揭秘
近日,字节跳动豆包大模型团队发布论文,探讨视频生成模型(如类Sora模型)在理解物理规律方面的能力,引起广泛关注并获Yann LeCun点赞。研究通过2D模拟平台测试扩散模型,发现其在分布内表现优异,但在分布外和组合泛化上存在不足,揭示了基于案例的泛化和特征优先级机制。这表明,仅靠视觉数据难以学习到真正的物理规律,未来需引入物理先验知识以提升模型性能。
121 16
[大语言模型] 情感认知在大型语言模型中的近期进展-2024-09-26
[大语言模型] 情感认知在大型语言模型中的近期进展-2024-09-26
130 0
可信度超越GPT-4V,清华&面壁揭秘小钢炮模型背后的高效对齐技术
【6月更文挑战第15天】清华大学与面壁智能合作的RLAIF-V框架挑战GPT-4V,通过开源AI反馈增强大语言模型的可信度。该框架利用开放数据和在线学习优化对齐,减少幻觉错误,12B参数模型表现超越GPT-4V。虽有数据质量和稳定性问题,但展示出开源MLLMs潜力。[链接: https://arxiv.org/abs/2405.17220]
168 1
|
11月前
|
MIT等首次深度研究集成LLM预测能力:可媲美人类群体准确率
【4月更文挑战第16天】研究人员集成12个大型语言模型(LLM)组成“硅基群体”,在预测比赛中与925名人类预测者对比。研究发现,LLM群体的预测准确性与人类群体无显著差异,且通过集成可抵消个体模型的偏差,提高预测准确。GPT-4和Claude 2等模型结合人类预测后,准确度提升17%至28%。然而,个别LLM预测精度不一,模型选择和校准度是提升预测性能的关键,同时LLM在时间跨度和现实场景适应性方面仍有挑战。
155 6
MIT等首次深度研究集成LLM预测能力:可媲美人类群体准确率
【大模型】LLMs被广泛地融入日常生活的未来场景分析
【5月更文挑战第7天】【大模型】LLMs被广泛地融入日常生活的未来场景分析
【大模型】LLMs被广泛地融入日常生活的未来场景分析
【大模型】LLM研究和开发的一些新兴趋势
【5月更文挑战第7天】【大模型】LLM研究和开发的一些新兴趋势
18LLM4SE革命性技术揭秘:大型语言模型LLM在软件工程SE领域的全景解析与未来展望 - 探索LLM的多维应用、优化策略与软件管理新视角【网安AIGC专题11.15】作者汇报 综述
18LLM4SE革命性技术揭秘:大型语言模型LLM在软件工程SE领域的全景解析与未来展望 - 探索LLM的多维应用、优化策略与软件管理新视角【网安AIGC专题11.15】作者汇报 综述
846 0
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等