在人工智能的浪潮中,大型语言模型(LLMs)的预测能力一直是学术界和工业界的研究焦点。贝勒大学经济学系的研究团队通过一项创新的实验,探索了OpenAI的ChatGPT-3.5和ChatGPT-4模型在预测未来事件方面的潜力。这项研究不仅展示了LLMs在预测任务中的新可能性,还提出了一种新颖的预测方法——通过构建未来叙事来提高预测的准确性。
研究团队利用了ChatGPT模型在2021年9月之前的训练数据,设计了两种不同的提示策略来评估模型对2022年发生的事件的预测能力。直接预测策略要求模型直接对事件进行预测,而未来叙事策略则要求模型在一个设定的未来场景中讲述包含已发生事件的故事。研究者特别关注了经济领域的事件,如奥斯卡奖项的预测和经济趋势的推断。
实验结果表明,当使用未来叙事提示时,ChatGPT-4在预测主要奥斯卡奖项得主以及经济趋势方面表现出色。尤其是在模仿美联储主席杰罗姆•鲍威尔等公众人物时,模型能够根据未来叙事中的线索,推断出经济数据。这表明,与直接预测相比,叙事提示更能激发模型的数据综合和外推能力。
研究指出,LLMs的预测能力与其创造性密切相关。这种创造性既是模型的优势,也是其挑战。一方面,创造性使得模型能够模仿人类智能语言,另一方面,它也可能导致模型产生错误的断言或事实,即所谓的“幻觉”。尽管直接预测可能会受到这种幻觉倾向的影响,但未来叙事提示似乎能够利用模型的创造性来构建更为准确的预测。
这项研究为LLMs在分析性领域的潜在应用提供了新的视角,尤其是在经济预测和政策规划方面。通过未来叙事的方式,研究者能够绕过模型直接预测时可能遇到的伦理和操作限制,从而更有效地利用模型的预测能力。
然而,这种方法也引发了一些关于AI伦理使用的问题。虽然未来叙事提示在技术上可能绕过了OpenAI的使用条款,但这并不意味着它在伦理上是无可挑剔的。特别是在金融等敏感领域,即使是在虚构的叙事中产生的预测也可能被不当使用,从而影响个人的福祉或权利。
这项研究揭示了LLMs在预测任务中的新可能性,并强调了提示设计在利用LLMs进行预测任务中的重要性。同时,它也提醒我们,在探索AI的潜力时,必须谨慎考虑其伦理边界。未来的研究需要进一步探讨如何平衡LLMs的创新潜力与伦理要求,确保这些强大的模型能够在不损害个人和社会福祉的前提下,发挥其最大的价值。