论文推荐:大语言模型在金融领域的应用调查

本文涉及的产品
实时数仓Hologres,5000CU*H 100GB 3个月
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
实时计算 Flink 版,5000CU*H 3个月
简介: 这篇论文总结了现有LLM在金融领域的应用现状,推荐和金融相关或者有兴趣的朋友都看看

论文分为2大部分:

1、作者概述了使用llm的现有方法

包括使用零样本或少样本的预训练模型,对特定于领域的数据进行微调,还有从头开始训练定制llm,并给出了关键模型的总结与评价。

2、根据给定的用例、数据约束、计算和性能需求,提出决策框架,指导选择合适的LLM解决方案,这是这篇论文可以好好阅读的地方,因为论文还对在金融领域使用LLM的局限性和挑战提出了一些见解。

论文从总结语言模型架构经历了重大的演变开始:

1、从n-gram模型中,下一个单词的概率完全取决于前面的(n-1)个单词

2、以RNN为基础的模型,如LSTM或GRU,神经网络架构,捕获序列数据中的长期依赖关系。

3、2017年,Transformer架构标志着语言模型的革命,在翻译等任务中表现优于rnn,并且梳理了一些著名模型:

GPT(Generative Pretrained Transformer):一个仅用于编码器的框架,以其在生成连贯文本方面的有效性而闻名。

BERT(Bidirectional Encoder Representations from Transformers):一个仅用于解码器的框架,擅长从文本的两个方向理解上下文。

T5 (Text-to-Text Transfer Transformer):采用编码器和解码器两种结构,拓宽了应用范围,最著名的就是翻译任务。

在金融领域的应用概述

论文整理了各种人工智能应用:如交易和投资组合管理、金融风险建模、金融文本挖掘、咨询和客户服务。

1、交易和投资组合管理:

基于进化优化技术分析参数的深度神经网络股票交易系统。https://doi.org/10.1016/j.procs.2017.09.031

时间序列中的Transformers :https://arxiv.org/abs/2202.07125

采用强化学习的动态投资组合管理。https://arxiv.org/abs/1911.11880

2、金融风险建模:

金融欺诈检测、信用评分和破产预测,比如肯锡公司基于深度学习的欺诈检测解决方案。

3、金融文本挖掘:

从大规模非结构化数据中提取有价值的信息,用于交易和风险建模中的知情决策。

利用新闻文章中的金融市场情绪分析进行股票市场预测。https://doi.org/10.3390/math10132156

4、财务谘询及客户服务:

人工智能聊天机器人为电子商务和电子服务提供了大量支持。摩根大通正在开发一种类似chatgpt的人工智能服务,可以提供投资建议。

基于LLM的金融解决方案

1、使用开源/专有模型的零/少样本学习:

微调llm: PIXIU (FinMA), LLama, FinGPT, directive -FinGPT

与原始基础开源llm相比微调llm在所有金融领域任务上表现出比原始基础llm更好的性能,尤其是分类。

与bloomberg ggpt相比:微调LLMs在大多数金融任务上的表现优于bloomberg ggpt。

与ChatGPT和GPT-4相比:微调llm在大多数分类任务中表现出优越的性能,但是在生成任务中,性能略差

主要评估微调LLM的任务如下:

金融分类任务:情绪分析,新闻标题分类

金融生成任务:问答、新闻摘要、命名实体识别。

2、从头开始预训练

从头开始训练目标是创建更好地适应金融领域的模型。

主要包括bloomberg ggpt和Fin-T5。

与BLOOM和T5相比,bloomberg ggpt和Fin-T5表现出良好的性能。

它们在预训练阶段,将公共数据集与金融特定数据集合并。这种方法可以创建更适合金融特定语言和细微差别的模型。

BloombergGPT的训练语料库包括一般和金融相关文本的平衡组合,它的训练数据中有很大一部分来自彭博社的特定子集,虽然只占总语料库的0.7%,但对模型在金融基准测试中的表现有很大贡献。

与BLOOM176B和T5等通用模型相比,bloomggpt和Fin-T5在市场情绪分类、多类别和多标签分类等任务上,或者在问答、命名实体识别、总结等生成任务上,都表现出了卓越的性能。这种优越的性能在特定领域的任务和一般生成任务中都很明显,这表明模型在生成与金融相关的内容方面是有效的。

虽然这些金融专用LLM可能不如一些闭源模型(如GPT-3或PaLM)强大,但它们在与金融相关的任务中的能力有所提高,并且一般的能力也近似于通用模型。

局限性和挑战

主要挑战:

虚假信息和偏见:LLM可以产生虚假信息和明显的偏见,如种族、性别和宗教偏见。

信息的准确性和公平性:对健全的财务决策至关重要,也是金融服务的基本要求。

缓解策略:

RAG看以确保准确性和减少幻觉。

通过内容审查和输出限制控制生成的内容,并通过将输出限制为预定义的答案来减少偏差。

最后论文地址:

https://avoid.overfit.cn/post/49595cb2da41438787b404e070ae7f8c

目录
相关文章
|
6月前
|
机器学习/深度学习 文字识别 监控
【论文速递】20 年的目标检测:一项调查
【论文速递】20 年的目标检测:一项调查
|
6月前
|
人工智能 编解码 安全
揭秘AI幻觉:GPT-4V存在视觉编码漏洞,清华联合NUS提出LLaVA-UHD
【4月更文挑战第14天】清华大学与新加坡国立大学团队针对大型多模态模型(LMMs)在处理高分辨率图像时的局限,提出新模型LLaVA-UHD。该模型通过图像模块化、压缩和空间模式组织策略,有效提升了处理任意比例和高分辨率图像的能力。实验显示,LLaVA-UHD在9个基准测试中超越现有模型,且在TextVQA任务上准确率提升6.4%,同时训练时间更短。然而,模型训练成本高、泛化能力待优化是未来需解决的问题。
90 8
揭秘AI幻觉:GPT-4V存在视觉编码漏洞,清华联合NUS提出LLaVA-UHD
|
6月前
|
人工智能
AI大咖说-如何评价论文的创新性
《AI大咖说》探讨论文创新性,强调新意、有效性和领域研究问题的重要性。创新点在于用新颖方法有效解决研究问题。评价公式:价值=问题大小*有效性*新意度。该观点源于《跟李沐学AI》视频,提供1-100分评分标准,助力评估论文价值。5月更文挑战第14天
90 3
|
机器学习/深度学习 人工智能 自然语言处理
大语言模型综述全新出炉:51页论文带你盘点LLM领域专业化技术
大语言模型综述全新出炉:51页论文带你盘点LLM领域专业化技术
345 0
|
安全 网络协议 网络安全
训练ChatGPT成为一名网络安全专家
很多问题不是一个指令就可以得到精准结果的,需要根据每个问题深入去了解,不能浅尝即止,期待大家提交`prompts`。
396 0
训练ChatGPT成为一名网络安全专家
|
机器学习/深度学习 数据采集 人工智能
大型语言模型综述全新出炉:从T5到GPT-4最全盘点,国内20余位研究者联合撰写(2)
大型语言模型综述全新出炉:从T5到GPT-4最全盘点,国内20余位研究者联合撰写
231 0
|
机器学习/深度学习 人工智能 自然语言处理
大型语言模型综述全新出炉:从T5到GPT-4最全盘点,国内20余位研究者联合撰写(1)
大型语言模型综述全新出炉:从T5到GPT-4最全盘点,国内20余位研究者联合撰写
369 0
|
机器学习/深度学习 人工智能 编解码
2022年AI顶级论文 —生成模型之年(下)
2020年,随着OpenAI GPT-3模型(模型参数约1750亿)的问世,在众多自然语言处理任务中,人工智能均表现出超过人类平均水平的能力。
296 0
|
机器学习/深度学习 人工智能 自然语言处理
2022年AI顶级论文 —生成模型之年(中)
2016年,AlphaGo在围棋这一当时人们认为其复杂性很难被人工智能系统模拟的围棋挑战赛中战胜了世界冠军。
146 0
|
机器学习/深度学习 人工智能 编解码
2022年AI顶级论文 —生成模型之年(上)
2017年,Google的Ashish Vaswani等人提出了 Transformer 深度学习新模型架构,奠定了当前大模型领域主流的算法架构基础。
366 0
下一篇
无影云桌面