论文推荐:大语言模型在金融领域的应用调查

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
实时数仓Hologres,5000CU*H 100GB 3个月
简介: 这篇论文总结了现有LLM在金融领域的应用现状,推荐和金融相关或者有兴趣的朋友都看看

论文分为2大部分:

1、作者概述了使用llm的现有方法

包括使用零样本或少样本的预训练模型,对特定于领域的数据进行微调,还有从头开始训练定制llm,并给出了关键模型的总结与评价。

2、根据给定的用例、数据约束、计算和性能需求,提出决策框架,指导选择合适的LLM解决方案,这是这篇论文可以好好阅读的地方,因为论文还对在金融领域使用LLM的局限性和挑战提出了一些见解。

论文从总结语言模型架构经历了重大的演变开始:

1、从n-gram模型中,下一个单词的概率完全取决于前面的(n-1)个单词

2、以RNN为基础的模型,如LSTM或GRU,神经网络架构,捕获序列数据中的长期依赖关系。

3、2017年,Transformer架构标志着语言模型的革命,在翻译等任务中表现优于rnn,并且梳理了一些著名模型:

GPT(Generative Pretrained Transformer):一个仅用于编码器的框架,以其在生成连贯文本方面的有效性而闻名。

BERT(Bidirectional Encoder Representations from Transformers):一个仅用于解码器的框架,擅长从文本的两个方向理解上下文。

T5 (Text-to-Text Transfer Transformer):采用编码器和解码器两种结构,拓宽了应用范围,最著名的就是翻译任务。

在金融领域的应用概述

论文整理了各种人工智能应用:如交易和投资组合管理、金融风险建模、金融文本挖掘、咨询和客户服务。

1、交易和投资组合管理:

基于进化优化技术分析参数的深度神经网络股票交易系统。https://doi.org/10.1016/j.procs.2017.09.031

时间序列中的Transformers :https://arxiv.org/abs/2202.07125

采用强化学习的动态投资组合管理。https://arxiv.org/abs/1911.11880

2、金融风险建模:

金融欺诈检测、信用评分和破产预测,比如肯锡公司基于深度学习的欺诈检测解决方案。

3、金融文本挖掘:

从大规模非结构化数据中提取有价值的信息,用于交易和风险建模中的知情决策。

利用新闻文章中的金融市场情绪分析进行股票市场预测。https://doi.org/10.3390/math10132156

4、财务谘询及客户服务:

人工智能聊天机器人为电子商务和电子服务提供了大量支持。摩根大通正在开发一种类似chatgpt的人工智能服务,可以提供投资建议。

基于LLM的金融解决方案

1、使用开源/专有模型的零/少样本学习:

微调llm: PIXIU (FinMA), LLama, FinGPT, directive -FinGPT

与原始基础开源llm相比微调llm在所有金融领域任务上表现出比原始基础llm更好的性能,尤其是分类。

与bloomberg ggpt相比:微调LLMs在大多数金融任务上的表现优于bloomberg ggpt。

与ChatGPT和GPT-4相比:微调llm在大多数分类任务中表现出优越的性能,但是在生成任务中,性能略差

主要评估微调LLM的任务如下:

金融分类任务:情绪分析,新闻标题分类

金融生成任务:问答、新闻摘要、命名实体识别。

2、从头开始预训练

从头开始训练目标是创建更好地适应金融领域的模型。

主要包括bloomberg ggpt和Fin-T5。

与BLOOM和T5相比,bloomberg ggpt和Fin-T5表现出良好的性能。

它们在预训练阶段,将公共数据集与金融特定数据集合并。这种方法可以创建更适合金融特定语言和细微差别的模型。

BloombergGPT的训练语料库包括一般和金融相关文本的平衡组合,它的训练数据中有很大一部分来自彭博社的特定子集,虽然只占总语料库的0.7%,但对模型在金融基准测试中的表现有很大贡献。

与BLOOM176B和T5等通用模型相比,bloomggpt和Fin-T5在市场情绪分类、多类别和多标签分类等任务上,或者在问答、命名实体识别、总结等生成任务上,都表现出了卓越的性能。这种优越的性能在特定领域的任务和一般生成任务中都很明显,这表明模型在生成与金融相关的内容方面是有效的。

虽然这些金融专用LLM可能不如一些闭源模型(如GPT-3或PaLM)强大,但它们在与金融相关的任务中的能力有所提高,并且一般的能力也近似于通用模型。

局限性和挑战

主要挑战:

虚假信息和偏见:LLM可以产生虚假信息和明显的偏见,如种族、性别和宗教偏见。

信息的准确性和公平性:对健全的财务决策至关重要,也是金融服务的基本要求。

缓解策略:

RAG看以确保准确性和减少幻觉。

通过内容审查和输出限制控制生成的内容,并通过将输出限制为预定义的答案来减少偏差。

最后论文地址:

https://avoid.overfit.cn/post/49595cb2da41438787b404e070ae7f8c

目录
打赏
0
0
0
0
538
分享
相关文章
9月大型语言模型研究论文总结
大型语言模型(llm)在今年发展迅速,随着新一代模型不断地被开发,研究人员和工程师了解最新进展变得非常重要。本文总结9-10月期间发布了一些重要的LLM论文。
128 0
面向代码语言模型的安全性研究全新进展,南大&NTU联合发布全面综述
南京大学与新加坡管理大学联合发布论文《代码语言模型的安全性:系统文献综述》,系统分析了67篇相关论文,探讨了CodeLMs面临的数据泄露、模型篡改等安全威胁,并介绍了数据加密、模型加固等防御策略。论文不仅总结了现有研究成果,还指出了未来研究方向,强调了在提升模型性能的同时确保其安全性的重要性。该研究对推动代码语言模型的安全性发展具有重要意义。
71 27
多模态竞技场对标90B Llama 3.2!Pixtral 12B技术报告全公开
Pixtral-12B是由Pravesh Agrawal等人开发的多模态语言模型,拥有120亿参数,能处理自然图像和文档,在多模态基准测试中表现卓越。它不仅在多模态任务上表现出色,且未牺牲自然语言处理性能,采用全新视觉编码器,支持灵活图像处理。相比其他开源模型,Pixtral-12B性能优异,甚至超越更大规模模型。研究团队还发布了MM-MT-Bench基准测试,推动多模态模型评估标准化。尽管面临一些挑战,Pixtral-12B为多模态语言模型的发展提供了新动力。
55 18
【大语言模型-论文精读】用于医疗领域摘要任务的大型语言模型评估综述(上)
【大语言模型-论文精读】用于医疗领域摘要任务的大型语言模型评估综述(上)
110 2
【大语言模型-论文精读】用于医疗领域摘要任务的大型语言模型评估综述(下)
【大语言模型-论文精读】用于医疗领域摘要任务的大型语言模型评估综述(下)
96 1
[大语言模型] 情感认知在大型语言模型中的近期进展-2024-09-26
[大语言模型] 情感认知在大型语言模型中的近期进展-2024-09-26
129 0
|
10月前
|
拯救被掰弯的GPT-4!西交微软北大联合提出IN2训练治疗LLM中间迷失
【6月更文挑战第1天】研究人员为解决大型语言模型(LLM)的“中间迷失”问题,提出了IN2训练方法。此方法通过显式监督增强模型对长文本上下文的理解,改善了信息检索能力。应用IN2训练的FILM-7B模型在长文本任务上表现出色,尤其在NarrativeQA数据集上的F1分数提升了3.4。尽管面临数据合成和计算成本的挑战,IN2训练为LLM的进步开辟了新途径,预示着未来在长文本处理领域的潜力。论文链接:https://arxiv.org/pdf/2404.16811
127 5
北大、西湖大学等开源「裁判大模型」PandaLM:三行代码全自动评估LLM,准确率达ChatGPT的94%
北大、西湖大学等开源「裁判大模型」PandaLM:三行代码全自动评估LLM,准确率达ChatGPT的94%
646 0
训练ChatGPT成为一名网络安全专家
很多问题不是一个指令就可以得到精准结果的,需要根据每个问题深入去了解,不能浅尝即止,期待大家提交`prompts`。
416 0
训练ChatGPT成为一名网络安全专家
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等