是否在业务中使用大语言模型?

本文涉及的产品
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
实时计算 Flink 版,5000CU*H 3个月
实时数仓Hologres,5000CU*H 100GB 3个月
简介: ChatGPT取得了巨大的成功,在短短一个月内就获得了1亿用户,并激发了企业和专业人士对如何在他们的组织中利用这一工具的兴趣和好奇心。

但LLM究竟是什么,它们如何使你的企业受益?它只是一种炒作,还是会长期存在?

在这篇文章中我们将讨论上面这个问题并尝试解答为什么LLM对企业来说是一项伟大的投资,或者不是。是大炮打蚊子 还是 物尽其用?这就要看何时以及如何有效和高效地使用这个大模型了。

训练

LLM的训练是非常昂贵……但是这并不意味着每次要使用LLM完成特定任务时都要训练它,也不意味着你根本就不需要训练它。有很多方法可以利用LLM的现有知识和技能,无需从头开始训练。

LLM能够根据单词和短语相互跟随的概率生成文本。也可以通过让它“根据上下文阅读”来“模仿”这种行为。这就好比给某人一本书,然后让他们在书中找到他们认为可能有X问题答案的那一章。一旦读者找到这一章,他们就会阅读,然后试图向你解释他们刚刚读到的内容。

这需要某种程度上对他进行提示,这也就是我们常说的prompt。网上有很多关于关于提示教程,提示工程以及如何为LLM生成良好的提示。所以当你试图得到上下文答案时,LLM可以很好的工作。但不要指望机器知道一切,因为它们擅长的是放置文字,而不是阐述事实。

只有当你想让机器像专业人士一样说话时,你才需要重新训练它。

业务专业术语

所有组织和企业都有自己的行话和特定于其领域的技术术语。例如,Jam可以指甜甜的Smucker草莓果冻,但也可以指非正式播放的音乐。

这意味着不是每个人都能很容易地理解特定业务使用的语言,除非他们熟悉其词汇和概念。所以对于不熟悉该领域的潜在客户或合作伙伴来说可能是一个障碍。使用llm可以将技术语言翻译成更自然和可访问的语言。

LLM可以根据所需的风格和细节水平,使用提更简单的单词或示例来帮助解释复杂术语或概念的含义,这可以使信息对任何人都更具吸引力和可理解性。

知识图谱是在图结构中组织信息的一种方式,其中实体及其关系表示为节点和边。这使得存储和访问信息比使用传统文本格式更容易。知识图谱可以独立于任何大型语言模型(llm)构建,并且知识图谱也可以从llm的功能中受益。

要创建知识图谱,需要从数据源(如pdf)中提取实体和关系,并将它们插入图数据库中。llm可以帮助完成这项任务,通过生成代码将数据插入到数据库中。

llm还可以帮助使用自然语言查询知识图谱,以简单易懂的方式解释结果。通过这种方式,用户可以使用文本与数据进行交互,并从知识图中获得事实和相关的答案。

LLM可以从提供的上下文中使用更简单的单词或示例来帮助解释复杂术语或概念的含义

敏感数据

还记得三星的问题吧,工程师的一些机密源代码被意外上传到ChatGPT,

你一直觉得,这种风险仅适用于使用OpenAI网站上的免费ChatGPT界面。其实任何被称为“免费”的东西都可能以某种方式获得投资回报。比如使用你的信息来改进模型。一个稍微好一些的选择是通过API使用付费LLM服务,该服务不会使用任何敏感数据进行再训练。

显示现在就好很多了,有许多替代ChatGPT的方法。比如Falcon、Llama、Palm或其他性能与ChatGPT相似甚至更好的模型。我们还可以根据自己的具体需求定制自己的模型或解决方案。

通过托管自己的LLM,可以确保它仅用于预期目的,并且可以在将来需要时对其进行重新训练。还可以探索通过使用这些模型生成的数据,以改进您的业务。例如,查看向模型提出的最重要的问题,可以创建更好的业务解决方案并从中获利。

有了开源的基础模型,我们可以搭建自己的LLM,并且随时调整训练。

部分还是全部

这里我们以推荐系统为例:

推荐系统是一种基于某些标准推荐项目或操作的系统。例如,Spotify使用你的收听历史和偏好来为你创建个性化的播放列表。你可以把它想象成根据其他人的喜好推荐音乐,这可能与你的喜好相匹配。

LLM也可以做到这一点,通过嵌入来衡量两个信息片段之间的相似性或差异性,比如一个问题和一个答案。但是如果我们只把LLM简化到这个程度(只生成嵌入),那么推荐系统不是要更简单吗,而且推荐系统能够得到更准确的结果,需要的资源还更少。

那我们为什么要用LLM来做这个呢?

找到对任何给定问题的最准确的回答,然后解释为什么它是一个好的匹配,这是推荐引擎无法做到的。嵌入不仅可以对文本做同样的事情,还可以对任何来源做同样的事情;从音频到图像。推荐系统需要额外的组件来处理和标记这些类型的信息。

所以这是一种种特殊情况,我们的推荐需要音频你和图像吗?所以在使用前需要评估要解决的问题否需要LLM所能提供的所有功能,或者是否可以用更传统的方式解决问题。(其实上面的音频和图像只要增加几个模型就可以了,投入远远要比使用LLM低很多)

如果只用了LLM的一少部分功能,那么肯定有比他更好的更传统的解决方案

总结

LLM不仅仅是一种炒作,它们其实是一种强大而通用的技术,可以实现业务目标并提高客户满意度。但是LLM并不是灵丹妙药,使用时尤其需要需要仔细规划、评估和优化,以确保其有效性和效率。

如果你打算以正确的方式将llm整合到业务中,记住:

https://avoid.overfit.cn/post/6280016cc99749aa827c8841e6e83da2

专业的人做专业的事

目录
相关文章
|
9月前
|
人工智能 自然语言处理 算法
谷歌推出”自我发现“框架,极大增强GPT-4等大模型推理能力
【4月更文挑战第20天】谷歌DeepMind团队推出了SELF-DISCOVER框架,让大型语言模型能自我发现并构建推理结构,提升在复杂任务中的性能。该框架模仿人类解决问题方式,分两阶段选择和适应原子推理模块,以解决挑战。在多任务测试中,SELF-DISCOVER相比传统方法表现出色,性能提升42%,计算量减少10至40倍。它具有跨模型应用的普适性,并与人类思维方式相通。然而,它在某些任务类型上仍有优化空间,且需解决计算成本问题。论文链接:https://arxiv.org/abs/2402.03620
132 1
|
9月前
|
存储 算法 测试技术
大模型落地的必经之路 | GPTQ加速LLM落地,让Transformer量化落地不再困难
大模型落地的必经之路 | GPTQ加速LLM落地,让Transformer量化落地不再困难
299 0
|
4月前
|
人工智能 数据安全/隐私保护 UED
RAG让AI大模型更懂业务解决方案部署使用体验
根据指导文档,部署过程得到了详细步骤说明的支持,包括环境配置、依赖安装及代码示例,确保了部署顺利进行。建议优化知识库问题汇总,增加部署失败案例参考,以提升用户体验。整体解决方案阅读与部署体验良好,有助于大型语言模型在特定业务场景的应用,未来可加强行业适应性和用户隐私保护。
106 5
|
4月前
|
机器学习/深度学习 存储 人工智能
[大语言模型] 情感认知在大型语言模型中的近期进展-2024-09-26
[大语言模型] 情感认知在大型语言模型中的近期进展-2024-09-26
102 0
|
8月前
|
机器学习/深度学习 人工智能 自然语言处理
大型语言模型如何工作?
大型语言模型如何工作?
96 1
|
8月前
|
人工智能 自然语言处理 机器人
【AIGC】大型语言模型在人工智能规划领域模型生成中的探索
【AIGC】大型语言模型在人工智能规划领域模型生成中的探索
135 6
|
8月前
|
机器学习/深度学习 人工智能 数据库
什么是大型语言模型 ?
什么是大型语言模型 ?
136 5
|
9月前
|
机器学习/深度学习 自然语言处理 机器人
探索高效的大型语言模型:DiJiang的创新之路
【4月更文挑战第4天】华为诺亚方舟实验室提出DiJiang方法,通过频域核化技术优化Transformer模型,降低大型语言模型的计算复杂度和训练成本。使用DCT消除softmax操作,实现线性复杂度的注意力计算。实验显示DiJiang在保持性能的同时,训练成本降低约10倍,推理速度提升,但模型泛化和长序列处理能力还需验证。
135 8
探索高效的大型语言模型:DiJiang的创新之路
|
9月前
|
机器学习/深度学习 人工智能 分布式计算
【大模型】在实际应用中大规模部署 LLM 会带来哪些挑战?
【5月更文挑战第5天】【大模型】在实际应用中大规模部署 LLM 会带来哪些挑战?
|
9月前
|
机器学习/深度学习 前端开发 机器人
如何开始定制你自己的大型语言模型
2023年,大型语言模型发展迅速,规模更大,性能更强。用户能否定制自己的模型取决于硬件资源。需在功能和成本间找到平衡,可以选择高性能(如40B+参数,适合专业用途,需强大GPU,成本高)或低性能(如7B参数,适合学习和简单应用,GPU成本较低)模型。训练模型可借助HuggingFace的Transformers库,定义数据集并进行训练。训练好的模型可使用Ollama和Open Web UI部署。具备适当GPU是入门基础。
203 2