AI大模型应用开发实战(01)-大语言模型发展

简介: 【8月更文挑战第2天】

1 大语言模型发展

LLM(Large Language Model),大语言模型,为啥叫2.0?因为LLM出现前的1.0时代,主要是NLP(自然语言处理)工程,共性:通用性差。整个AI领域终极愿景是AGI(Artificial General Intelligence,人工通用智能)。

1.0可能是一个单任务的AI。如深蓝战胜象棋冠军,他只会下象棋,而且是学习了很多下棋套路,他只会干这一个事,问他别的啥都不知道。

2 LLM特点

LLM可以像语言一样跟我们交互,通过语言,它可扩展到很多场景。未来可能从依据LLM,发展出真的AGI,跟人类一样拥有智慧的智能体。

2.0开始,技术层基本是从点到面。最早的词向量技术,把自然语言的词语,使用向量表示。向量是一个数学概念,如猫这词在向量空间表示成一个坐标。狗就跟它有区别,牛又不一样。可理解为,每个词在向量空间都有唯一坐标,然后构成词典。使用这种one-hot方式表示,如苹果标注成101坐标。把自然语言,通过数学语言描述,而且它是个坐标,可精准找到位置。

3 大模型的不足和解决方案

  • 无法表达词语词语之间的关系。如猫1这样坐标,和狗01坐标,之间啥关系?不知道!
  • 效率不高

于是,在词向量的基础,出现

4 词嵌入(embedding)

叫词向量也可,就是对语言模型进行预训练。

通过大量现有文章资料,让这些词向量具备语言信息。预训练后的词向量,它在这向量空间,就带上额外信息,有效提升模型效果。且后续其他任务中间,去做一个迁移。

如猫、狗,通过坐标标注,让它有这种低维向量表示。还可有语义相似的一个向量空间相近,好比认为,猫和狗,通过预训练这些大量语料,我们发现猫、狗同属宠物。那可能这两个坐标点,在向量空间里比较接近。如找宠物时,在这向量空间里,猫和狗就是在宠物向量域。牛和羊属常用肉家畜,可能就在那个向量域。

所以,词向量就是一个地位向量表示,再一个是语义相似的向量空间。它能迁移学习,把这个任务,迁移到其他任务里。深蓝的下棋例子,就可以把它的技能去迁移。

词嵌入之后,又出现

5 巨向量和全文向量

根据这个前文信息,去分析下文或根据本文翻译成另一种语言。它代表的一些模型,如:

  • RNN(Recurrent Neural Network,循环神经网络)
  • LSTM(Long Short-Term Memory,长短期记忆网络)

可有效处理这种时序数据。"What time is it?",训练时,它是一层一层的,它第一层神经网络,可能先看到"What",然后"time","is","it",最后看到问号。它会通过这样的顺序,去处理语句,去做一个上下文理解。

它还可做到一些短时记忆和选择性遗忘,即RNN和LSTM,它主要应用在像文本生成、语音识别和图像描述等。这时就比如说类似RNN和LSTM这样的模型出现,它已经可以做到我们常见的一些AI识别。

再往后就到理解上下文,就是全文的上下文,如"买什么 什么is"这个这个模式理解上下文,这个模式代表作是类似比如说这个BERT这样大模型。到这阶段,已经可完成类似完形填空任务。那它就是根据上下文理解当前的代词,比如说男他女她动物它是什么,完成这个完形填空。那么这个时候就属于所谓的真域训练模型时代开启。

特点

支持并行训练,如说CNN(Convolutional Neural Network,卷积神经网络)这个模型比,就比如说这个"What time is it",只能一层一层处理,不支持并行训练。必须完成这个事情之后再做下一个事情。

所以呢,它替代RNN和CNN这样神经网络,更强大,可以实现一些类似语义识别。

最后就是OpenAI这GPT(Generative Pre-trained Transformer)出现,这个模型出现为代表,我们就正式进入了这种超大模型和模型统一的时代。从谷歌T5(Text-to-Text Transfer Transformer)这个模型开始的时候,它是引入了的这样的一个模式来训练模型。也就是说,它是把提示词告诉模型,然后把答案训练出来,然后不停的用这样的模式来训练模型。那么当我们在问模型这些问题的时候,其实也是通过,通过提示词,通过prompt的方式来引导它。所以到这个时代的时候呢,那我们以chatgpt为代表,我们发现它的效果非常惊艳。最新的成果就是说,我们的大模型已经支持了多模态,OpenAI开启的这个大模型时代呢,它其实是把这个,一种基于的这种训练模型这种方式提了出来。

整个的大模型的发展,就是一个从点到面的发展过程。最核心也是最早的是基于这个词向量的技术。通过这个不断发展到神经网络,到这种单线的,到并行训练,最后直到超大规模训练集,实现一个大语言模型发展。

目录
相关文章
|
3月前
|
机器学习/深度学习 数据采集 人工智能
从ChatGPT到文心一言:AI为什么能“懂人话”?——大语言模型的底层逻辑揭秘
从ChatGPT到文心一言:AI为什么能“懂人话”?——大语言模型的底层逻辑揭秘
545 9
|
3月前
|
机器学习/深度学习 人工智能 人机交互
当AI学会“看”和“听”:多模态大模型如何重塑人机交互
当AI学会“看”和“听”:多模态大模型如何重塑人机交互
427 121
|
3月前
|
人工智能 人机交互 知识图谱
当AI学会“融会贯通”:多模态大模型如何重塑未来
当AI学会“融会贯通”:多模态大模型如何重塑未来
341 114
|
3月前
|
人工智能 缓存 运维
【智造】AI应用实战:6个agent搞定复杂指令和工具膨胀
本文介绍联调造数场景下的AI应用演进:从单Agent模式到多Agent协同的架构升级。针对复杂指令执行不准、响应慢等问题,通过意图识别、工具引擎、推理执行等多Agent分工协作,结合工程化手段提升准确性与效率,并分享了关键设计思路与实践心得。
725 20
【智造】AI应用实战:6个agent搞定复杂指令和工具膨胀
|
3月前
|
人工智能 API 开发工具
构建AI智能体:一、初识AI大模型与API调用
本文介绍大模型基础知识及API调用方法,涵盖阿里云百炼平台密钥申请、DashScope SDK使用、Python调用示例(如文本情感分析、图像文字识别),助力开发者快速上手大模型应用开发。
1695 16
构建AI智能体:一、初识AI大模型与API调用
|
3月前
|
存储 人工智能 搜索推荐
LangGraph 记忆系统实战:反馈循环 + 动态 Prompt 让 AI 持续学习
本文介绍基于LangGraph构建的双层记忆系统,通过短期与长期记忆协同,实现AI代理的持续学习。短期记忆管理会话内上下文,长期记忆跨会话存储用户偏好与决策,结合人机协作反馈循环,动态更新提示词,使代理具备个性化响应与行为进化能力。
729 10
LangGraph 记忆系统实战:反馈循环 + 动态 Prompt 让 AI 持续学习
|
3月前
|
数据采集 人工智能 JSON
Prompt 工程实战:如何让 AI 生成高质量的 aiohttp 异步爬虫代码
Prompt 工程实战:如何让 AI 生成高质量的 aiohttp 异步爬虫代码
|
4月前
|
分布式计算 测试技术 Spark
科大讯飞开源星火化学大模型、文生音效模型
近期,科大讯飞在魔搭社区(ModelScope)和Gitcode上开源两款模型:讯飞星火化学大模型Spark Chemistry-X1-13B、讯飞文生音频模型AudioFly,助力前沿化学技术研究,以及声音生成技术和应用的探索。
441 2

热门文章

最新文章