科普神文,一次性讲透AI大模型的核心概念

简介: 令牌,向量,嵌入,注意力,这些AI大模型名词是否一直让你感觉熟悉又陌生,如果答案肯定的话,那么朋友,今天这篇科普神文不容错过。我将结合大量示例及可视化的图形手段,为你由浅入深一次性讲透AI大模型的核心概念。本文转载至:https://baijiahao.baidu.com/s?id=1779925030313909037&wfr=spider&for=pc。确实是一篇很不错的文,很好的解释了大模型底层的一些基本概念,对于我这种AI新手非常友好哈哈哈

引言

随着科技公司及国际竞争的不断推进,AI大模型已经越来越多融入我们的生活。作为一个普通人或许不需要研究高深的AI算法,但想在这次AI浪潮中不被抛弃,必须对LLM原理有一个基本的理解。

理解LLM(即Large Language Model,大语言模型)如何生成文本也就意味着理解这些模型为什么是如此通用的认知引擎——以及它们还能帮助创造什么。

image.png

令牌化和向量化(Token&Vectorization)

首先,让我们从令牌化和向量化开始,这一部分内容将为大家解开AI大模型的第一层面纱-AI大模型时如何理解人类语言的。通过这一部分的讲解也将为大家构建AI大模型的基础数学观

为了读懂人类提问和输出回答,LLM必须先将单词翻译成它们能理解的语言。

image.png

首先,一块文字被分割成令牌(tokens) ——可以编码的基本单位。令牌通常代表词的片段,但我们会将每个完整的词变成一个令牌。

image.png

为了掌握一个词的意思,例如 work ,LLM首先通过使用大量训练数据观察它的上下文,注意它的 邻近词。这些数据集基于收集互联网上发表的文本,新LLM使用数十亿个词进行训练。

d6303daff10b807ec7e539b7dbc486ab.gif

最终,我们得到一个巨大的与 work 在训练数据中一起出现的词集(Eg:roof),以及那些没有(Eg:dove)与它一起出现的词集。

image.png

当模型处理这个词集时,它会产生一个向量——或数值列表——并根据每个词在训练数据中与 work 的邻近程度来调整它。这个向量被称为词嵌入(embedding)

9f8deee510548877935e481c9622bdef.gif

一个词嵌入可以包含数百个值,每个值表示一个词意义的不同方面。就像你可能会通过其特征来描述一座房子——类型、位置、卧室、浴室、楼层——嵌入中的值可以定量表示一个词的语言特征。

image.png

这些特征的派生方式意味着我们不确切知道每个值表示什么,但我们预期在可比较的方式中使用的词,其嵌入往往看起来相似。

比如一对词组如 seaocean ,它们可能不会在完全相同的上下文中使用(“all at ocean”不是“all at sea”的直接替代),但它们的意思很接近,并且嵌入允许我们量化这种接近程度。

image.png

通过将每个嵌入表示的数百个值减少到只有两个,我们可以更清楚地看到这些词之间的距离。

image.png

我们可能会发现代词的簇集,或交通工具的模式,能够定量表示词汇的方式是模型生成文本的第一步。

image.png

Transformer

在搞清楚了大模型是如何理解人类语言之后,或许你会觉得不过如此,这与LLM表现出的强大功能似乎并不相符。没错仅仅靠令牌和向量化还不足以使LLM如此聪明,接下来我们将直抵AI大模型的心脏-Transformer,正是依靠Transformer,LLM才能够像今天这样流畅地解析和书写,它从根本上加快并增强了计算机理解语言的方式。

阐述transformer模型的研究首次由谷歌的8名AI研究人员在2017年6月发表,正是大家耳熟能详的《Attention is All You Need》开启了AI的新纪元,Attention也将是下文着重讲解的核心概念,我将带领大家在上述数学模型的基础上构建对LLM的基础概念抽象。

Transformer体系结构的一个关键概念是自注意力(Attention)。这就是允许LLM理解词之间关系的原因。

image.png

自注意力查看文本中的每个令牌(token),并决定哪些对理解其含义最重要。

image.png

在transformer之前,最先进的AI翻译方法是循环神经网络(RNN),它逐字扫描句子并顺序处理。

8f564d71c6319e5f0a6832eb06bc2133.gif

通过自注意力,transformer可以同时计算句子中的所有单词。捕捉这种上下文为LLM提供了更复杂的语言处理能力。

image.png

在这个例子中,同时评估整个句子意味着transformer能够理解interest在这里作为名词使用,以解释个人对政治的看法。

image.png

如果我们调整句子...

image.png

...模型就会理解interest现在是在金融意义上使用。

image.png

当我们组合这些句子时,模型仍然能够识别每个词的正确含义,这要归功于它对伴随文本的注意力。

第一次使用interest,它主要注意到 noin

image.png

第二次,它主要注意到 ratebank

image.png

这种功能对于高级文本生成至关重要。没有它,在某些上下文中可以互换但在其他上下文中不可以的词可能会被错误使用。

image.png

实际上,自注意力意味着如果这个句子的摘要被生成,您不会在讨论利率时使用enthusiasm这个词。

image.png

这种能力远远超越像interest这样有多个意思的词。

image.png

在下面的句子中,自注意力能够计算出 it 最有可能指代 dog

image.png

如果我们改变句子,将 hungry 替换为 delicious ,模型能够重新计算,现在 it 最有可能指代 bone

image.png

随着规模的扩大,自注意力对语言处理的好处也越来越大。它允许LLM从句子边界之外获取 上下文(context) ,让模型对一个词的使用方式有更深入的理解。

30d3d132d12ab37f60c661c406fd5831.gif

LLM

理解了LLM基础数学原理和模型概念抽象后,大家是不是很兴奋,最后让我们看看目前世界上最先的大预言模型到底做了什么,构建了如此缤纷多彩的AI应用世界。

大模型之所以被称之为大,是因为其训练有我们整个互联网的基础语料库的支撑,从这巨大的语料库中,模型学会识别模式,最终预测下一个最佳选项。接下来我将带领大家直面大模型,为大家揭秘LLM是如何涌现智能,成为最像人的人工智能的。

基于上文的Transformer模型,对互联网语料库处理后,我们可以生成人类语言的数据模型,表示机器所理解的输入,包括词义、位置和词之间的关系。

image.png

基于以上数学模型,求取最优解最简单的方式,就是将模型的目标设定为预测一个序列中的下一个词,并重复此过程直到输出完成。

image.png

为此,模型给每个令牌一个概率分数(probability score),表示它是序列中下一个词的可能性。

image.png

它将继续这样做,直到对所产生的文本感到满意。

image.png

但是,这种隔离地预测下一个词的方法(称为“贪心搜索”)会引入问题。虽然每个令牌可能是下一个最佳选择,但整个短语可能不太相关。并不一定总是错误,但可能也不是你所期望的。

image.png

Transformer使用多种方法来解决这个问题并提高输出质量。一个例子叫束搜索。
它不仅关注序列中下一个词,而是考虑一组较大令牌集合的概率。

image.png

通过束搜索,模型能够考虑多种路径并找到最佳选项。

image.png

这会产生更好的结果,最终导致更连贯、更人性化的文本。

image.png

总结

Transformer已经引领了各种尖端的AI应用程序的创建。除了支持像Bard和ChatGPT这样的聊天机器人之外,它还驱动我们移动键盘上的自动完成功能和智能扬声器中的语音识别。

然而,它的真正威力在语言之外。它的发明者发现,transformer模型可以识别和预测任何重复的主题或模式。 从图片中的像素,使用Dall-E、Midjourney和Stable Diffusion等工具,到计算机代码使用GitHub Copilot等生成器。它甚至可以预测音乐中的音符和蛋白质中的DNA来帮助设计药物分子。

数十年来,研究人员构建了专门的模型来总结、翻译、搜索和检索。 transformer统一了那些动作到一个单一的结构中,使其能够执行大量各种各样的任务。

通过一个统一的语言模型,实现了从图像,音乐,视频多模态的应用,并且强于以往所有的AI应用,这就是这个故事神奇的地方。”

相关文章
|
19天前
|
人工智能 并行计算 安全
从零到一,打造专属AI王国!大模型私有化部署全攻略,手把手教你搭建、优化与安全设置
【10月更文挑战第24天】本文详细介绍从零开始的大模型私有化部署流程,涵盖需求分析、环境搭建、模型准备、模型部署、性能优化和安全设置六个关键步骤,并提供相应的示例代码,确保企业能够高效、安全地将大型AI模型部署在本地或私有云上。
170 7
|
4天前
|
机器学习/深度学习 人工智能 自然语言处理
当前AI大模型在软件开发中的创新应用与挑战
2024年,AI大模型在软件开发领域的应用正重塑传统流程,从自动化编码、智能协作到代码审查和测试,显著提升了开发效率和代码质量。然而,技术挑战、伦理安全及模型可解释性等问题仍需解决。未来,AI将继续推动软件开发向更高效、智能化方向发展。
|
5天前
|
人工智能 自然语言处理 机器人
文档智能与RAG技术如何提升AI大模型的业务理解能力
随着人工智能的发展,AI大模型在自然语言处理中的应用日益广泛。文档智能和检索增强生成(RAG)技术的兴起,为模型更好地理解和适应特定业务场景提供了新方案。文档智能通过自动化提取和分析非结构化文档中的信息,提高工作效率和准确性。RAG结合检索机制和生成模型,利用外部知识库提高生成内容的相关性和准确性。两者的结合进一步增强了AI大模型的业务理解能力,助力企业数字化转型。
37 3
|
15天前
|
人工智能 JSON API
阿里云文档智能 & RAG解决方案:提升AI大模型业务理解与应用
阿里云推出的文档智能 & RAG解决方案,旨在通过先进的文档解析技术和检索增强生成(RAG)方法,显著提升人工智能大模型在业务场景中的应用效果。该方案通过文档智能(Document Mind)技术将非结构化文档内容转换为结构化数据,提取文档的层级树、样式和版面信息,并输出为Markdown和Json格式,为RAG提供语义分块策略。这一过程不仅解决了文档内容解析错误和切块丢失语义信息的问题,还优化了输出LLM友好的Markdown信息。方案的优势在于其多格式支持能力,能够处理包括Office文档、PDF、Html、图片在内的主流文件类型,返回文档的样式、版面信息和层级树结构。
75 2
|
8天前
|
人工智能 弹性计算 Serverless
触手可及,函数计算玩转 AI 大模型 | 简单几步,轻松实现AI绘图
本文介绍了零售业中“人—货—场”三要素的变化,指出传统营销方式已难以吸引消费者。现代消费者更注重个性化体验,因此需要提供超出预期的内容。文章还介绍了阿里云基于函数计算的AI大模型,特别是Stable Diffusion WebUI,帮助非专业人士轻松制作高质量的促销海报。通过详细的部署步骤和实践经验,展示了该方案在实际生产环境中的应用价值。
39 6
触手可及,函数计算玩转 AI 大模型 | 简单几步,轻松实现AI绘图
|
19天前
|
存储 人工智能 数据可视化
高效率,低成本!且看阿里云AI大模型如何帮助企业提升客服质量和销售转化率
在数字化时代,企业面临海量客户对话数据处理的挑战。阿里云推出的“AI大模型助力客户对话分析”解决方案,通过先进的AI技术和智能化分析,帮助企业精准识别客户意图、发现服务质量问题,并生成详尽的分析报告和可视化数据。该方案采用按需付费模式,有效降低企业运营成本,提升客服质量和销售转化率。
高效率,低成本!且看阿里云AI大模型如何帮助企业提升客服质量和销售转化率
|
4天前
|
人工智能 新制造 芯片
2024年中国AI大模型产业发展报告解读
2024年,中国AI大模型产业迎来蓬勃发展,成为科技和经济增长的新引擎。本文解读《2024年中国AI大模型产业发展报告》,探讨产业发展背景、现状、挑战与未来趋势。技术进步显著,应用广泛,但算力瓶颈、资源消耗和训练数据不足仍是主要挑战。未来,云侧与端侧模型分化、通用与专用模型并存、大模型开源和芯片技术升级将是主要发展方向。
|
10天前
|
机器学习/深度学习 人工智能 自然语言处理
当前AI大模型在软件开发中的创新应用与挑战
【10月更文挑战第31天】2024年,AI大模型在软件开发领域的应用取得了显著进展,从自动化代码生成、智能代码审查到智能化测试,极大地提升了开发效率和代码质量。然而,技术挑战、伦理与安全问题以及模型可解释性仍是亟待解决的关键问题。开发者需不断学习和适应,以充分利用AI的优势。
|
5天前
|
存储 人工智能 固态存储
如何应对生成式AI和大模型应用带来的存储挑战
如何应对生成式AI和大模型应用带来的存储挑战
|
12天前
|
人工智能 JSON 自然语言处理
基于文档智能&RAG搭建更懂业务的AI大模型
本文介绍了一种结合文档智能和检索增强生成(RAG)技术,构建强大LLM知识库的方法。通过清洗文档内容、向量化处理和特定Prompt,提供足够的上下文信息,实现对企业级文档的智能问答。文档智能(Document Mind)能够高效解析多种文档格式,确保语义的连贯性和准确性。整个部署过程简单快捷,适合处理复杂的企业文档,提升信息提取和利用效率。

热门文章

最新文章