人工智能原理概述 - ChatGPT 背后的故事5

简介: 3.4 显卡 = 算力如同上文所说的一样,虽然神经网络的研究在上世纪60年代就有一定的基础了。但一直迟迟没有发展起来的原因就是,因为缺了两样东西:算力和数据。神经网络中的每一个神经元,虽然不用算的非常精细,但需要大量的同时计算。巧妇难为无米之炊。计算并不复杂,都是加法和乘法,但运算量特别复杂。比如一个图片 800 x 600(像素点) = 144000 像素点。如果用三层卷积核(因为RGB是3)去做卷积,大概需要1300万次乘法 + 1200万次加法。这对当时的 CPU 是难以胜任的,甚至现在的CPU也做不了。这就需要 GPU 来展现身手了,我们知道 GPU 是用来做图形计算的。比如播放一个

image.png
GPU 由于高并发,可以瞬间将整个图形渲染出来:image.png
这也是为什么我们经常听到做 AI 必须买显卡的原因,因为我们在训练的过程中需要大量这种并发运算(包括挖矿)。
目前 AI 训练基本被英伟达显卡垄断,这是因为老黄布局的很早。早在2006年英伟达就推出了CUDA,成功的让GPU可以编程。这样一来,以前专门设计3D处理图形的显卡,要想拿去计算编程,本来是需要一大堆顶尖工程师,现在只需要基于CUDA library就可以做。英伟达就把自己显卡的边界从游戏和3D图像处理,扩大到了整个加速计算的领域。比如航天、生物制药、天气预报、能源勘探等等。那等12年深度学习非常成熟的时候,自然就使用了英伟达的这个平台。导致现在说到AI训练就等于买显卡,买显卡就是英伟达。
四、ChatGPT 原理
想必大家都直接或间接的用过 ChatGPT 了,它和我们平时使用的 Siri 、小爱同学截然不同。和前者聊天我们本身就会把它当做人工智障来使用,但和 ChatGPT 对话的过程中,我们是真的可以解决一些实际的问题。比如让它分析一下未知领域关键技术点,写算法题找bug等等。那 ChatGPT 为什么会变得如此聪明,它背后到底用到了什么技术,下面我们就来一起探究一下。

4.1 LLM
语言模型是一种基于统计学和机器学习方法的自然语言处理技术,它用于评估和预测一个给定序列的概率分布,通常是单词序列或字符序列。语言模型的主要应用是文本生成、机器翻译、语音识别等任务。近些年,神经网络架构的语言模型参数规模已经达到几千亿,为了表示与传统语言模型的区别,大家习惯称之为大语言模型(LLM)。
在机器学习中一般使用 Recurrent Neural Network 循环神经网络(RNN)来处理文字,需要一个词一个词的看,没办法同时大量处理。而且句子也不能太长,要不然学到后面前面都忘了。
直到2017年的时候Google出来了一篇论文,提出了一个新的学习框架叫做:Transformer。他可以让机器同时学习大量的文字,如同串联和并联的区别。现在很多NLP的模型都是建立在Transformer之上的。Google BERT里头的T,ChatGPT里的T都是指这个Transformer。

相关文章
|
22天前
|
人工智能 自然语言处理 前端开发
基于ChatGPT开发人工智能服务平台
### 简介 ChatGPT 初期作为问答机器人,现已拓展出多种功能,如模拟面试及智能客服等。模拟面试功能涵盖个性化问题生成、实时反馈等;智能客服则提供全天候支持、多渠道服务等功能。借助人工智能技术,这些应用能显著提升面试准备效果及客户服务效率。 ### 智能平台的使用价值 通过自动化流程,帮助用户提升面试准备效果及提高客户服务效率。 ### 实现思路 1. **需求功能设计**:提问与接收回复。 2. **技术架构设计**:搭建整体框架。 3. **技术选型**:示例采用 `Flask + Template + HTML/CSS`。 4. **技术实现**:前端界面与后端服务实现。
37 1
|
2月前
|
人工智能
最近很火的人工智能ChatGPT可以实现“ 连续对话”机制
这篇文章介绍了人工智能ChatGPT实现连续对话机制的方法,包括如何通过传递特定的参数如conversation_id来保持对话的连续性。
最近很火的人工智能ChatGPT可以实现“ 连续对话”机制
|
2月前
|
人工智能 Java 定位技术
人工智能ChatGPT 体验案例:使用ChatGPT实现java扫雷小游戏
这篇文章通过一个使用ChatGPT实现的Java扫雷小游戏案例,展示了ChatGPT在编程领域的应用能力。文章中包含了扫雷游戏的Java代码实现,代码中初始化了雷区地图,随机放置雷,计算每个格子周围雷的数量,并提供了一个简单的文本界面与用户交互进行游戏。游戏通过控制台输入接受玩家的指令,并给出相应的反馈。
人工智能ChatGPT 体验案例:使用ChatGPT实现java扫雷小游戏
|
1月前
|
存储 安全 机器人
autofs - 工作原理 【ChatGPT】
autofs - 工作原理 【ChatGPT】
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
【人工智能】深度解读 ChatGPT基本原理
ChatGPT是OpenAI开发的一种基于人工智能技术的自然语言处理工具,它代表了自然语言处理(NLP)技术的前沿进展。ChatGPT的基本原理建立在一系列先进技术和方法之上,主要包括GPT(Generative Pre-trained Transformer)模型架构、预训练与微调技术、以及可能采用的RLHF(Reinforcement Learning from Human Feedback)等高级训练策略。下面将详细解读ChatGPT的基本原理和关键技术:
60 1
|
2月前
|
人工智能 自然语言处理 算法
【人工智能】TF-IDF算法概述
TF-IDF算法,全称Term Frequency-Inverse Document Frequency(词频-逆文档频率),是一种在信息检索和文本挖掘领域广泛应用的加权技术。它通过评估一个词语在文档中的重要程度,来挖掘文章中的关键词,进而用于文本分析、搜索引擎优化等场景。其核心思想是:如果某个词或短语在一篇文章中出现的频率高(TF高),且在其他文章中很少出现(IDF也高),则认为这个词或短语具有很好的类别区分能力,适合用来代表这篇文章的内容。 具体而言,TF-IDF由两部分组成,即词频(TF)和逆文档频率(IDF)。词频(TF)指的是某一个给定的词在该文件中出现的频率。这个数值通常会被归一化
31 3
|
2月前
|
机器学习/深度学习 人工智能 并行计算
【人工智能】CPU、GPU与TPU:人工智能领域的核心处理器概述
在人工智能和计算技术的快速发展中,CPU(中央处理器)、GPU(图形处理器)和TPU(张量处理器)作为核心处理器,各自扮演着不可或缺的角色。它们不仅在性能上各有千秋,还在不同的应用场景中发挥着重要作用
126 2
|
2月前
|
机器学习/深度学习 人工智能 算法
【人工智能】传统语音识别算法概述,应用场景,项目实践及案例分析,附带代码示例
传统语音识别算法是将语音信号转化为文本形式的技术,它主要基于模式识别理论和数学统计学方法。以下是传统语音识别算法的基本概述
60 2
|
2月前
|
机器学习/深度学习 人工智能 搜索推荐
【人工智能】人工智能在医疗健康中的应用以及实际案例和进展概述
人工智能(Artificial Intelligence, AI)在医疗健康领域的应用日益广泛,为医疗服务的提升和健康管理带来了革命性的变化。以下是人工智能在医疗健康中的主要应用
260 1
|
1月前
|
机器学习/深度学习 人工智能 算法
探索人工智能:机器学习的基本原理与Python代码实践
【9月更文挑战第6天】本文深入探讨了人工智能领域中的机器学习技术,旨在通过简明的语言和实际的编码示例,为初学者提供一条清晰的学习路径。文章不仅阐述了机器学习的基本概念、主要算法及其应用场景,还通过Python语言展示了如何实现一个简单的线性回归模型。此外,本文还讨论了机器学习面临的挑战和未来发展趋势,以期激发读者对这一前沿技术的兴趣和思考。

热门文章

最新文章