ChatGPT的基本原理认识

简介: 很多东西很难用文字完全表述,比如如何形容一朵花都感觉不够完美,最简单方法就是把照片拿出来看。而多模态的ChatGPT就做的事这件事,接收:类型的输入并且输出各种类型的输出。

国外有个博主写了一篇博文,名字叫TChatGPT: Explained to KidsQ」,直译过来就是,给小孩子解释什么是ChatGPT。


因为现实是很多的小孩子已经可以用父母的手机版ChatGPT玩了,ChatGPT几乎可以算得上无所不知,起码给小孩子讲故事,回答一些简单

回答不在话下。其实这里面就涉及到ChatGPT的一个最最基本也是核心的功能,就是问答,而这个问答功能就是第一代ChatGPT非常的简单直接,你打字给它,它输出给你。比如你输入你好,它会随机的给出「吗」,「高」,「美」等回答,这些回答选项取决于你们之前的对话内容。


这个阶段的ChatGPT是大语言模型,它的特点就是只能接受文字输入,并且也只能以文字输入。中文,英文,数字或者是代码,其本质上都是文字,那么其实最主要的问题就是为什么ChatGPT能理解我们说的话,同时还能基本上回答出让我们满意甚至是惊艳的回答。我们其实可以用一句老话来形容,那就是书读百遍,其义自现。说白了就是读的多了,就算不懂某句古诗或者古文的意思,但是起码是背下来了,直接背出来了。ChatGPT就是读了巨量的「书」,这些资料有的来自于书籍,有的来自于互联网,总之它读了很多很多的书,它的记忆里存储了大量的知识,这一点儿跟人类其实非常的像。但是在回答的问题跟人类会有一些不同,比如我们在背诵古诗词的时候,床前明月光Q,后面如果我们背下来了并且确定背的对的话,后一句肯定接的是疑是地上霜。当然我们可以随便编一个错误回答,比如唧唧复唧唧,我们是回答了,但是我们知道肯定是瞎编的。但是ChatGPT在回答的时候不是这么思考的,它的学习资料来自于公开的数据,如果所有的?里面床前明月光后面都是疑是地上霜,那么你放心,它肯定可以回答的又快又对。不过事实上,互联网上的资料不一定都对,有可能某一篇或者某几篇文章里面它的诗句

就是错的,那么ChatGPT就有一定的几率输出错误的回答。特别是很多人都体验过,ChatGPT会胡乱的说作者名字。因为ChatGPT的输出主要是靠概率,下一个字的输出取决于前面的内容,就还拿刚开始的问题来举例。就比如你好,后面可以跟很多的词。如果你看到一个人好像受伤了,坐在地上,你应该会说:你好吗?如果你在篮球场碰到了一个身高2米以上的运动员,你应该不会说你好吗或者你好美,而是你好高。你好美也同理。我们就可以这么理解,ChatGPT是一个可以综合各种信息进行概率最大化输出的人工智能模型。


这个时候我们可以讲一些细节。ChatGPT的名字分为两部分:Chat和GPT。Chat是聊天的意思,GPT是Gene rative Pre-trained Transformer的首字母缩写。其中Genrative是生成的意思,它的作用是可以创造或者生产一些新的东西;Pre-trainedQ是它从大量的文本资料中学习而来,Transformer指的是一种人工智能的模型。T不用关注,主要就看G和P这两个词就行。我们主要用的就是它的Generative功能,用、来生成各种各样的内容;但是我们需要知道方,么它可以生产各种内容,原因就在于P。只有学习了大量的内容,才可以进行再生产。而这种学习其实是会有局限性了,很自然的,比如说你从小学习了很多的知识,但你可以保证你对一个问题的回答是完全正确的吗?几乎不可能,第一是知识的局限性,ChatGPT也一样,不可能掌握所有的知识;第二是知识的准确性,怎么保证所有的知识都是准确无误的;第三是知识的复杂性,同一个概念在不同的语境下有不同的体现,这种度别说AI,就连人都很难完美把握。能大致讲一下ChatGPT的原理…所以我们在使用ChatGPT的时候,也需要监督ChatGPT输出内容的准确性,它大概率是没问题的,但是你要把它用在关键问题上,就得人工再审核一遍。而现在的ChatGPT,其实已经升级过两次了,一次是GPT4Q,具有更准确的回答能力,另一次是最近的GPT Turbo。现在的ChatGPT,是一种叫多模态的大模型它跟第一代不同的地方就在于它不仅可以接收和输出文字,也可以接收其他类型的输入,比如图片,文档,视频等等,然后输出也更加多样化除了文本之外,也可以输出图片或者文件等等。这个「模」在这里就指的是不同的数据类型,为什么ChatGPT要做多模态,本质上就是因为OpenAI做ChatGPT的初衷就是要做AGI。而AGI又是什么呢,它的全名叫Artificial generalintelligence,通用人工智能。它的特点就是可以在所有的任务中表现的跟人类相似。也可以简单的理解为跟人类具有相近的智能程度,而像人类的话,起码可以跟人类一样做到几

件事,可以看东西,可以听东西,可以说东西也可以写东西。第一代的ChatGPT只能看文字和写文字,其实远远摸不到AGI的边。而多模态就是必要的实现路径,现在的ChatGPT可以看,看文字和看图片都可以;可以听和说,这个功能已经在手机APP版本的ChatGPT中实现了,也可以写,也就是输出东西,它可以写代码,写文章,也可以画画等等。这就是为什么要做多模态的出发点,更重要的是这个世界本来就是多模态的,


很多东西很难用文字完全表述,比如如何形容一朵花都感觉不够完美,最简单方法就是把照片拿出来看。而多模态的ChatGPT就做的事这件事,接收:类型的输入并且输出各种类型的输出。

相关文章
|
2月前
|
人工智能 自然语言处理 搜索推荐
揭秘ChatGPT的Prompt方法:原理与应用总结
揭秘ChatGPT的Prompt方法:原理与应用总结
50 0
|
6月前
|
机器学习/深度学习 人工智能 算法
人工智能原理概述 - ChatGPT 背后的故事1
一、人工智能历史 二、机器学习 2.1 预测函数 2.2 代价函数 2.3 梯度计算
|
7月前
|
存储 编译器 Go
结合ChatGPT辅助学习Go语言底层原理
在当今的信息时代,编程语言已经成为了科技领域的基础工具之一。其中,Go语言以其简洁、高效和并发性强等优点,在开发者中赢得了广泛的好评。然而,对于初学者或是想要深入理解Go语言底层原理的人来说,直接阅读和理解其源码可能会面临一定困难。我主要从以下几个方面分享一些使用ChatGPT辅助学习Go语言底层源码的小技巧。
203 0
结合ChatGPT辅助学习Go语言底层原理
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
技术小白能看懂的ChatGPT原理介绍
网上有关 ChatGPT 的原理介绍文章一大堆,要么是从 NLP 的历史开始讲起,要么是上数 GPT 3 代,内容都相对冗长和复杂。其实 ChatGPT 的原理并不难理解,我将以最通俗易懂的方式为技术小白解读,帮助大家更好地了解这一技术
505 1
技术小白能看懂的ChatGPT原理介绍
|
4月前
|
机器学习/深度学习 数据采集 人工智能
chatgpt生成文本的底层工作原理是什么?
chatgpt生成文本的底层工作原理是什么?
|
6月前
|
机器学习/深度学习 人工智能 搜索推荐
软件测试/人工智能|一文告诉你ChatGPT原理与架构
软件测试/人工智能|一文告诉你ChatGPT原理与架构
84 1
|
6月前
|
人工智能 安全 新能源
人工智能原理概述 - ChatGPT 背后的故事8
4.3 训练过程 虽然经过上述过程,ChatGPT已经可以自主的组织句子回答了。但如果没有适当的指导,该模型也可能生成不真实或者负面的输出。
|
6月前
|
机器学习/深度学习 人工智能 算法
人工智能原理概述 - ChatGPT 背后的故事6
该模型经过训练,可以在给定输入Token序列的情况下预测下一个Token。它能够生成语法正确且语义类似于其所训练的互联网数据的结构化文本。
|
6月前
|
机器学习/深度学习 人工智能 自然语言处理
人工智能原理概述 - ChatGPT 背后的故事5
3.4 显卡 = 算力 如同上文所说的一样,虽然神经网络的研究在上世纪60年代就有一定的基础了。但一直迟迟没有发展起来的原因就是,因为缺了两样东西:算力和数据。神经网络中的每一个神经元,虽然不用算的非常精细,但需要大量的同时计算。巧妇难为无米之炊。计算并不复杂,都是加法和乘法,但运算量特别复杂。比如一个图片 800 x 600(像素点) = 144000 像素点。如果用三层卷积核(因为RGB是3)去做卷积,大概需要1300万次乘法 + 1200万次加法。这对当时的 CPU 是难以胜任的,甚至现在的CPU也做不了。这就需要 GPU 来展现身手了,我们知道 GPU 是用来做图形计算的。比如播放一个
|
6月前
|
机器学习/深度学习 人工智能
人工智能原理概述 - ChatGPT 背后的故事4
4.2 生成过程 4.3 训练过程 4.4 Prompt 五、总结