3 千字浅谈:AI 之巅,ChatGPT 之背后

简介: AI 发展经历多个里程碑,最早可以追溯到 1950 年代,早期人们开始探索 AI 即人工智能的概念,后来就开发了一些早期的处理语言,比如 ELIZA;

从学习到创造



AI 技术的里程碑


AI 发展经历多个里程碑,最早可以追溯到 1950 年代,早期人们开始探索 AI 即人工智能的概念,后来就开发了一些早期的处理语言,比如 ELIZA;


到了 1960 年代,发展出了【专家系统】和【归纳学习算法】;


再到 2000 年后,AI 发展出了【深度学习技术】、【自然语言处理技术】和【计算机视觉技术】这些关键技术;


再到 2022 年,ChatGPT 诞生,颠覆 AI 从阅读理解到生成创造,自此,AI 能很好地合成结果、创造结果了~


image.png


一图胜千言,按照上图时间顺序,接下来具体讲讲下各关键节点、关键技术。


起源


人工智能这个概念其实来源于:达特矛斯会议。

1956 年 8 月 ,约翰·麦卡锡等人召集同道合的人共同讨论,在会议中集思广益,持续了一个月,这催生了人工智能革命。


会议设定了 7 个议题,分别为:

自动计算机、如何对计算机进行编程以使用语言、神经网络、计算规模理论、自我改进、抽象、随机性与创造性


控制论


控制论定义为“以机器中的控制与调节原理、以及将其类比到生物体或社会组织体后的控制原理为对象的科学研究。”


意思是从这个时候开始,人们有了意识:用科学的方法去研究对机器的控制。

image.png


控制论包括控制器设计、系统建模、智能控制算法、系统识别和自适应控制等模块;

在我国,它被认为是现代资讯技术的理论基础,和系统论、信息论并称为“老三论”;

作为基础理论,控制论应用在许多领域,比如工业控制、机器人技术、交通控制和能源管理等。


NLP


NLP 这个大家应该不陌生了,最近各种 GPT 发布会中一直有听到;

NLP,即自然语言处理(Natural Language Processing)

它旨在研究如何让计算机理解、处理和生成自然语言;通过 NLP 技术,人们可以开发出各种语言应用程序,如语音识别、机器翻译、文本分类、情感分析等;


举一个 NLP 的例子:

我们把香蕉给猴子,因为(它们)饿了

我们把香蕉给猴子,因为(它们)熟透了


这两句话有着有同样的结构。但是代词“它们”却意思不同,这就考验机器的自然语言理解与处理;


中文博大精深,对于中文理解来说,更是如此:

《阿呆给长官送红包》长官:“你这是什么意思?” 阿呆:“没什么意思,意思意思。” 长官:“你这就不够意思了。” 阿呆:“小意思,小意思。” 长官:“你这人真有意思。” 阿呆:“其实也没有别的意思。” 长官:“那我就不好意思了。” 阿呆:“是我不好意思。”


ORZ,文心一言的中文处理能力任重道远~


CV


这里 CV 不是“复制粘贴”,而是 Computer Vision,计算机视觉。

NLP 是理解文字、CV 就是看图片。


CV 包含如下一些分支:画面重建,事件监测,目标跟踪,目标识别,机器学习,索引创建,图像恢复等。它在 20 世纪末被推出;


基于 CV 技术,人们可以开发出如人脸识别、物体检测、图像分割、视频跟踪等各类应用;

image.png


NASA火星探测车的双摄影机系统


深度学习


深度学习,也是 AI 中最老生常谈的概念。

官方来说:它是一种以人工神经网络为架构,对资料进行表征学习的算法;

非官方来说:它就是一种更加强大、能处理更多复杂问题的机器学习方法;

因为它 使用多层神经网络模拟人脑的运作方式,从而可以自动从数据中学习特征并进行分类、预测和决策等任务;


数据量越大、计算能力越强,深度学习就越强。

image.png


经典的卷积神经网络模型


GAN


GAN 是生成对抗网络(Generative Adversarial Networks)的缩写,它是一种使用深度学习技术生成新数据的方法。


为什么叫对抗?


因为它通过两个神经网络相互博弈的方式进行学习;

GAN 由一个生成器和一个判别器组成:生成器将随机噪声转换为新的数据样本,而判别器则尝试区分生成器生成的样本和真实的数据样本。


通过反复训练生成器和判别器,GAN可以生成高质量的样本,例如图像、音乐和文本等。

GAN 在 2014 年被提出,它是从“深度学习”到“生成数据”的关键。


image.png

由 GAN 生成的人脸


AI4S


AI4S 在 2022 年被提出,即 AI for Science:用人工智能先解决科学问题(学习科学原理),再解决产业问题。


因为目前,许多研发密集型产业(例如新能源、生物制药、原研材料和集成电路等)已经经过几十年的发展,进入了研发深水区,产业升级面临的主要瓶颈越来越集中于基础科学问题的限制。


AI4S 可以用机器学习底层的科学原理,并将其应用于实际问题中,在许多场景中展现出极强的生命力。

用 AI 来做科研,再从科研到生产~


ChatGPT


时间来到了 2022 年年底的 ChatGPT,AIGC 再次给世人以幻想。

ChatGPT 是 OpenAI 公司发布基于GPT的语言模型。该模型使用了大量的语料库进行训练,可以生成高质量的文本,例如文章、小说、新闻报道等。

为什么会是“高质量”?


GPT 模型基于 Transformer 架构,先在大规模语料上进行无监督预训练、再在小得多的有监督数据集上为具体任务进行精细调节(fine-tune)的方式。(这个,后面会再进一步讲解~)


More?


AI 发展如登山,各个队伍虽然路线不同,但是最终能顶峰相见,现在的这个顶峰就是 GPT 热潮,其代表就是 ChatGPT!


未来呢?还有更多吗?

image.png

其实,从学习到创作的过程,就像一个人,行万里路、读万卷书,见的多了,就会想着自己去总结、思考、创作、输出,这个过程同样也适用于 AI 身上。


下面聊聊 ChatGPT 的背后~


ChatGPT 技术树



这个世界上没有什么东西是凭空产生的,孙悟空都是从石头里蹦出来的,所以 ChatGPT 也一定是基于某个东西发展而来,这个东西就是:davinci


davinci


davinci 是 GPT-3 在 OpenAI 的内部代号,ChatGPT 基于 davinci 的内部多分支演进~

基于基础模型的成体系分支演进、交叉合并促成了划时代的蜕变,一图胜千言:

image.png


ChatGPT 编年史


  • 2020 年 7 月,OpenAI 发布代号为 davinci 的初代 GPT-3模型。
  • 2021 年 7 月,OpenAI发布 Codex(代号code-cushman-001) 120 亿参数的 GPT-3 变体(代号code- davinci -001)微调得到。
  • 2022 年 3 月,OpenAI 发布指令微调 (instruction tuning) 的论文,其监督微调 (supervised instruction tuning) 的部分对应了davinci-instruct-betatext-davinci-001
  • 2022 年4月,OpenAI 完成在代码、文本上数据集上双重训练后发布GPT-3.5模型(代号code- davinci -002),开启新的代际。
  • 2022 年 6 月,OpenAI发布Instruct-GPT论文,论文模型(代号text-davinci-002)是基于code-davinci-002的有监督指令微调模型。
  • 2022 年 11 月,OpenAI 发布基于text-davinci-002进行优化调教后的ChatGPT


ChatGPT 如何迭代



人工标注


为什么 ChatGPT 对话 高质量

根本原因是 它引入 RLHF 微调范式,指导模型对齐人类语境

image.png


什么是 RLHF?


RLHF(Reinforcement Learning from Human Feedback)即使用强化学习的方法,利用人类反馈信号直接优化语言模型。


简单来说,就是用人工去标注数据,对 AI 给出的问题选项进行判断回答,反馈给 AI 以让它强化学习。


用专业的人去训练 GPT 的答案,给回答打分,就是 ChatGPT 背后最关键的训练方法~

其实,我们使用 ChatGPT 时,也能通过点赞、点踩的方式进行反馈,这同样能训练模型。


image.png


自监督学习+强化学习


以上所说的“自监督学习+强化学习”的大模型微调新范式,是未来 AI 模型范式发展的前景。


AI 先自己学,尽可能的学,学完后,AI 再回答一些领域的标准问题,专业领域的数据标注人员给 AI 回答打分,或者通过选项来选择更符合人性化的预期的答案,反馈给 AI,AI 接着专业人员的反馈继续学习、优化,再循环这个过程。


这就和我们人类的学习方法是一致的,自学+老师指导,才能进步,不然只能是闭门造车、固步自封。


image.png


图片来源于内部资料


ChatGPT 应用



现在,ChatGPT 能火爆很重要的原因在于它在各行各业都能被应用,其中最大的颠覆是在 2 个方面:搜索引擎和内容创作。

image.png


ChatGPT 使用深度学习技术生成人类类似的对话,与搜索引擎相比,它能更加智能地理解用户的意图,并且可以通过对话来提供更加个性化的服务。


ChatGPT 能生成文本内容辅助人工写作,甚至取代人工写作;

ChatGPT 还能辅助编程,可以在本瓜之前的文章找到示例:juejin.cn/post/719743…

也有一些企业已经把 ChatGPT 接入到自己的应用中充当智能客服了,对比传统机器人客服,ChatGPT 能带来更好的对话体验。

。。。


ChatGPT 能成功是 AI 这座冰山露出水面的一角,其背后是“专业标注员”、“大量的训练”、“正反馈”、“多层神经网络、”“超级计算机”、“算力”等等这些 AI 模块在加持;


最后我们用 Susan Guthrie 的话做结:

“现在让世界惊叹的模型是构建于我们几年前开始建造的超级计算机上的。”。

在未来,“新模型将构建于我们现在正在训练的新超级计算机上,这台计算机要大得多,而且会更加复杂。”


改变未来就在现在

OK,以上便是本次分享,希望各位工友喜欢~ 欢迎点赞、收藏、评论 🤟

我是安东尼 🤠 100 万人气前端技术博主 💥 INFP 写作人格坚持 1000 日更文 ✍

关注我,安东尼陪你一起度过漫长编程岁月 🌏


本文参考:


相关文章
|
1月前
|
人工智能 算法 异构计算
ChatGPT一年电费2亿元,AI咋这么费电?
【2月更文挑战第24天】ChatGPT一年电费2亿元,AI咋这么费电?
34 1
ChatGPT一年电费2亿元,AI咋这么费电?
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
揭秘Google Gemini:AI界的多模态革命者与ChatGPT-4的较量
揭秘Google Gemini:AI界的多模态革命者与ChatGPT-4的较量
|
2月前
|
人工智能 机器人 Go
飞书+ChatGPT搭建智能AI助手,无公网ip实现公网访问飞书聊天界面
飞书+ChatGPT搭建智能AI助手,无公网ip实现公网访问飞书聊天界面
140 0
|
1月前
|
机器学习/深度学习 人工智能
看看OpenAI(ChatGPT)怎么回答马斯克呼吁停止ai研究的?
看看OpenAI(ChatGPT)怎么回答马斯克呼吁停止ai研究的?
20 1
|
1月前
|
机器学习/深度学习 人工智能
ChatGPT检测器——以前所未有的准确性捕捉AI生成的论文
【2月更文挑战第25天】ChatGPT检测器——以前所未有的准确性捕捉AI生成的论文
26 7
ChatGPT检测器——以前所未有的准确性捕捉AI生成的论文
|
1月前
|
人工智能
【SCI论文】“学术丑闻揭露:当AI写作遭遇学术审稿,ChatGPT意外成为论文共作者!“
最近,一篇发表在《Surfaces and Interfaces》的论文引起了广泛关注,因为其中意外包含了ChatGPT的提示语,暴露出学术审稿过程中的疏忽。这篇论文讨论了铜基金属-有机框架-芳香族纤维素分隔器对锂金属阳极电池的影响,但却出现了不该出现的ChatGPT对话内容。这一事件不仅令人哭笑不得,还引发了对学术审核严谨性的质疑。它反映了当前学术界可能过度依赖AI写作工具,忽略了基本的检查和编辑步骤。这一事件提醒学术界必须加强审查机制和自律,确保论文质量,防止类似尴尬情况的再次发生。
107 4
【SCI论文】“学术丑闻揭露:当AI写作遭遇学术审稿,ChatGPT意外成为论文共作者!“
|
1月前
|
人工智能 搜索推荐 UED
Perplexity AI与ChatGPT相比如何?
【2月更文挑战第17天】Perplexity AI与ChatGPT相比如何?
83 2
Perplexity AI与ChatGPT相比如何?
|
1月前
|
人工智能 安全 数据处理
今年 1 月全美新增 AI 相关职位较 ChatGPT发布时增加42%,IT 职位较同期减少31%
【2月更文挑战第16天】今年 1 月全美新增 AI 相关职位较 ChatGPT发布时增加42%,IT 职位较同期减少31%
19 1
今年 1 月全美新增 AI 相关职位较 ChatGPT发布时增加42%,IT 职位较同期减少31%
|
2月前
|
人工智能 运维 机器人
AI工具新革命:从ChatGPT到Sora,生成式AI改变世界
这个春节着实精彩,“春山学”吃透了,不如把目光移向OpenAI又一重磅产品——文生视频大模型Sora。智能新纪元已然开启,因为正如周鸿祎所说:“,Sora的诞生意味着AGI(通用人工智能)的实现将从10年缩短到1年。”
|
2月前
|
人工智能 自然语言处理 搜索推荐
迈向AI时代:掌握Python编程与ChatGPT的结合
ChatGPT是一种基于自然语言处理技术的模型,它可以理解人类的语言并生成相应的回复。而Python编程则是一种通过编写代码来实现特定功能的技能。将ChatGPT与Python编程相结合,我们可以利用ChatGPT来帮助我们理解编程概念、编写代码以及解决编程问题。
676 2