ChatGPT发展与技术基础

本文涉及的产品
大数据开发治理平台 DataWorks,不限时长
实时数仓Hologres,5000CU*H 100GB 3个月
实时计算 Flink 版,5000CU*H 3个月
简介: ChatGPT发展与技术基础

 一、ChatGPT发展

【ChatGPT——GPT3.5】

诞生于:2022 年 11 月

类型:对话场景的大语言模型

特点更贴近人的方式与使用者互动;在理解人类意图、精准回答问题、流畅生成结果方面远超人类预期

功能可以回答问题、承认错误、挑战不正确的前提、拒绝不适当的请求,同时拥有惊艳的思维链推理能力和零样本下处理问题能力。

热度据瑞银数 据,ChatGPT 产品推出 2 个月后用户数量即过亿,而上一个现象级应用 TikTok 达到 1 亿用户花费了 9 个月时间。

能力强大的上下文连续话能力 :ChatGPT 可以实现几十轮连续对话,能够比较准确地识别省略、指代等细粒度语言现象、记录历史信息,而且似乎都可以保持对话主题的一致性和专注度。

       智能的交互修正能力:无论是用户更改自己之前的说法还是指出ChatGPT的回复中存在的问题,都能够捕捉到修改意图,并准确识别出需要修改的部分,最后做出正确的修改。

【ChatGPT——GPT4.0】

诞生于:2023年 3 月

类型:对话场景的大语言模型

特点具备多模态能力,可以同时支持文本和图像输入

        支持的文本输入数量提升至约 32000 个 tokens,对应约 2.5 万单词。

性能

    1. 理解/推理/多语言能力增强。
    2. 理解能力显著增强,可以实现“看图说话”。
    3. 可靠性相比 GPT3.5 大幅提升 19%
    4. 对不允许和敏感内容的错误反应显著下降。



    二、ChatGPT技术基础

    ChatGPT由生成式预训练模型(Generative Pretrained Transformer,GPT)GPT-3.5 微调而来,在GPT-3.5的基础上,引入了基于人类反馈的强化学习技术(Reinforcement Learning from Human Feedback,RLHF)对模型进行微调。

    image.gif

    参考:ChatGPT 为代表的大模型对信息资源管理的影响

    ChatGPT 的能力来源于:大规模预训练 + 指令微调 + 基于人类反馈的强化学习

    1、通过大规模的预训练,通过让拥有 1750 亿参数的大模型去学习包含 3000 亿单词的语料,大模型已经具备了基础能力。

    大模型基础能力:语言生成、情景学习(in-context learning,遵循给定的示例为新的测试应用生成解决方案)、世界知识(事实性知识和常识)、指令遵循(Instruct following)、思维链(Chain of thought)可逐步解决问题。

    2、通过指令微调(Instruction tuning),帮助大模型“解锁”特定领域的能力如遵循指令来实现问答式的聊天机器人,或泛化到其他新的任务领域。

    3、基于人类反馈的强化学习(RLHF,Reinforcement Learning with Human Feedback)则让大模型具备了和人类“对齐”的能力,即给予提问者详实、公正的回应,拒绝不当的问题,拒绝其知识范围外的问题等特性。



    2.1 大规模的预训练

    ChatGPT基于Transformer进行特征提取,采用Decoder-Only方式,由两阶段到一阶段:单向语言模型预训练+zero shot/ few shot prompt/ Instruct。

    解释一下GPT的含义:生成式预训练(Generative Pre-Train,GPT)。

    Transformer 结构由编码器和解码器构成,而单独基于编码器或者解码器均可构建大语言模型,因此业内形成三类大模型路线:

      • Decoder-Only(仅解码器)——GPT
      • Encoder-Only(仅编码器)——谷歌的Bert、Deberta
      • Encoder-Decoder(编码器-解码器)——Meta的Bart、T5、ChatGLM

      采用 Decoder-Only 的有 GPT 等,其采用“预测下一个单词”的 方式进行预训练,之后通过指令微调等实现特定领域功能的激发。

      采用 Encoder-Only 的有谷歌的 Bert、微软的 Deberta 等,其采用 “完形填空”式的预训练,再根据所需的应用领域用少量标注过的数据进行 Fine-tuning(微调)。

      采用Encoder-Decoder 架构的模型如谷歌的 T5、Meta 的 Bart、清华大学的 ChatGLM 等。

      大模型预训练:

      image.gif编辑

      image.gif

      参考:A Survey of Large Language Models》(Zhao Wayne Xin 等)、开源证券研究所



      2.2 模型微调

      模型微调将赋予模型在特定领域的能力,预训练好的基础模型进行微调:

        • 1、采用人工标注好的数据来训练模型;
        • 2、通过人类对模型答案的排序训练一个奖励模型;
        • 3、使用奖励模型通过强化学习的方式训练 ChatGPT。其中后两个步骤称为 RLHF(基于人类反馈的强化学习)。

        在 GPT4 的训练过程中,OpenAI还进一步加入了基于规则的奖励模型(RBRMs)来帮助模型进一步生成正确的回答,

        拒绝有害内容。可以看出模型微调对模型最终的效果实现至关重要,玩家独特的训练和微调方法会让自己的模型形成独特的性能。


        2.3 基于人类反馈的强化学习

        基于人类反馈的强化学习(RLHF)则让大模型具备了和人类“对齐”的能力,即给予提问者详实、公正的回应,拒绝不当的问题,拒绝其知识范围外的问题等特性。



        三、ChatGPT对科研思路的影响

        1、资源富集的实验室会开始进一步投入大模型竞争,短期内将会以探索 RLHF 的不同方向和规模为主。

        2、部分子任务的快速消失和被整合。大量之前存在的子任务/小任务会并入大任务,构造有监督数据集并微调不再是小任务的第一选择。大模型无法取得好结果的小任务将成为研究热点。

        3、跨模态知识的挖掘自监督学习将成为新的热点研究方向。大量基于RLHF的跨模态知识的生成方法将被快速提出并实践,相关成果将在短期内大量发表。主流热点将主要聚焦在知识的数量、质量以及运用知识的方法。



        参考文献:

        [1] 赵朝阳,朱贵波,王金桥.ChatGPT给语言大模型带来的启示和多模态大模型新的发展思路[J].中国科学院自动化研究所.2023

        [2] A Survey of Large Language Models》(Zhao Wayne Xin 等)

        [3] ChatGPT 为代表的大模型对信息资源管理的影响



        本文只供大家参考与学习,谢谢~

        相关文章
        用 ChatGPT 编写英文技术文章要自己多审核,否则容易被严谨的同行喷
        用 ChatGPT 编写英文技术文章要自己多审核,否则容易被严谨的同行喷
        |
        1月前
        |
        机器学习/深度学习 数据采集 存储
        4个维度讲透ChatGPT技术原理,揭开ChatGPT神秘技术黑盒
        4个维度讲透ChatGPT技术原理,揭开ChatGPT神秘技术黑盒
        |
        1月前
        |
        存储 自然语言处理 搜索推荐
        ChatGPT 文本Embedding融合Qdrant向量数据库:构建智能问答系统的技术探索
        向量数据库结合ChatGPT带来了什么 1. **语义搜索:** 使用向量数据库进行语义搜索,可以更准确地找到与查询相关的信息。ChatGPT可以理解用户的自然语言查询,而向量数据库可以根据语义相似性返回匹配的向量数据。 2. **智能推荐:** 结合ChatGPT的智能理解和向量数据库的相似性搜索,可以实现更智能的推荐系统。系统可以根据用户的历史行为和语境,向用户推荐相似的向量数据,如文章、产品或其他内容。 3. **自然语言处理与向量表示结合:** ChatGPT可以将自然语言转换为向量表示,这样就可以在向量数据库中进行更高效的查询。这种集成使得自然语言处理和向量数据库可以相互补充等
        445 0
        |
        1月前
        |
        机器学习/深度学习 人工智能 算法
        【极客技术】ColossalChat用完整RLHF技术克隆ChatGPT的开源解决方案
        【极客技术】ColossalChat用完整RLHF技术克隆ChatGPT的开源解决方案
        59 0
        |
        8月前
        |
        自然语言处理 iOS开发
        ChatGPT出圈,不在于技术牛
        ChatGPT出圈,不在于技术牛
        50 0
        |
        10天前
        |
        机器学习/深度学习 人工智能 自然语言处理
        【人工智能】第一部分:ChatGPT的基本概念和技术背景
        【人工智能】第一部分:ChatGPT的基本概念和技术背景
        21 6
        |
        10天前
        |
        机器学习/深度学习 人工智能 算法
        【人工智能】第四部分:ChatGPT的技术实现
        【人工智能】第四部分:ChatGPT的技术实现
        12 3
        |
        8天前
        |
        安全 测试技术 PHP
        基础入门-ChatGPT&结合安全&融入技术&高效赋能&拓展需求
        基础入门-ChatGPT&结合安全&融入技术&高效赋能&拓展需求
        |
        1月前
        |
        机器学习/深度学习 人工智能 自然语言处理
        技术小白能看懂的ChatGPT原理介绍
        网上有关 ChatGPT 的原理介绍文章一大堆,要么是从 NLP 的历史开始讲起,要么是上数 GPT 3 代,内容都相对冗长和复杂。其实 ChatGPT 的原理并不难理解,我将以最通俗易懂的方式为技术小白解读,帮助大家更好地了解这一技术
        538 1
        技术小白能看懂的ChatGPT原理介绍
        |
        7月前
        |
        人工智能
        技术下午茶:初识ChatGPT,触碰未来(4)
        技术下午茶:初识ChatGPT,触碰未来
        67 1
        技术下午茶:初识ChatGPT,触碰未来(4)

        热门文章

        最新文章