核心知识点脑图如下:
1、第一讲:课程介绍
- 要点1:
上图展示了两种大型语言模型(LLMs)的对比:基础语言模型(Base LLM)和指令调整语言模型(Instruction Tuned LLM)。
基础语言模型(Base LLM)
功能:基础语言模型能够预测下一个单词,这种预测是基于文本训练数据。
例子:图中提供了一个故事的开头:“Once upon a time, there was a unicorn that lived in a magical forest with all her unicorn friends(中文释义:从前,有一只独角兽和她所有的独角兽朋友住在魔法森林里)”,这展示了模型如何根据给定的文本继续生成故事。问答能力:它能够回答基础的问题,例如“法国的首都是什么?”,但它可能会产生问题文本,如有害输出,这些输出与基础语言模型的性质有关,因为它们仅基于预测下一个最可能的单词,而不是遵循特定的指令。
指令调整语言模型(Instruction Tuned LLM)
- 功能:这种模型试图遵循指令,它通过在指令上进行微调(fine-tuning,周鸿祎大佬经常讲),并在尝试遵循这些指令时进行优化。
- 微调方法:使用RLHF(Reinforcement Learning with Human Feedback,中文释义:人类反馈强化学习)进行微调,即结合强化学习和人类反馈。
- 三H原则:帮助(Helpful)、诚实(Honest)、无害(Harmless)。
例子:当问到“法国的首都是什么?”时,指令调整的模型会更准确地回答“法国的首都是巴黎”。
总结来说,图中的主要区别在于基础模型侧重于文本数据的下一个词预测,而指令调整模型则侧重于理解和遵循指令,提供更准确、更有用、更安全的输出。
2、第二讲:使用准则
- 要点1:好提示词的第一个原则——写出清晰且准确的提示
指令必须清晰的三个核心原因:
核心一——避免歧义:清晰的指令让机器没有猜测的空间,可以直接执行。
核心二——提高效率:清晰的指令可以让机器快速理解并采取行动,节约时间。
核心三——确保结果准确:指令清晰可以确保机器提供的结果是我们所期待的。
- 要点2:好提示词的第一个原则——给大模型思考的时间
要点2所说的“给大模型思考的时间”,其实是在指导我们如何更高效地与大型语言模型(如我)进行交互。
下面是三个核心要点的解读:
(1)等待模型回应:
模型需要时间处理你的请求和生成回答,就像你向朋友提问后要等待他们思考并回答一样。
(2)避免打断:
在模型回答之前不要急于提出新问题,这就像不打断别人说话,给对方完成表达的机会。
这个一般模型也不允许。
(3)逐步提问:
如果有复杂的问题,可以分步骤提问,让模型逐一解决,就像解难题一样,一步一个脚印来解答。
这是最核心的,大问题务必精准拆解成小问题,且根据回复逐步调优。
3、第三讲:提示词不是一步到位的,而通过反复迭代逐步完善的。
吴恩达老师“这幅图展示了一个名为“迭代式提示开发”的循环流程图,它代表一个反馈循环,用于改进和完善提示(可能是编程、数据输入或任何需要精确指示的场合)的质量。流程由四个主要部分组成:
1、Idea(想法): 这是流程的开始阶段,你需要有一个初始想法或设计,这将成为你的起始点。
2、Implementation (code/data) Prompt(实现(代码/数据)提示): 根据想法,你会创建一个初步的提示,如果是编程领域,可能是编写代码或准备数据输入。
3、Experimental result(实验结果): 使用你的提示进行实验后,你将获得某些结果,这些结果可能会或不会符合你的预期。
4、Error Analysis(错误分析): 如果结果不符合预期,你需要进行错误分析,查找为什么会出现这样的结果,可能是提示不够清晰、具体或存在逻辑错误。
这个过程是迭代的,意味着你会不断重复这个循环,每一次都根据之前的反馈来调整和改进你的提示,直到实验结果符合你的预期。
图下方的“Prompt guidelines”列出了优化提示时应遵循的指导原则:
1、Be clear and specific(要清晰和具体): 提示需要有足够的详细信息,避免歧义——这点反复强调过了。
2、Analyze why result does not give desired output(分析为什么结果不符合预期输出): 当结果不如意时,深入分析原因(模型会分析,咱们也不要坐等,要结合经验进行分析),理解导致结果偏差的因素。
3、Refine the idea and the prompt(改进想法和提示): 根据分析结果调整你的想法和提示。
4、Repeat(重复): 不断重复这一过程(反复迭代),每次都尝试提高提示的有效性。
这个流程是设计思维和敏捷开发的典型,强调持续改进和适应性。
4、第四讲:最兴奋的功能——文本总结
为大段文本形成摘要,以便我们快速的获取信息。
新版GPT4最多能让用户输入3万2千token(大概50页英文文字长度,网上说法大约25000字)。
5、第五讲:模型推理:
省去了早期开发需要自己训练模型的工作,现在一个API搞定!
6、第六讲:格式转化 Transforming
- Html 转 JSON等各种转换:原来咱们用复杂的正则,现在大模型API快速搞定。
- 校对写的所有内容:论文、评论、文稿等。
- 支持各种语言的翻译
- GPT4 的图片转文本,文本转图片功能也非常强大。
7、第7讲:文本扩写
- Chatgpt可以作为头脑风暴的伙伴,基于我们的提示词展开文本扩写。
- 建议负责任的使用,比如:不要生成垃圾邮件。
- 可用于文档助理,比如:邮件助理。
8、第8讲:自定义聊天机器人
用途举例:
- AI 客服助理;
- 餐厅AI接单员
等等......
注意:角色的设定很重要。
9、小结
9.1 写出好的提示词的两个核心要点
- 1、写出清晰和具体指令的重要性
- 2、给予模型足够的时间来“思考”。
9.2 迭代式提示开发
这是一种通过不断优化和细化提示来改进模型响应的方法。
9.3 模型的几项能力
- 总结
- 推断
- 转换
- 扩展信息。
这些能力在构建聊天机器人时尤为重要,它们使得机器人能够处理各种任务,从理解和回应用户输入到生成新的内容。
模型非常有趣,可以放心去玩!!——咱们就是得多用,才能知道怎么更好得使用用!
10、中英文字母视频地址
https://www.bilibili.com/video/BV1s24y1F7eq