吴恩达 x Open AI ChatGPT ——如何写出好的提示词视频核心笔记

简介: 吴恩达 x Open AI ChatGPT ——如何写出好的提示词视频核心笔记

核心知识点脑图如下:

1、第一讲:课程介绍

  • 要点1:

上图展示了两种大型语言模型(LLMs)的对比:基础语言模型(Base LLM)和指令调整语言模型(Instruction Tuned LLM)。

基础语言模型(Base LLM)

功能:基础语言模型能够预测下一个单词,这种预测是基于文本训练数据。

例子:图中提供了一个故事的开头:“Once upon a time, there was a unicorn that lived in a magical forest with all her unicorn friends(中文释义:从前,有一只独角兽和她所有的独角兽朋友住在魔法森林里)”,这展示了模型如何根据给定的文本继续生成故事。问答能力:它能够回答基础的问题,例如“法国的首都是什么?”,但它可能会产生问题文本,如有害输出,这些输出与基础语言模型的性质有关,因为它们仅基于预测下一个最可能的单词,而不是遵循特定的指令。

指令调整语言模型(Instruction Tuned LLM)

  • 功能:这种模型试图遵循指令,它通过在指令上进行微调(fine-tuning,周鸿祎大佬经常讲),并在尝试遵循这些指令时进行优化。
  • 微调方法:使用RLHF(Reinforcement Learning with Human Feedback,中文释义:人类反馈强化学习)进行微调,即结合强化学习和人类反馈。

  • 三H原则:帮助(Helpful)、诚实(Honest)、无害(Harmless)。

例子:当问到“法国的首都是什么?”时,指令调整的模型会更准确地回答“法国的首都是巴黎”。

总结来说,图中的主要区别在于基础模型侧重于文本数据的下一个词预测,而指令调整模型则侧重于理解和遵循指令,提供更准确、更有用、更安全的输出。

2、第二讲:使用准则

  • 要点1:好提示词的第一个原则——写出清晰且准确的提示

指令必须清晰的三个核心原因:

核心一——避免歧义:清晰的指令让机器没有猜测的空间,可以直接执行。

核心二——提高效率:清晰的指令可以让机器快速理解并采取行动,节约时间。

核心三——确保结果准确:指令清晰可以确保机器提供的结果是我们所期待的。

  • 要点2:好提示词的第一个原则——给大模型思考的时间

要点2所说的“给大模型思考的时间”,其实是在指导我们如何更高效地与大型语言模型(如我)进行交互。

下面是三个核心要点的解读:

(1)等待模型回应:

模型需要时间处理你的请求和生成回答,就像你向朋友提问后要等待他们思考并回答一样。

(2)避免打断:

在模型回答之前不要急于提出新问题,这就像不打断别人说话,给对方完成表达的机会。

这个一般模型也不允许。

(3)逐步提问

如果有复杂的问题,可以分步骤提问,让模型逐一解决,就像解难题一样,一步一个脚印来解答。

这是最核心的,大问题务必精准拆解成小问题,且根据回复逐步调优

3、第三讲:提示词不是一步到位的,而通过反复迭代逐步完善的。

吴恩达老师“这幅图展示了一个名为“迭代式提示开发”的循环流程图,它代表一个反馈循环,用于改进和完善提示(可能是编程、数据输入或任何需要精确指示的场合)的质量。流程由四个主要部分组成:

1、Idea(想法): 这是流程的开始阶段,你需要有一个初始想法或设计,这将成为你的起始点。

2、Implementation (code/data) Prompt(实现(代码/数据)提示): 根据想法,你会创建一个初步的提示,如果是编程领域,可能是编写代码或准备数据输入。

3、Experimental result(实验结果): 使用你的提示进行实验后,你将获得某些结果,这些结果可能会或不会符合你的预期。

4、Error Analysis(错误分析): 如果结果不符合预期,你需要进行错误分析,查找为什么会出现这样的结果,可能是提示不够清晰、具体或存在逻辑错误。

这个过程是迭代的,意味着你会不断重复这个循环,每一次都根据之前的反馈来调整和改进你的提示,直到实验结果符合你的预期。

图下方的“Prompt guidelines”列出了优化提示时应遵循的指导原则:

1、Be clear and specific(要清晰和具体): 提示需要有足够的详细信息,避免歧义——这点反复强调过了。

2、Analyze why result does not give desired output(分析为什么结果不符合预期输出): 当结果不如意时,深入分析原因(模型会分析,咱们也不要坐等,要结合经验进行分析),理解导致结果偏差的因素。

3、Refine the idea and the prompt(改进想法和提示): 根据分析结果调整你的想法和提示。

4、Repeat(重复): 不断重复这一过程(反复迭代),每次都尝试提高提示的有效性。

这个流程是设计思维和敏捷开发的典型,强调持续改进和适应性。

4、第四讲:最兴奋的功能——文本总结

为大段文本形成摘要,以便我们快速的获取信息。

新版GPT4最多能让用户输入3万2千token(大概50页英文文字长度,网上说法大约25000字)。

5、第五讲:模型推理:

省去了早期开发需要自己训练模型的工作,现在一个API搞定!

6、第六讲:格式转化 Transforming

  • Html 转 JSON等各种转换:原来咱们用复杂的正则,现在大模型API快速搞定。
  • 校对写的所有内容:论文、评论、文稿等。
  • 支持各种语言的翻译
  • GPT4 的图片转文本,文本转图片功能也非常强大。

7、第7讲:文本扩写

  • Chatgpt可以作为头脑风暴的伙伴,基于我们的提示词展开文本扩写。
  • 建议负责任的使用,比如:不要生成垃圾邮件。
  • 可用于文档助理,比如:邮件助理。

8、第8讲:自定义聊天机器人

用途举例:

  • AI 客服助理;
  • 餐厅AI接单员

等等......

注意:角色的设定很重要。

9、小结

9.1 写出好的提示词的两个核心要点

  • 1、写出清晰和具体指令的重要性
  • 2、给予模型足够的时间来“思考”。

9.2 迭代式提示开发

这是一种通过不断优化和细化提示来改进模型响应的方法。

9.3 模型的几项能力

  • 总结
  • 推断
  • 转换
  • 扩展信息。

这些能力在构建聊天机器人时尤为重要,它们使得机器人能够处理各种任务,从理解和回应用户输入到生成新的内容。

模型非常有趣,可以放心去玩!!——咱们就是得多用,才能知道怎么更好得使用用!

10、中英文字母视频地址

https://www.bilibili.com/video/BV1s24y1F7eq


相关文章
|
25天前
|
人工智能 测试技术 API
AI计算机视觉笔记二十 九:yolov10竹签模型,自动数竹签
本文介绍了如何在AutoDL平台上搭建YOLOv10环境并进行竹签检测与计数。首先从官网下载YOLOv10源码并创建虚拟环境,安装依赖库。接着通过官方模型测试环境是否正常工作。然后下载自定义数据集并配置`mycoco128.yaml`文件,使用`yolo detect train`命令或Python代码进行训练。最后,通过命令行或API调用测试训练结果,并展示竹签计数功能。如需转载,请注明原文出处。
|
25天前
|
JSON 人工智能 数据格式
AI计算机视觉笔记二十六:YOLOV8自训练关键点检测
本文档详细记录了使用YOLOv8训练关键点检测模型的过程。首先通过清华源安装YOLOv8,并验证安装。接着通过示例权重文件与测试图片`bus.jpg`演示预测流程。为准备训练数据,文档介绍了如何使用`labelme`标注工具进行关键点标注,并提供了一个Python脚本`labelme2yolo.py`将标注结果从JSON格式转换为YOLO所需的TXT格式。随后,通过Jupyter Notebook可视化标注结果确保准确性。最后,文档展示了如何组织数据集目录结构,并提供了训练与测试代码示例,包括配置文件`smoke.yaml`及训练脚本`train.py`,帮助读者完成自定义模型的训练与评估。
|
7天前
|
人工智能
防AI换脸视频诈骗,中电金信联合复旦提出多模态鉴伪法,还入选顶会ACM MM
【9月更文挑战第26天】中电金信与复旦大学合作,提出一种基于身份信息增强的多媒体伪造检测方法,并入选ACM MM国际会议。该方法利用身份信息作为检测线索,构建了含54位名人324个视频的多模态伪造数据集IDForge,设计了参考辅助的多模态伪造检测网络R-MFDN,显著提升了检测性能,准确率达到92.90%。尽管如此,该方法仍存在一定局限性,如对非英语国家数据及无明确身份信息的视频检测效果可能受限。
13 4
|
25天前
|
机器学习/深度学习 人工智能 PyTorch
AI计算机视觉笔记三十二:LPRNet车牌识别
LPRNet是一种基于Pytorch的高性能、轻量级车牌识别框架,适用于中国及其他国家的车牌识别。该网络无需对字符进行预分割,采用端到端的轻量化设计,结合了squeezenet和inception的思想。其创新点在于去除了RNN,仅使用CNN与CTC Loss,并通过特定的卷积模块提取上下文信息。环境配置包括使用CPU开发板和Autodl训练环境。训练和测试过程需搭建虚拟环境并安装相关依赖,执行训练和测试脚本时可能遇到若干错误,需相应调整代码以确保正确运行。使用官方模型可获得较高的识别准确率,自行训练时建议增加训练轮数以提升效果。
|
25天前
|
人工智能 开发工具 计算机视觉
AI计算机视觉笔记三十:yolov8_obb旋转框训练
本文介绍了如何使用AUTODL环境搭建YOLOv8-obb的训练流程。首先创建虚拟环境并激活,然后通过指定清华源安装ultralytics库。接着下载YOLOv8源码,并使用指定命令开始训练,过程中可能会下载yolov8n.pt文件。训练完成后,可使用相应命令进行预测测试。
|
25天前
|
人工智能 并行计算 测试技术
AI计算机视觉笔记三十一:基于UNetMultiLane的多车道线等识别
该项目基于开源数据集 VIL100 实现了 UNetMultiLane,用于多车道线及车道线类型的识别。数据集中标注了六个车道的车道线及其类型。项目详细记录了从环境搭建到模型训练与测试的全过程,并提供了在 CPU 上进行训练和 ONNX 转换的代码示例。训练过程约需 4 小时完成 50 个 epoch。此外,还实现了视频检测功能,可在视频中实时识别车道线及其类型。
|
25天前
|
传感器 人工智能 算法
AI计算机视觉笔记二十七:YOLOV8实现目标追踪
本文介绍了使用YOLOv8实现人员检测与追踪的方法。通过为每个人员分配唯一ID,实现持续追踪,并可统计人数,适用于小区或办公楼出入管理。首先解释了目标检测与追踪的区别,接着详细描述了使用匈牙利算法和卡尔曼滤波实现目标关联的过程。文章提供了基于IOU实现追踪的具体步骤,包括环境搭建、模型加载及追踪逻辑实现。通过示例代码展示了如何使用YOLOv8进行实时视频处理,并实现人员追踪功能。测试结果显示,该方法在实际场景中具有较好的应用潜力。
|
25天前
|
人工智能 测试技术 PyTorch
AI计算机视觉笔记二十四:YOLOP 训练+测试+模型评估
本文介绍了通过正点原子的ATK-3568了解并实现YOLOP(You Only Look Once for Panoptic Driving Perception)的过程,包括训练、测试、转换为ONNX格式及在ONNX Runtime上的部署。YOLOP由华中科技大学团队于2021年发布,可在Jetson TX2上达到23FPS,实现了目标检测、可行驶区域分割和车道线检测的多任务学习。文章详细记录了环境搭建、训练数据准备、模型转换和测试等步骤,并解决了ONNX转换过程中的问题。
|
25天前
|
机器学习/深度学习 人工智能 测试技术
AI计算机视觉笔记二十五:ResNet50训练部署教程
该项目旨在训练ResNet50模型并将其部署到RK3568开发板上。首先介绍了ResNet50网络,该网络由何恺明等人于2015年提出,解决了传统卷积神经网络中的退化问题。项目使用车辆分类数据集进行训练,并提供了数据集下载链接。环境搭建部分详细描述了虚拟环境的创建和所需库的安装。训练过程中,通过`train.py`脚本进行了15轮训练,并可视化了训练和测试结果。最后,项目提供了将模型转换为ONNX和PT格式的方法,以便在RK3568上部署。
|
25天前
|
人工智能 监控 算法
AI计算机视觉笔记二十 八:基于YOLOv8实例分割的DeepSORT多目标跟踪
本文介绍了YOLOv8实例分割与DeepSORT视觉跟踪算法的结合应用,通过YOLOv8进行目标检测分割,并利用DeepSORT实现特征跟踪,在复杂环境中保持目标跟踪的准确性与稳定性。该技术广泛应用于安全监控、无人驾驶等领域。文章提供了环境搭建、代码下载及测试步骤,并附有详细代码示例。
下一篇
无影云桌面