LLM 系列 | 09:吴恩达ChatGPT Prompt课程实践:以智能客服邮件为例

简介: 主要介绍如何用ChatGPT进行文本扩展,并以如何根据客户评价和情感撰写自定义电子邮件为例详细说明。

简介

漠漠水田飞白鹭,阴阴夏木啭黄鹂。小伙伴们好,我是微信公众号《小窗幽记机器学习》的小编:卖铁观音的小女孩。紧接前面几篇ChatGPT Prompt工程系列:LLM 系列 | 04:ChatGPT Prompt编写指南05:如何优化ChatGPT Prompt?06:ChatGPT Prompt实践:文本摘要&推断&。今天这篇小作文主要介绍如何用ChatGPT进行文本扩展,并以如何根据客户评价和情感撰写自定义电子邮件为例详细说明。

这里指的文本扩展(Expanding)是将短文本,例如一组说明或主题列表,输入到大型语言模型LLM中,让模型生成更长的文本,例如基于某个主题的电子邮件或论文。这样做有一些很实用的用途,例如将大型语言模型用作头脑风暴的工具。但这种做法也存在一些问题,例如某些人可能会使用它来生成大量垃圾邮件。因此,当你使用大型语言模型的这些功能时,请仅以负责任的方式和有益于人们的方式使用它们。

在这个章节中,将介绍如何基于 OpenAI API 生成适用于每个客户评价的客服电子邮件。在这个过程还将使用模型的另一个输入参数:温度系数。该参数控制模型产生回复的多样性程度。

环境准备

import openai
import os

openai.api_key  = "sk-xxx" 

import os
os.environ['HTTP_PROXY'] = "http://XXX:xx"
os.environ['HTTPS_PROXY'] = "http://XXXX:xx"

# 一个封装 OpenAI 接口的函数,参数为 Prompt,返回对应结果
def get_completion(prompt, model="gpt-3.5-turbo", temperature=0):
    '''
    prompt: 对应的提示
    model: 调用的模型,默认为 gpt-3.5-turbo(ChatGPT),有内测资格的用户可以选择 gpt-4
    temperature: 温度系数
    '''
    messages = [{"role": "user", "content": prompt}]
    response = openai.ChatCompletion.create(
        model=model,
        messages=messages,
        temperature=temperature, # 模型输出的温度系数,控制输出的随机程度
    )
    # 调用 OpenAI 的 ChatCompletion 接口
    return response.choices[0].message["content"]

定制客服邮件

如何根据客户评价和情感撰写自定义电子邮件作为回复?使用 LLM 根据客户评价和评论情感生成定制电子邮件,对于给定的客户评价和情感,生成自定义回复。

首先给出一个示例,包括一个评论及对应的情感。

# 我们可以在推理那章学习到如何对一个评论判断其情感倾向
sentiment = "negative"

# 一个产品的评价
review = f"""
他们在11月份的季节性销售期间以约49美元的价格出售17件套装,折扣约为一半。\
但由于某些原因(可能是价格欺诈),到了12月第二周,同样的套装价格全都涨到了70美元到89美元不等。\
11件套装的价格也上涨了大约10美元左右。\
虽然外观看起来还可以,但基座上锁定刀片的部分看起来不如几年前的早期版本那么好。\
不过我打算非常温柔地使用它,例如,\
我会先在搅拌机中将像豆子、冰、米饭等硬物研磨,然后再制成所需的份量,\
切换到打蛋器制作更细的面粉,或者在制作冰沙时先使用交叉切割刀片,然后使用平面刀片制作更细/不粘的效果。\
制作冰沙时,特别提示:\
将水果和蔬菜切碎并冷冻(如果使用菠菜,则轻轻煮软菠菜,然后冷冻直到使用;\
如果制作果酱,则使用小到中号的食品处理器),这样可以避免在制作冰沙时添加太多冰块。\
大约一年后,电机发出奇怪的噪音,我打电话给客服,但保修已经过期了,所以我不得不再买一个。\
总的来说,这些产品的总体质量已经下降,因此它们依靠品牌认可和消费者忠诚度来维持销售。\
货物在两天内到达。
"""

这里使用文本推断章节中的情感提取Prompt。这是一个关于搅拌机的客户评价,现在我们将根据情感定制回复。

这里的指令是:
假设你是一个客户服务AI助手,你的任务是为客户发送电子邮件回复,根据通过三个反引号分隔的客户电子邮件,生成一封回复以感谢客户的评价。

具体如下:

prompt = f"""
你是一位客户服务的AI助手。
你的任务是给一位重要客户发送邮件回复。
根据客户通过“```”分隔的评价,生成回复以感谢客户的评价。提醒模型使用评价中的具体细节
用简明而专业的语气写信。
作为“AI客户代理”签署电子邮件。
客户评论:
```{review}```
评论情感:{sentiment}
"""
response = get_completion(prompt)
print(response)

生成结果如下:

尊敬的客户,

感谢您对我们产品的评价。我们非常重视您的反馈,对于您提到的问题,我们深表歉意。我们会尽快采取措施,改进我们的产品质量和服务。

我们很高兴您对我们的交付速度感到满意。同时,我们也非常感谢您分享了您对我们产品的使用方法和技巧。我们会将这些细节纳入我们的产品使用说明中,以帮助更多的客户更好地使用我们的产品。

如果您有任何其他问题或建议,请随时联系我们的客服团队。我们将竭诚为您服务。

此致,

AI客户代理

使用温度系数

接下来,我们将使用语言模型中一个称为“温度”(温度系数)的参数,它将控制模型回复的多样性。我们可以将温度视为模型探索或随机性的程度。其实就是探索和利用,即Exploration和Exploitation直接的平衡。

例如,在一个特定的短语中,"我的最爱食品"最有可能的下一个词是"比萨",其次最有可能的是"寿司"和"塔可"。因此,在温度系数为零时,模型将总是选择最有可能的下一个词,而在较高的温度系数下,它还将选择其中一个不太可能的词。在更高的温度系数下,它甚至可能选择"塔可",而这种可能性仅为五分之一。可以想象,随着模型继续生成更多单词的最终响应,"我的最爱食品是比萨"将会与第一个响应"我的最爱食品是塔可"产生差异。因此,随着模型的继续,这两个响应将变得越来越不同。

一般来说,在构建需要可预测响应的应用程序时,建议将温度系数设置为零。在前面的小作文里面,一直将温度系数设置为零。如果正在尝试构建一个可靠和可预测的系统,应该将温度系数设置为零,以确保输出结果的一致性。如果尝试以更具创意的方式使用模型,可能需要更广泛地输出不同的结果,那么可以使用更大的温度系数。

下面将温度系数设置为 0.7:

prompt = f"""
你是一名客户服务的AI助手。
你的任务是给一位重要的客户发送邮件回复。
根据通过“```”分隔的客户电子邮件生成回复,以感谢客户的评价。
如果情感是积极的或中性的,感谢他们的评价。
如果情感是消极的,道歉并建议他们联系客户服务。
请确保使用评论中的具体细节。
以简明和专业的语气写信。
以“AI客户代理”的名义签署电子邮件。
客户评价:```{review}```
评论情感:{sentiment}
"""
response = get_completion(prompt, temperature=0.7)
print(response)

输出结果如下:

尊敬的客户,

非常感谢您对我们产品的评价。我们对您的不满深表歉意。我们一直致力于提供高质量的产品和服务,但显然我们在这次失败中没有达到您的期望。

我们非常关注您提到的问题,并确保这些问题得到解决。我们建议您联系我们的客户服务,以寻求进一步的帮助,并希望我们能够取得您的信任和满意。

再次感谢您对我们产品的反馈,我们会尽全力改进和提高我们的服务质量。祝您生活愉快!

此致,

AI客户代理

在温度系数为零时,每次执行相同的Prompt时,每次运行的输出结果应该是相同的。而使用温度为0.7,则每次都会获得不同的输出。

所以,可以看到它与我们之前收到的电子邮件不同。让我们再次执行它,以显示我们将再次获得不同的电子邮件。

因此,建议试试改变温度系数的值,以查看输出如何变化。总之,在更大的温度系数下,模型的输出更加随机。几乎可以将其视为在更大的温度系数下,AI助手更易分心,但也许更有创造力。

相关文章
|
11月前
|
机器学习/深度学习 人工智能 自然语言处理
自适应Prompt技术:让LLM精准理解用户意图的进阶策略
自适应Prompt技术通过动态意图解析与反馈驱动优化,将LLM从“机械执行者”进化为“认知协作者”。企业落地时需聚焦垂直场景,结合自动化工具链快速验证价值。
756 9
|
存储 消息中间件 缓存
支持百万人超大群聊的Web端IM架构设计与实践
本文将回顾实现一个支持百万人超大群聊的Web端IM架构时遇到的技术挑战和解决思路,内容包括:通信方案选型、消息存储、消息有序性、消息可靠性、未读数统计。希望能带给你启发。
576 0
支持百万人超大群聊的Web端IM架构设计与实践
|
机器学习/深度学习 人工智能 自然语言处理
DeepSeek 实践应用解析:合力亿捷智能客服迈向 “真智能” 时代
DeepSeek作为人工智能领域的创新翘楚,凭借领先的技术实力,在智能客服领域掀起变革。通过全渠道智能辅助、精准对话管理、多语言交互、智能工单处理、个性化推荐、情绪分析及反馈监控等功能,大幅提升客户服务效率和质量,助力企业实现卓越升级,推动智能化服务发展。
497 1
|
存储 SQL 监控
转转平台IM系统架构设计与实践(二):详细设计与实现
以转转IM架构为起点,介绍IM相关组件以及组件间的关系;以IM登陆和发消息的数据流转为跑道,介绍IM静态数据结构、登陆和发消息时的动态数据变化;以IM常见问题为风景,介绍保证IM实时性、可靠性、一致性的一般方案;以高可用、高并发为终点,介绍保证IM系统稳定及性能的小技巧。
313 6
|
存储 消息中间件 小程序
转转平台IM系统架构设计与实践(一):整体架构设计
本文描述了转转IM为整个平台提供的支撑能力,给出了系统的整体架构设计,分析了系统架构的特性。
491 10
|
搜索推荐 前端开发 API
构建智能导购助手:百炼大模型的实践与探索
智能导购助手利用百炼大模型的Multi-Agent架构,实现精准的商品推荐和主动式对话,解决购物时商品选择困难、需求沟通成本高、推荐缺乏个性化等问题。通过详细的部署实践和技术架构解析,本文带你深入了解如何打造一个高效、个性化的智能导购系统,提升购物体验与满意度。
1244 6
构建智能导购助手:百炼大模型的实践与探索
|
人工智能 自然语言处理 算法
主动式智能导购 AI 助手解决方案实践与测评
主动式智能导购 AI 助手解决方案实践与测评
|
数据采集 监控 机器人
浅谈网页端IM技术及相关测试方法实践(包括WebSocket性能测试)
最开始转转的客服系统体系如IM、工单以及机器人等都是使用第三方的产品。但第三方产品对于转转的业务,以及客服的效率等都产生了诸多限制,所以我们决定自研替换第三方系统。下面主要分享一下网页端IM技术及相关测试方法,我们先从了解IM系统和WebSocket开始。
427 4
|
人工智能 自然语言处理
重要的事情说两遍!Prompt复读机,显著提高LLM推理能力
【10月更文挑战第30天】本文介绍了一种名为“问题重读”(Question Re-reading)的提示策略,旨在提高大型语言模型(LLMs)的推理能力。该策略受人类学习和问题解决过程的启发,通过重新审视输入提示中的问题信息,使LLMs能够提取更深层次的见解、识别复杂模式,并建立更细致的联系。实验结果显示,问题重读策略在多个推理任务上显著提升了模型性能。
392 2
|
自然语言处理
从原理上总结chatGPT的Prompt的方法
从原理上总结chatGPT的Prompt的方法
293 0
下一篇
开通oss服务