从客服场景谈:大模型如何接入业务系统

简介: 本文探讨了大模型在AI客服中的应用。大模型虽具有强大的知识生成能力,但在处理具体业务如订单咨询、物流跟踪等问题时,需结合数据库查询、API调用等手段。文章提出用Function Call连接大模型与业务系统,允许大模型调用函数获取私域知识。通过具体示例展示了如何设计系统提示词、实现多轮对话、定义Function Call函数,并利用RAG技术检索文档内容。最后,展示了该方案在订单查询和产品咨询中的实际效果。

一、前言

过去一年,大模型在各种场合频频刷屏。在业界看来,它是类似于蒸汽机一样的划时代产物,将给每个人、每个企业、每个行业带来全面影响,甚至可能掀起新的一轮工业革命。但是如何将这台”蒸汽机“巧妙的整合到传统的纺纱机上,也是一个十分棘手的问题。本文将以AI客服为例,从开发者的视角探讨大模型的应用问题。

二、技术选型

首先,我们来了解下客服场景常见的一些问题

从上图可以看到,客服面对的大部分问题其实都无法仅依赖大模型本身的知识进行回答。例如订单咨询、物流跟踪等问题,需要查询系统数据库;产品描述、功能咨询等问题,需要从产品说明文档中寻找答案;而处理订单取消、换货服务等流程,得对接电商后端服务的接口。那么我们该如何处理这些问题呢?解决思路是:用自然语言连接用户,用Function Call连接大模型和业务。

Function Call允许大模型在面对私域知识型问题时,输出一个请求调用函数的消息,其中包含所需调用的函数名、以及调用函数时所携带的参数信息。这是一种将大模型与传统应用程序连接起来的新方式,简单来说任何软件能实现的功能都可以包装成一个函数供大模型使用,它所带来的想象空间无比巨大。函数不仅可以封装查询数据库、调用API等流程,甚至可以封装文档RAG流程(检索增强内容生成)。

Function Call使用流程如下所示:

更多资料请参考百炼帮助文档:

https://help.aliyun.com/zh/model-studio/developer-reference/use-qwen-by-calling-api?spm=a2c4g.11186623.0.0.7c101439MaV7kj#7cde05535euty

三、业务数据

为了更直观的描述AI客服的开发过程与运行原理,这里我们先准备业务系统的数据库和产品手册,供大模型解答客户私域知识型问题时使用。

1、数据库

(1)用户表

id

name

gender

user_111113

张三

user_111114

李四

user_111115

王五

(2)产品表

id

name

category

price

stock

document_id

product_111111

Huawei Pura 70 Ultra

手机

9999

20

huawei_pura_70_ultra

product_111112

Huawei Mate 60 Pro+

手机

8999

320

huawei_mate_60_pro

product_111113

Huawei MateBook X Pro

电脑

11199

32

matebook_x_pro

product_111114

Huawei Watch Ultimate Design

手表

21999

3

huawei_watch

(3)订单表

number

time

user_id

product_id

logistics_status

order_111111

2024-07-01 10:00:00

user_111113

product_111111

待发货

order_111112

2024-06-15 10:00:00

user_111113

product_111114

已签收

order_111113

2024-06-26 10:00:00

user_111113

product_111113

运输中,预计7月8日送达,今日快件离开【武汉转运中心】已发往【杭州转运中心】

2、产品文档

四、方案设计

1、项目架构

本项目作为大模型应用的端到端解决方案,采用python Flask框架编写了web后端服务,由阿里云百炼平台Dashscope sdk提供大模型接入能力,以及由开源社区LlamaIndex提供检索增强内容生成的能力。总体框架如下:

其中web前端、web服务、mysql数据库等模块开发属于传统IT强项,资料繁多,本文不做详细介绍。

2、大模型接入

(1)流式输出

用过大模型的同学一定对页面上对话“打字机式”效果非常熟悉:

这是由于大模型并不是一次性生成最终结果,而是逐步地生成中间结果,最终结果由中间结果拼接而成。流式输出可以实时地将中间结果返回,用户可以在模型进行输出的同时进行阅读,减少等待模型回复的时间。

这种一次请求多次返回的通信方式背后,其实是使用了SSE协议(Server Send Events)。SSE 是一种基于 HTTP 连接的服务器推送技术,客户端与服务器初始化好连接后,服务器可以随时向客户端发送内容更新。目前Python、Java、Javascript等主流语言对这种协议都有很好的支持。

(2)多轮对话

为了让AI客服拥有“记忆力”,也就是记住我们聊天上下文的能力,我们需要在问题前面插入对话的历史消息。从百炼的开发文档可以得知,传递给大模型的消息体一般为:

messages = [
    {"role": "system",    "content": "人设"},
    {"role": "user",      "content": "问题a"},
    {"role": "assistant", "content": "回答a"},
    {"role": "user",      "content": '问题b'},
]

但是在使用了Function Call能力后,消息体中也必须含有相关函数调用信息,例如:

messages = [
    {"role": "system",    "content": "人设"},
    {"role": "user",      "content": "问题"},
    {"role": "assistant", "content": "", "tool_calls": [{"function": {"name": "function_name", "arguments": "function_args"}, "id": "", "type": "function"}]},
    {"role": "tool",      "content": "函数调用结果", "name": "function_name"},
    {"role": "assistant", "content": "回答"},
]

若历史消息中漏掉了tool_calls内容将使大模型忽略掉函数返回结果,这点在历史消息缓存模块开发时十分重要,切记!

(3)系统提示词

系统提示词(System Prompt)是引导大模型行为和输出的重要信息,它将直接影响应用程序实际的使用效果,写好提示词是使用大模型很重要的一步。百炼平台提供在线Prompt优化工具,可以将简单的提示词优化得更加专业。

考虑到大模型检索数据库时,可能遇到参数不全的情况,除了让它主动咨询客户外,我们还可以在系统提示词中预置一些关键信息。例如当前咨询客户的姓名、性别、id以及当前时间等,这些信息对于查询用户数据都非常有用

prompt_template = ("任务指令:作为线上百货商城的专业客服,为用户{}(用户ID:{},性别:{})提供全方位咨询服务,当前时间为{}。在利用内置工具函数处理查询请求时,如信息不足,请主动引导用户提供详细信息。"
                   "回答策略:"
                   "1. **主动信息索取**:在需要调用如订单查询等工具功能时,若必要参数(如订单号)缺失,采用友好且明确的语言主动询问:“尊敬的张三,为了快速查询您的信息,请提供一下订单号好吗?”"
                   "2. **精准解答**:基于用户提出的问题,严格参照公司政策与操作流程,结合最新文档内容给予精确解答,避免无关扩展,确保用户问题得到有效解决。"
                   "3. **透明化操作**:在处理用户请求过程中,如需使用特定工具函数,简要告知用户将采取的步骤,增加服务透明度,例如:“我将通过我们的订单查询系统来获取您的订单详情,请稍候。”"
                   "4. **确认与跟进**:解答完毕后,确认用户是否满意解答,并主动询问是否有其他可以帮助的地方,如:“张三先生/女士,您的问题已解答完毕,请问还有其他方面需要我的协助吗?”"
                   "注意事项:"
                   "- 维持专业且亲切的交流风格,确保每一次互动都能提升用户满意度。"
                   "- 对于所有工具函数调用,务必确保在获取足够且准确的参数后再执行,避免因信息不全导致处理错误。 "
                   "- 记录重要咨询细节,以便后续跟踪服务或内部评估使用。")

(4)Function Call

Function Call为大模型的应用开辟了新的路径,使其不仅仅停留于语言理解和生成,还能充分发挥其智能化和自动化的潜力。我们在使用前,需要了解的一个原理是:大模型面对问题时是否需要调用函数是自身思考的结果,因此如何定义函数使大模型能在合适的时机使用显得尤为重要。一方面要对函数的描述信息尽可能的概要详细,包括函数功能、输入参数、参数格式、输出内容的描述;另一方面注意要设计各个函数之间的联动关系,往往一个复杂问题可能调用多个函数,而一个函数的输出信息可能是另一个函数的入参。例如在查订单信息时,我们可以直接通过订单号查询,但是当客户不记得订单号时,我们也可先根据用户id和时间段粗略的查出这段时间所有订单号,再查出订单信息。

tools = [
    {
        "type": "function",
        "function": {
            "name": "get_orders",
            "description": "当你想通过用户id查询一段时间内的订单时非常有用,返回结果包括订单号和商品名称",
            "parameters": {
                "type": "object",
                "properties": {
                    "user_id": {
                        "type": "string",
                        "description": "用户id"
                    },
                    "start_time": {
                        "type": "string",
                        "description": "开始时间,格式为%Y-%m-%d %H:%M:%S"
                    },
                    "end_time": {
                        "type": "string",
                        "description": "结束时间,格式为%Y-%m-%d %H:%M:%S"
                    }
                },
                "required": ["user_id", "start_time", "end_time"]
            }
        }
    },
    {
        "type": "function",
        "function": {
            "name": "get_order",
            "description": "当你想通过订单号查询订单信息时非常有用,返回结果包含物流信息、下单时间以及商品id、名称、类型、价格、文档id等信息",
            "parameters": {
                "type": "object",
                "properties": {
                    "number": {
                        "type": "string",
                        "description": "订单号"
                    }
                },
                "required": ["number"]
            }
        }
    },
    {
        "type": "function",
        "function": {
            "name": "get_product",
            "description": "当你想通过商品名称查询商品信息时非常有用,返回结果包括商品id、商品名称、商品类型、商品价格、商品库存、商品文档id",
            "parameters": {
                "type": "object",
                "properties": {
                    "name": {
                        "type": "string",
                        "description": "商品名称"
                    }
                },
                "required": ["name"]
            }
        }
    },
]
def get_orders(user_id: str, start_time: datetime, end_time: datetime) -> str:
    pass
def get_order(number: str) -> str:
    pass
def get_product(name: str) -> str:
    pass

(5)RAG

RAG的核心思想是通过检索外部知识库中的相关文档段落,并将其纳入大模型的输入中,从而提高生成结果的可靠性和准确性。从工程化角度讲,RAG包含了文档解析、文档切片、构建知识库索引、文档检索、文档召回、内容生成等一系列流程,使用百炼平台可以极大的简化开发者在这些专业领域的开发工作。

首先我们需要将之前准备的产品文档全部上传至百炼数据中心

然后根据产品名称创建不同的知识索引,并在各个产品的知识索引中添加相关的文档,这样我们就完成了文档解析、文档切片以及构建知识库索引。

那么接下来我们该如何根据问题检索知识库呢?百炼结合LlamaIndex开源框架可以帮助我们解决这个问题。

import os
from llama_index.core import Settings
from llama_index.indices.managed.dashscope import DashScopeCloudIndex
from llama_index.llms.dashscope import DashScope
from llama_index.embeddings.dashscope import DashScopeEmbedding
class Rag:
    _instance = None
    @classmethod
    def get_instance(cls):
        if cls._instance is None:
            cls._instance = cls()
        return cls._instance
    def __init__(self):
        llm = DashScope(model_name="qwen-max")
        embed_model = DashScopeEmbedding(model_name="text-embedding-v2", text_type="query")
        Settings.llm = llm
        Settings.embed_model = embed_model
    def query(self, index_name: str, question: str) -> str:
        index = DashScopeCloudIndex(name=index_name)
        query_engine = index.as_query_engine()
        answer = query_engine.query(question)
        return str(answer)

最后我们还要解决RAG与Function Call结合使用的问题,需要将RAG包装为一个函数供大模型使用。

tools = [
    {
        "type": "function",
        "function": {
            "name": "retrieving_documents",
            "description": "当你想通过商品文档id查询商品参数或功能使用说明时非常有用,返回结果为问题查询得到的答案",
            "parameters": {
                "type": "object",
                "properties": {
                    "document_id": {
                        "type": "string",
                        "description": "文档id,该值只能通过其他function查询得到"
                    },
                    "question": {
                        "type": "string",
                        "description": "问题描述,比如:该产品电池容量多大?"
                    }
                },
                "required": ["document_id", "question"]
            }
        }
    }
]
def retrieving_documents(document_id: str, question: str) -> str:
    return Rag.get_instance().query(index_name=document_id, question=question)

五、效果展示

1、订单及物流咨询

2、售前产品咨询

六、工程代码

https://github.com/dashscope/dash-cookbook/tree/develop/examples/EndToEndSolutions/CustomerServiceRobot



相关文章
|
14天前
|
机器学习/深度学习 自然语言处理 搜索推荐
深度分析 | 2024主流的智能客服系统有哪些?他们是怎么实现的?
本文深入探讨了智能客服系统的使用方法和相关技术实现逻辑,涵盖前端交互、服务接入、逻辑处理、数据存储四大层面,以及自然语言处理、机器学习、语音识别与合成、数据分析与挖掘、知识库管理和智能推荐系统等核心技术,帮助企业更好地理解和应用智能客服系统,提升服务效率和客户满意度。
81 1
|
2月前
|
存储 自然语言处理 机器人
实战揭秘:当RAG遇上企业客服系统——从案例出发剖析Retrieval-Augmented Generation技术的真实表现与应用局限,带你深入了解背后的技术细节与解决方案
【10月更文挑战第3天】随着自然语言处理技术的进步,结合检索与生成能力的RAG技术被广泛应用于多个领域,通过访问外部知识源提升生成内容的准确性和上下文一致性。本文通过具体案例探讨RAG技术的优势与局限,并提供实用建议。例如,一家初创公司利用LangChain框架搭建基于RAG的聊天机器人,以自动化FAQ系统减轻客服团队工作负担。尽管该系统在处理简单问题时表现出色,但在面对复杂或多步骤问题时存在局限。此外,RAG系统的性能高度依赖于训练数据的质量和范围。因此,企业在采用RAG技术时需综合评估需求和技术局限性,合理规划技术栈,并辅以必要的人工干预和监督机制。
166 3
|
21天前
|
人工智能 开发者
【阅读十分钟,百分百成功】——通过大模型实现对客服回答的质量评估
本文章基于业务实践,总结有关客服质检场景的解决方案和处理经验,为相似场景提供可行的借鉴方法。
120 16
|
24天前
|
存储 人工智能 运维
最新榜单 | 盘点2024年10大主流工单系统
随着互联网的发展,工单系统因其多样化功能和高效管理能力,成为企业运营的重要工具。本文介绍了10大主流工单系统,包括合力亿捷、阿里云服务中台、华为云ROMA ServiceCore等,它们各具特色,帮助企业提升服务质量和运营效率,实现数字化转型。
45 7
|
2月前
|
人工智能 自然语言处理 搜索推荐
AI技术在智能客服系统中的应用与挑战
【9月更文挑战第32天】本文将探讨AI技术在智能客服系统中的应用及其面临的挑战。我们将分析AI技术如何改变传统客服模式,提高服务质量和效率,并讨论在实际应用中可能遇到的问题和解决方案。
330 65
|
1月前
|
自然语言处理 数据可视化 搜索推荐
构建一个基于通义千问的智能客服系统
公司开发一个智能客服系统,帮助用户快速找到他们需要的商品信息、解决问题,并提供个性化的购物建议。系统需要能够处理大量的用户提问,并以自然语言的形式给出准确的回答。
77 1
|
1月前
|
存储 人工智能 数据可视化
高效率,低成本!且看阿里云AI大模型如何帮助企业提升客服质量和销售转化率
在数字化时代,企业面临海量客户对话数据处理的挑战。阿里云推出的“AI大模型助力客户对话分析”解决方案,通过先进的AI技术和智能化分析,帮助企业精准识别客户意图、发现服务质量问题,并生成详尽的分析报告和可视化数据。该方案采用按需付费模式,有效降低企业运营成本,提升客服质量和销售转化率。
高效率,低成本!且看阿里云AI大模型如何帮助企业提升客服质量和销售转化率
|
1月前
|
Rust 前端开发 JavaScript
Wasm在即时通讯IM场景下的Web端应用性能提升初探
简单的来说,Wasm就是使用C/C++/Rust等语言编写的代码,经过编译后得到汇编指令,再通过JavaScript相关API将文件加载到Web容器中(即运行在Web容器中的汇编代码)。Wasm是一种可移植、体积小、加载快速的二进制格式,可以将各种编程语言的代码编译成Wasm模块,这些模块可以在现代浏览器中直接运行。尤其在涉及到GPU或CPU计算时优势相对比较明显。
36 0
|
1月前
|
人工智能 自然语言处理 算法
Jarvis×百炼,打造大模型智慧出行客服
本次分享由哈啰集团高级算法专家郭佳盛主讲,主题为“Jarvis×百炼,打造大模型智慧出行客服”。内容涵盖AI在智慧出行领域的应用探索、AI加持客服全链路解决方案、哈罗智能客服的大模型应用、大模型在C端与B端的应用探索,以及企业内部大模型构建与运营。通过实例和经验分享,展示了哈啰如何将大模型应用于实际业务,提升用户体验和运营效率。
|
3月前
|
人工智能 自然语言处理 搜索推荐
如何让智能客服像真人一样对话?容联七陌揭秘:多Agent大模型
科技云报到原创。 经历了多年的“答非所问”、“一问三不知”,很多人已经厌倦了所谓的“智能客服”。哪怕是技术已经非常成熟、可以模拟真人发音的外呼机器人,也会因为“机感”重而被用户迅速挂机或转向人工客服。 智能客服似乎遇到了一道坎,在理解用户、和用户对话方面,始终无法实现真正的“智能”。然而大模型技术的出现,让智能客服看到了前所未有的曙光——基于大模型特有的生成式技术和智能的涌现,让智能客服越来越逼近人们想象中的样子。 但问题是,仅有大模型就够了吗?大模型技术要如何引入智能客服才能落地?落地后的大模型究竟如何在智能客服具体场景中发挥作用?又能为客服行业带来了哪些改变?更进一步,对于企业和
283 1
如何让智能客服像真人一样对话?容联七陌揭秘:多Agent大模型

热门文章

最新文章