意图的演变

简介: 在过去中,nlp快速发展的几年中,Intents 随着业务落地,不同行业对意图的理解也有所变化。意图是对话系统中,一个重之重的一个环节,每个行业中对意图理解的重视也有道理的。在任何对话的开始阶段,意图起着关键的分类作用,帮助聊天机器人了解用户想要什么,并作出响应。当前很多对话系统中,由于意图太过僵化,因此需要寻找一些解决方案。有两种方法可以解决这个问题。第一种方法意图弃用:是将意图变得更加灵活,不再和特定的实体和对话流相关联,而是让意图更容易与用户交互。第二种方法是意图增强:通过使用机器学习和其他技术来提高意图的准确度和可用性,使其更精确和强大

介绍

趁chatgpt还有一些热度,今天复习一下意图的演变。

在过去中,nlp快速发展的几年中,Intents 随着业务落地,不同行业对意图的理解也有所变化。

意图是对话系统中,一个重之重的一个环节,每个行业中对意图理解的重视也有道理的。在任何对话的开始阶段,意图起着关键的分类作用,帮助聊天机器人了解用户想要什么,并作出响应。

当前很多对话系统中,由于意图太过僵化,因此需要寻找一些解决方案。有两种方法可以解决这个问题。第一种方法意图弃用:是将意图变得更加灵活,不再和特定的实体和对话流相关联,而是让意图更容易与用户交互。第二种方法是意图增强:通过使用机器学习和其他技术来提高意图的准确度和可用性,使其更精确和强大。两种方法都都是为了让意图更加灵活和准确,以更好地服务于用户。

  • 意图放弃
是指在意图检测过程中,删除不再使用或者不再有意义的意图。这样做的目的是提高意图检测的准确度,减少无用的干扰,使虚拟助手更好地理解用户的需求。
  • 意图增强
是指在意图检测过程中,为原有的意图添加新的信息或者关联关系,以使虚拟助手更好地理解用户话语的意图。例如,可以为“订购干炒牛河”这个意图添加“配料”、“辣度”等实体信息,以便更准确地捕捉用户的需求。

弃用意图的活动是:

  1. Microsoft Power Virtual Agents:微软提供的虚拟助手服务,可以帮助用户通过自然语言与机器人进行交互,并根据用户话语的意图做出相应的回复。
  2. IBM Watson Action Skills:IBM提供的技能服务,可以帮助用户与智能设备进行交互,实现更多的操作。
  3. Alexa Conversations:亚马逊提供的对话服务,可以帮助用户与智能设备进行交互,并根据用户话语的意图做出相应的回复。
  4. Rasa End-To-End Training:Rasa提供的端到端训练服务,可以帮助用户训练机器人模型,使其更好地理解用户话语的意图。

这个概念受到了限制,并没有得到广泛的实施,绝对不是我因为的智能对话的趋势。相反,我尝试讲将功能建立在意图之上。将复杂性和对话管理转移到其他领域,例如对话状态管理,并将其纳入意图之中。

以下是用于增强意图的一些个人经验。

意图增强

NLU 的意图部分实际上是一个意图名称的列表,每个意图用一个名称和一个定义该意图的话语字典表示(请不要把以为是关键字或关键词列表)。

因此,将结构构建到意图中,并模糊意图和其他聊天机器人组件之间的界限。意图是指聊天机器人的操作,例如提供信息或执行特定的操作。将结构构建到意图中,可以帮助聊天机器人更好地理解用户的意图,并且模糊界限可以使聊天机器人的操作更加流畅。

我尝试过以下方式增强意图:

  • 意图与特定实体相关联。
  • 意图与对话流的特定部分相关联。
  • 可以为意图设置权重:根据业务需求,可将不同意图设置不一样的权重。
  • 意图可以打开和关闭。
  • 快速回复可以与意图相关联。单轮对话位于意图内。
  • 意图可以拖放、拆分、合并。
  • 意图是分层的,嵌套等。
  • 主题的概念,表示一个或多个意图,实体和流的集合。
  • 可以上传数据用于意图检测,新的话语会自动与现有意图相关联,为新意图形成聚类。
  • 可以为意图设定阈值:根据业务需求,可将不同意图设置不一样的阈值。
  • 如果未达到阈值,可以在意图内设置确认请求。
  • 意图用于自动消歧菜单。
  • 存在导入话语和测试意图的结构,以了解用户所说的内容。

(系统包括:Cognigy,Kore AI,IBM Watson Assistant,Oracle Digital Assistant,Nuance Mix,AWS Lex V2,Rasa,HumanFirst)

通常,语音助手由一个或多个技能组成。这些技能又由对话状态管理系统和NLU组成。对话状态管理又由基于条件管理对话状态和保存机器人回复两部分组成。

意图和实体构成了NLU。意图可以看作动词,实体可以看作名词。这些部分共同作用,帮助虚拟助手理解用户的话语,并根据意图和实体的不同组合做出相应的回复。…

目录
相关文章
|
2天前
|
机器学习/深度学习 人工智能 算法
从数据增强的隐藏作用出发,揭示视觉强化学习可塑性损失的独特机制
【10月更文挑战第22天】视觉强化学习(VRL)通过智能体与环境的交互学习最优策略,但可塑性损失是其关键挑战。近期一篇论文《Revisiting Plasticity in Visual Reinforcement Learning: Data, Modules and Training Stages》通过实证研究,揭示了数据增强、评论家可塑性损失及早期干预在维持智能体可塑性方面的作用,并提出了一种动态调整重放率的方法,为解决高重放率困境提供了新思路。
8 2
|
3月前
|
人工智能 算法 前端开发
打破传统叙事逻辑,构建基于原子化任务的人机交互
在复杂中后台设计中,为解决配置变更影响多场景问题,提出结合正向和逆向信息架构,采用原子化任务,动态组合任务,降低用户和开发成本,优化体验并改变已有的产品迭代和人机交互模式。未来可能发展为AI自动根据业务规则和用户行为生成最佳方案。
|
6月前
|
机器学习/深度学习 人工智能 自然语言处理
【大模型】如何向非技术受众解释LLM的概念及其能力?
【5月更文挑战第7天】【大模型】如何向非技术受众解释LLM的概念及其能力?
|
6月前
|
运维 前端开发 JavaScript
平台设计-概念澄清说明
平台所说模块一般指一个独立部署的前端项目
|
6月前
|
人工智能 安全 人机交互
Sora的四大局限性
【2月更文挑战第16天】Sora的四大局限性
188 3
Sora的四大局限性
|
机器学习/深度学习 人工智能 自然语言处理
模型的价值观需重视,文本理解与文本生成能力有待提高
随着算力的不断提高,NLP成为新时代人工智能的突破点——“大模型”。大模型之大不仅在于模型的大小之大,而且所用的训练数据集之大。如今,大模型在各行各业中逐渐落地,实现多场景应用。人们比较注重于LLM模型的语言文本理解、文本生成能力。在使用了阿里云多个模型的评测当中,有一些思考与建议。
模型的价值观需重视,文本理解与文本生成能力有待提高
|
机器学习/深度学习 人工智能 缓存
谈谈LLM在推荐域的渗透,探索推荐新范式
搜索慢慢的被大模型渗透,那么很自然很多人想到了推荐,但是推荐是不是真的可以被大模型渗透呢?大模型能改变推荐的范式吗?
|
自然语言处理 算法 测试技术
思维链如何释放语言模型的隐藏能力?最新理论研究揭示其背后奥秘
思维链如何释放语言模型的隐藏能力?最新理论研究揭示其背后奥秘
301 0
|
机器学习/深度学习 人工智能 算法
大型语言模型教会智能体进化,OpenAI这项研究揭示了二者的互补关系
大型语言模型教会智能体进化,OpenAI这项研究揭示了二者的互补关系
162 0
|
机器学习/深度学习 人工智能 自然语言处理
如何解释AI做出的决策?一文梳理算法应用场景和可解释性(1)
如何解释AI做出的决策?一文梳理算法应用场景和可解释性
401 0