重构销售话术和知识库,容联云找到了大模型的“钉子”

简介: 大模型解决营销效能之痛

科技云报道原创。

从ChatGPT诞生起,大模型在营销、客服等场景的落地就被予以众望。然而在经历了一年多的“百模大战”洗礼之后,人们发现无论是算力成本还是内容生成的安全合规问题,都让大模型很难直接应用于机器与人对话的实际业务中。

这其中有很多挑战,不仅仅来自算力、资金、技术,更大的问题来自行业落地。有人戏称现在的大模型是“拿着锤子找钉子”,即便是销售和客服这样的热门场景,也依然在探索大模型这把“锤子”能锤好哪些“钉子”。

目前业界普遍的共识是,现阶段的大模型无法完全替代人力,但作为人类工作的强大辅助工具,能够显著提升效率,在销售和客服领域亦是如此。但大模型到底怎么做,从哪里切入,才能为销售和客服业务带来真正的智能化,实现效率的飞跃?

这是所有相关厂商都在思考的问题,谁先找到这颗“钉子”,谁就能在大模型行业落地上撕开一个口子。而现在,这颗“钉子”被容联云率先发现了。
微信图片_20240325093050.jpg

大模型解决营销效能之痛

在流量红利渐渐枯竭的今天,精细化运营已成为企业的共识。面对消费者们个性化的需求,企业也希望自己的销售和客服团队能够“千人千面”,以更好地推动销售转化,或快速解决客户诉求。

然而现实并没有想象中美好,很多销售和客服隔着屏幕或电话的“在线沟通”,很难让消费者产生“冲动”,一部分客服的一问一答,轻轻松松就能“聊走”客户。

面对这种情况,企业也觉得很冤枉,明明为销售和客服团队提供了良好的培训,也通过数字化技术为不同类型客户分配了不同的客服资源,为什么销售转化率就是上不去?

这里面的核心问题其实在于话术和知识库。

销售话术就如同一套精心编排的“沟通战术”,它能够指导销售人员如何向客户介绍产品、如何精准捕捉客户需求、何时采取何种策略以触动客户购买意愿,从而完成销售目标,可以说是企业抢占商机的“决胜武器”。

但好的销售话术,并不是通过所谓的“金牌销售”话术总结,就可以让整个团队“一套话术走天下”。无论是竞争环境、法律法规、业务规则,还是客户需求、客户画像,都处在动态变化中,因此对于话术和知识库的总结,需要针对数量众多的一线“金牌销售”话术和业务人员的知识经验,不断地进行提炼,并及时地更新和沉淀。

不仅如此,与客户的沟通过程也不是一成不变的,如何在复杂的沟通场景中灵活使用这些话术,也是销售和客服团队面临的一大难题。

在过去,很多科技企业都尝试用大数据和AI技术来解决这些问题,但是由于AI小模型的局限性,缺乏对自然语言的理解和分析能力,对于会话、知识等非结构性数据的处理停留在关键词和规则的匹配上。这就导致很难穷举客户的回答,话术和知识库的推荐也只能基于关键词触发,客户沟通整体比较僵化。

然而AI大模型的出现,让话术和知识库的提炼、沉淀、洞察有了全新突破的可能性。大模型具备更加精准的语义理解能力和更强大的自然语言生成能力,可以从多个维度提升营销工作的效率和质量,比如:基于海量历史会话数据生成金牌话术;快速构建话术库;分析客户诉求;精准诊断问题并优化等等,从而有效解决传统营销低效的问题。

容联云敏锐地发现了这一核心痛点与AI大模型的交集,从而也率先在业内找到了大模型落地的切入口——旗下基于自研赤兔大模型的生成式应用容犀Copilot,正是这样一款提升营销效率的利器。

容犀Copilot销售和客服的“实时AI领航员”

据容联云产业数字云事业群副总经理孔淼介绍,容犀Copilot集“全链路数据+大小模型+分析洞察”于一体,在每一次的服务与营销场景中,实时根据企业与客户产生的会话数据与业务数据,结合“聚焦客户联络全场景的大小模型”与“会话洞察”能力,产出金牌沟通策略。

简单而言,容犀Copilot主要有三大核心功能:

话术挖掘

容犀Copilot后台一键快速对海量历史会话数据进行核对筛选,挑选出优质话术并生成金牌话术,兼顾质与量的同时,挖掘出客户高频关注的问题,从问题中洞悉业务痛点。

智能知识库

帮助企业从零开始、低成本地快速构建话术库,包括理解文档知识、知识快搜、智能问答等,大幅提升构建效率。

会话洞察

高效便捷洞察每一通会话沟通情况,分析客户诉求,精准诊断问题并优化。

从市面上看,已有产品推出了类似功能,那么这款全新的容犀Copilot有什么不同?更让人好奇的是,有了大模型加持的容犀Copilot,表现到底如何?

以“话术挖掘”为例,过去企业想要做话术挖掘全靠人力,培训师面对销售和客服几十万小时的会话录音,最多只能听几十段录音,再从中找出好的会话进行话术总结,显然这并既不能解决话术的量,也不能保证话术的质。

但是有了容犀Copilot,企业可以提前接入客服、企微、营销通话等各个沟通渠道的数据,并结合不同的销售和客服团队的场景和业务目标,通过简单的配置就可以利用大模型能力对这些海量会话数据进行分钟级的金牌话术挖掘。

这些金牌话术并不停留在“术”的层面,包括客户的情绪、立场、正反馈、诉求,都能够被容犀Copilot挖掘出来,从而有针对性地给出优质话术,以推进销售转化等业务目标。

金牌话术只是一个结果,背后往往是客户关注的问题。对此,容犀Copilot的“会话洞察”,能够从海量的会话中找到客户高频关注的问题,将问题进行聚类分析,找到未被关注的客户关注点,一键快速生成高频问题洞察,从而自动总结出问题所对应的策略,提供给销售和客服团队。

例如,某客户想申请信用卡分期,当客服告知利率之后,客户就不想申请了。之前客服只能靠自我发挥去和客户沟通,但是现在有了容犀Copilot给到的个性化策略和话术,客服就能够为客户推荐相应的优惠活动来挽留、安抚客户,或者建议客户加入企业微信、社群等私域,以提高成单转化率。

再比如“搭建知识库”,这是几乎所有企业都面临的难题,一是知识比较分散,二是不同的文档、不同的知识库很难统一。

在传统的FAQ搭建和维护中,为了覆盖更广泛的用户意图范围,实现知识库的统一,需要大量专业的人才拆解文档、编写大量相似的问题、生成QA、再扩展标准、投入到一线中,整个过程耗费大量的人力和时间成本,一个周期可能会持续3-6个月。

但是在容犀Copilot的助力下,就可以通过大模型自动拆解文档段落,基于语义自动调取知识点,对知识进行汇集和管理。整个过程只需要一个普通的业务人员操作,建设周期从几个月缩短到分钟级,在效率上有一个巨大的提升。

一个典型的例子是,某股份制银行过去构建IT规范知识库,光文档素材就高达几个T,整个构建过程花费了80人、2个月左右的时间。但现在基于容犀Copilot,只需要1个人、1天的时间,就完成了知识库的搭建,准确率从85%提升至89%。

事实上,大部分企业并没有像这家大型银行一样,有专门的人力来构建和管理知识库,而没有知识和话术沉淀的企业很难从0到1。但容犀Copilot的出现,让企业不用再依赖专业人员,也不用再担心耗费巨大的人力和时间成本,知识库的搭建和管理变得非常简单。

这是因为容犀Copilot是以容联云自研赤兔大模型为底座,通过预置很多行业场景模型,控制了大模型的幻觉、内容安全等问题,使得容犀Copilot具备了常识和一定的行业知识。当容犀Copilot利用大模型的能力时,不仅可以对文档知识进行分钟级拆解,还能对内容进行自动扩展、自动化的智能问答,再通过人工审核,建立的知识库就能做到非常多的场景覆盖,来提升前端的咨询体验和后端的转化效率。

不仅如此,容犀Copilot还能够在知识快搜和智能问答场景上,为知识库带来全新的体验。

过去业务人员想在知识库里找内容,只能通过关键词做检索,结果往往并不精准。但是现在基于容犀Copilot,可以用问答式的方式去做语义理解,给出更为准确和高效的回答,还可以显示背后的文档来源和大模型的总结。

而智能问答作为补充,可以让一线业务人员通过问答的方式,从用户的视角去模拟反馈,提出一些之前话术没有挖掘出来、文档没有检索到的优秀话术,从而很好地为一线人员赋能。

用容联云产业数字云事业群副总经理孔淼的话说,“容犀Copilot是通过知识创造价值,让企业知识转化成价值的效率更高和更快”。

容联云以大模型重构营销价值

目前,容犀Copilot已应用在多家金融机构的各类业务场景中,如:银行智能客服、荐卡、分期;保险智能客服、续保、续期、理赔;证券智能客服、投顾、合规、开户等,也已在制造、汽车、零售等行业场景中进行测试。

相较于“一窝蜂”扎堆入场AI大模型却难以落地的玩家来说,容联云已率先找到了大模型的“钉子”——通过大模型知识库、话术挖掘、会话洞察的能力,解决营销人员水平参差不齐、金牌方法论难以复用等痛点,提升营销效率,为客户打造差异化和个性化体验。

作为智能销售和客服领域的领头羊,容联云保持了一贯的稳扎稳打的技术风格,以及深耕行业的业务能力。这也是为什么在大模型技术门槛一次次被拉低的当下,容联云依然能够领跑垂直大模型、推出极具商业价值产品的原因。

从技术上看,早在深度学习阶段,容联云就已在全方位布局AI,涵盖前沿底层技术储备、AI小模型技术与to B输出,有了大量积累。面对大模型这一波AI技术浪潮,容联云也第一时间跟进,推出了自研赤兔大模型,并形成了非常完善的大小模型协同进化的能力。

在此之上,容联云拥有接入全链路、全域数据的能力,进一步提升了AI对全流程沟通数据的分析和洞察能力,从而更好地实现业务价值的提升。

从产业实践来看,容联云也是一个不折不扣的“行业老兵”。过去多年服务过上千家行业头部客户,其中包括上百家金融机构,有着丰富的行业经验和to B服务能力,这成为容联云在大模型竞争中脱颖而出的底气。

最重要的是,尽管高喊“所有行业都值得用大模型重做一遍”的企业不在少数,但真的能将大模型用起来、落地到业务中的企业却屈指可数。除了需要投入高昂的人力、金钱、时间,更大的挑战在于业务know-how——懂技术的不懂行业业务,懂业务的不懂技术。

正如容联云产业数字云事业群副总经理孔淼所说,在各行业实际业务中,业务场景、流程管理都是非常灵活的,大模型的落地其实依赖于对业务场景的理解,只有知道大模型工具“谁来用、怎么用、何时用”,才能够真的将技术和产品交付出去。

而容联云团队用的就是“笨办法”,整天和客户一线业务人员“泡”在一起,跟着客户把业务梳理清楚,先理解了客户业务,再去思考技术和业务如何结合落地。这样的苦功夫也换来了实实在在的效果,在实际应用中,容犀Copilot的效果比业内很多大厂的大模型更好。

“大模型并不是更大就更强,很多大模型是用公开数据训练的,能突破原来小模型的泛化能力瓶颈,而行业客户的数据很多是私有数据,以及应用场景上有很多knowhow,需要针对性优化,在回答的专业性、准确性以及覆盖率上会更好”。孔淼表示,容犀Copilot因为服务了很多行业客户,合作很深,对于他们的业务场景和业务要求更理解,沉淀了更多的Prompt,所以在大模型的训练和推理上能够产出更好的效果。

随着容犀Copilot服务的行业客户越多,其大模型落地的效果就越好,由此技术和商业也形成正循环,构建起容联云在大模型时代新的竞争壁垒。而那些敢于喝“头啖汤”、愿意与容联云这样的头部服务商通力合作的行业客户,也将最先吃到大模型的技术红利,获得营销效率的巨大提升,走向真正的业务数智化。

结语

毫无疑问,AI大模型技术并不能实现“一招鲜、吃遍天”,场景落地才是技术发展的关键。在“技术奇点”来临时,总有一大波的逐利者蜂拥而上形成泡沫,但不能踏实地研发底层技术和落地业务场景的他们,会在泡沫破灭时被淘汰出局。而像容联云这样的认真做技术、做场景落地的实力派终将浮出水面,在更长的周期中获得更丰厚的回报。

【关于科技云报道】

专注于原创的企业级内容行家——科技云报道。成立于2015年,是前沿企业级IT领域Top10媒体。获工信部权威认可,可信云、全球云计算大会官方指定传播媒体之一。深入原创报道云计算、大数据、人工智能、区块链等领域。

相关文章
|
6月前
|
数据可视化 安全 关系型数据库
写给工程师的 MacBook 商用级大模型知识库部署方案(上)
写给工程师的 MacBook 商用级大模型知识库部署方案(上)
567 2
|
28天前
|
机器学习/深度学习 数据采集 人工智能
文档智能 & RAG 让AI大模型更懂业务 —— 阿里云LLM知识库解决方案评测
随着数字化转型的深入,企业对文档管理和知识提取的需求日益增长。阿里云推出的文档智能 & RAG(Retrieval-Augmented Generation)解决方案,通过高效的内容清洗、向量化处理、精准的问答召回和灵活的Prompt设计,帮助企业构建强大的LLM知识库,显著提升企业级文档管理的效率和准确性。
|
3天前
|
机器学习/深度学习 人工智能 自然语言处理
人工智能与模型知识库在移动医疗产品中的落地应用
在现代医疗体系中,通义千问大模型与MaxKB知识库的结合,为医生和患者提供了前所未有的支持与便利。该系统通过实时问答、临床决策辅助、个性化学习和患者教育等功能,显著提升了诊疗效率和患者满意度。实际应用如乐问医学APP展示了其强大优势,但数据隐私和安全问题仍需关注。
21 0
|
1月前
|
机器学习/深度学习 数据采集 人工智能
大模型体验报告:阿里云文档智能 & RAG结合构建LLM知识库
大模型体验报告:阿里云文档智能 & RAG结合构建LLM知识库
|
5月前
|
人工智能 Linux Docker
一文详解几种常见本地大模型个人知识库工具部署、微调及对比选型(1)
近年来,大模型在AI领域崭露头角,成为技术创新的重要驱动力。从AlphaGo的胜利到GPT系列的推出,大模型展现出了强大的语言生成、理解和多任务处理能力,预示着智能化转型的新阶段。然而,要将大模型的潜力转化为实际生产力,需要克服理论到实践的鸿沟,实现从实验室到现实世界的落地应用。阿里云去年在云栖大会上发布了一系列基于通义大模型的创新应用,标志着大模型技术开始走向大规模商业化和产业化。这些应用展示了大模型在交通、电力、金融、政务、教育等多个行业的广阔应用前景,并揭示了构建具有行业特色的“行业大模型”这一趋势,大模型知识库概念随之诞生。
139124 30
|
6月前
|
机器人 Linux API
基于Ollama+AnythingLLM轻松打造本地大模型知识库
Ollama是开源工具,简化了在本地运行大型语言模型(ile优化模型运行,支持GPU使用和热加载。它轻量、易用,可在Mac和Linux上通过Docker快速部署。AnythingLLM是Mintplex Labs的文档聊天机器人,支持多用户、多种文档格式,提供对话和查询模式,内置向量数据库,可高效管理大模型和文档。它也是开源的,能与Ollama结合使用,提供安全、低成本的LLM体验。这两款工具旨在促进本地高效利用和管理LLMs。
147128 32
|
4月前
|
Ubuntu API 数据安全/隐私保护
告别信息搜寻烦恼:用fastgpt快速部署国内大模型知识库助手
告别信息搜寻烦恼:用fastgpt快速部署国内大模型知识库助手
417 0
|
6月前
|
自然语言处理 API 开发工具
基于LangChain-Chatchat实现的本地知识库的问答应用-快速上手(检索增强生成(RAG)大模型)
基于LangChain-Chatchat实现的本地知识库的问答应用-快速上手(检索增强生成(RAG)大模型)
基于LangChain-Chatchat实现的本地知识库的问答应用-快速上手(检索增强生成(RAG)大模型)
|
5月前
|
人工智能 小程序 机器人
开源一个RAG大模型本地知识库问答机器人-ChatWiki
准备工作 再安装ChatWiki之前,您需要准备一台具有联网功能的linux服务器,并确保服务器满足最低系统要求 • Cpu:最低需要2 Core • RAM:最低需要4GB 开始安装 ChatWiki社区版基于Docker部署,请先确保服务器已经安装好Docker。如果没有安装,可以通过以下命令安装:
302 0
|
6月前
|
人工智能
本地离线部署大模型知识库OLLAMA+Anything(保姆级)
本地离线部署大模型知识库OLLAMA+Anything(保姆级)
2795 2

热门文章

最新文章