拥抱Data+AI|B站引入阿里云DMS+X,利用AI赋能运营效率10倍提升

本文涉及的产品
RDS PostgreSQL Serverless,0.5-4RCU 50GB 3个月
推荐场景:
对影评进行热评分析
数据管理 DMS,安全协同 3个实例 3个月
推荐场景:
学生管理系统数据库
阿里云百炼推荐规格 ADB PostgreSQL,4核16GB 100GB 1个月
简介: 本篇文章针对B站在运营场景中的痛点,深入探讨如何利用阿里云Data+AI解决方案实现智能问数服务,赋能平台用户和运营人员提升自助取数和分析能力,提高价值交付效率的同时为数据平台减负。

导 语

本文为数据库「拥抱Data+AI」系列连载第4篇,该系列是阿里云瑶池数据库面向各行业Data+AI应用场景,基于真实客户案例&最佳实践,展示Data+AI行业解决方案的连载文章。


本篇文章针对B站在运营场景中的痛点,深入探讨如何利用阿里云Data+AI解决方案实现智能问数服务,赋能平台用户和运营人员提升自助取数和分析能力,提高价值交付效率的同时为数据平台减负。


往期内容推荐:

《大咖说|Data+AI:企业智能化转型的核心驱动力》

《如何破解电商7大挑战?DMS+AnalyticDB助力企业智能决策》

《玩家去哪儿了?解码Data+AI如何助力游戏日志智能分析》

《“全球第一”雅迪如何实现智能营销?DMS+PolarDB注入数据新活力》

公司及业务介绍

B站(Bilibili)是一个以中国年轻人为核心的文化社区和视频平台,它最初是专注于ACG(动画、漫画、游戏)及其相关领域。如今,B站已经成为中国范围内最受欢迎的视频分享网站之一,内容覆盖了动画、番剧、国创、音乐、舞蹈、游戏、科技、生活、鬼畜、娱乐、时尚等多个领域。


B站从2016年就开始与阿里云合作,双方的合作范围非常广泛,从内容的智能分发,让内容和观看需求高效匹配,到资源的弹性伸缩,满足例如全球电竞直播赛事的弹性支撑,再到全托管云原生数据仓库,轻松实现多业务线日志采集、高效的离线及实时分析、机器学习等复杂需求,挖掘数据价值。


基于双方长期的合作经验,B站在多个业务板块使用了阿里云全套解决方案,其中B站猫耳FM业务通过引入阿里云AnalyticDB MySQL湖仓版,替换原有开源离在线数据仓库,大幅降低数据仓库运维成本,并利用分时弹性能力实现资源按需伸缩,实现资源高效利用。目前,猫耳FM业务实现数据离在线处理效率从原来的 T+1 或 H+1 大幅提升至毫秒级,支撑打赏榜排名实时刷新,提升用户参与积极性,通过提高广播剧的评论/弹幕活跃度,促进用户停留时长与付费转化。

业务需求和挑战

随着猫耳FM整体业务的快速增长,为了进一步提升主播和平台的运营能力,猫耳FM数据平台团队推出了一系列运营工具,但在实际使用过程中面临以下需求和挑战:


1、分析门槛高。大多数主播不具备运营分析能力,也没有专业的运营团队,难以借助数据实现分析和洞察,更无法针对数据情况做出有效应对。

2、数据交付效率低。平台业务变化快,运营需求多样,数据平台团队被各种数据需求折腾得晕头转向,疲于奔命,却仍然有需求累积,无法及时满足业务侧的数据交付要求。

3、实时分析与成本的平衡。直播业务实时性分析要求高,虽然已通过AnalyticDB MySQL实现在线实时分析,但相当一部分业务分析需求无法实现实时,但这些需求如果都采用数仓承接又会导致成本较高,得不偿失。


为了应对上述挑战,猫耳FM数据团队积极探索解决方案,随着大模型的兴起,团队发现借助大模型能力实现自然语言分析,能够大幅降低分析门槛,提高数据交付效率,实现业务分析需求实时,从而满足当下的需求。但大模型在企业中的落地处于探索验证状态,同时需要底层大量基础设施的支持(大模型、算力等),无法保证ROI。因此猫耳找到阿里云瑶池数据库团队,期望借助于阿里云的Data+AI解决方案来实现自然语言分析,提升主播和平台的运营能力。

阿里云Data+AI解决方案

在今年9月云栖大会上,阿里云瑶池数据库重磅发布“DMS+X:统一、开放、多模的Data+AI数据管理服务”(X即云原生数据库PolarDB、云原生数据仓库AnalyticDB、云原生多模数据库Lindorm等多样化的数据存储、分析、计算、AI引擎)。该平台通过OneMetaOneOps两大创新,简化了数据管理与AI开发,实现DMS+X一站式的Data+AI全生命周期管理。在DMS+X之上,阿里云将助力企业数据以最快的速度拥抱AI,落地业务,产生价值。

image.png

猫耳FM目前核心业务数据存储在RDSAnalyticDB MySQL中,数据管理统一通过DMS实现,因此通过对引擎AI节点扩容即可快速实现从数据开发管理到Data+AI开发管理的升级,轻松获得大模型应用的基础和服务能力。DMS+X内置了多种基于大模型构建的应用服务供用户选择使用,其中采用大小模型结合的智能问数服务能够解决猫耳FM的核心诉求。

image.png

DMS+X为企业提供开箱即用的智能问数服务,无需复杂配置即可通过自然语言获得想要的数据和报表,同时提供调优服务,能够从初始65%准确率提升至95%,满足各类问数场景(取数、数据统计、业务运营、线索分析等),猫耳FM通过智能问数服务获得以下收益:


1、大幅降低分析门槛。智能问数服务支持多轮对话,无论是主播还是平台运营人员都能够轻松获取想要的数据,并且问数服务还能根据历史知识、大模型能力结合实际数据情况提供可参考的处理方案,以及这些处理方案对应需要观测的评估指标,方便相关人员构建问数、建议、监测的运营闭环。


2、数据交付效率提升10倍。有了智能问数服务,猫耳FM数据平台的开发人员仅需结合领域和场景构建问数Agent,并根据Agent对客的服务反馈来进行知识优化提升准确性即可,无需花费过多的时间在数据准备上,业务侧仅需通过自然语言即可获得准确数据,实现数据交付效率10倍提升。


3、低成本实现实时分析。智能问数服务可跨越多个引擎,根据历史访问知识自动路由访问路径,无需数据移动即可实现实时分析,降低存储和传输成本,覆盖更多业务实时分析场景。


那么DMS+X到底是如何构建出准确性如此之高的智能问数服务的呢?接下来为您详细揭晓:

能力一:大小模型结合的智能问数服务

image.png

智能问数核心技术架构是通过大模型实现意图、语义、验证相关工作,小模型进行Copilot能力推理,结合DMS主动元数据实现自动化的知识积累,大模型保证Copilot能力下限(65%+)的同时通过小模型不断提升上限(95%+)。大小模型结合使得生成式AI的整体成本可控、延迟较低、泛化能力强的同时准确率高。

能力二:领域化的知识管理服务

image.png

DMS+X提供强大的知识管理服务,通过对历史用户操作(SQL、功能使用等)、已有知识导入、字段注释等内容进行自动化的解析生成各类知识,实现主动的知识获取,这些知识有场景和领域属性,能够供管理人员进行优化调整,并会结合实际服务情况进行自动优化,确保知识的准确性和自主维护性,领域知识库为智能问数提供强大的知识支持,冷启动效率提升5倍,知识管理成本下降90%,服务准确性提升100%。

能力三:X引擎InDB ML

image.png

阿里云瑶池数据库自带InDB ML能力,内置模型创建、模型训练、模型状态监测、模型评估和模型推理能力,实现在线数据的模型训练和推理服务,并且内置了一系列机器学习和人工智能算法,包括分类算法、回归算法和聚类算法等。数据实现就近处理,大幅提升模型服务效率和实时性,同时无需数据移动,也能够降低由此产生的存储和传输成本。

能力四:可自定义编排的LLM工作流

image.png

DMS+X托管开源大模型工具链Dify,实现生态打通,提供白屏化的大模型工作流编排,支持用户结合实际诉求对大模型应用进行优化调整,串联从用户请求到意图识别模型再实现分发至多个应用执行链路的完整流程,为智能问数提供了无限可能,比如通过智能问数查询获得数据结果后自动触发后续的监控预警操作、处置动作等。

总结与展望

阿里云Data+AI解决方案为B站猫耳FM实现智能问数服务,大幅降低分析门槛、数据交付效率提升10倍的同时实现低成本实时分析,赋能平台主播和运营人员实现自助取数和分析。在DMS+X 4大核心能力加持下,智能问数服务不仅实现准确率95%+,还能够降低数据存储和传输成本,并且可通过自定义编排的大模型应用实现自主优化,不断提升场景适配能力。


未来,借助阿里云Data+AI解决方案的可自定义编排的LLM工作流以及不断提供的解决方案,不仅能够实现智能问数的拓展应用(各种运营动作触发或建议提供),还能够通过大模型方案解决企业经营的各项问题,从而提升经营效率,加速企业智能化转型,为企业发展带来新的动力。


🎁 点击链接获取Data+AI解决方案,我们将为您提供专家咨询服务。前50位咨询并且扫描下方二维码加入交流群的小伙伴还将获得 精美礼品 一份,先到先得!

image.png

*图片仅供参考,最终以实际发放礼品为准

image.png

欢迎加入「阿里云 Data+AI 用户交流群」钉钉搜索群号“79045023716”或扫描上方二维码即可入群

相关文章
|
1天前
|
人工智能 自动驾驶 大数据
预告 | 阿里云邀您参加2024中国生成式AI大会上海站,马上报名
大会以“智能跃进 创造无限”为主题,设置主会场峰会、分会场研讨会及展览区,聚焦大模型、AI Infra等热点议题。阿里云智算集群产品解决方案负责人丛培岩将出席并发表《高性能智算集群设计思考与实践》主题演讲。观众报名现已开放。
|
18天前
|
存储 人工智能 弹性计算
阿里云弹性计算_加速计算专场精华概览 | 2024云栖大会回顾
2024年9月19-21日,2024云栖大会在杭州云栖小镇举行,阿里云智能集团资深技术专家、异构计算产品技术负责人王超等多位产品、技术专家,共同带来了题为《AI Infra的前沿技术与应用实践》的专场session。本次专场重点介绍了阿里云AI Infra 产品架构与技术能力,及用户如何使用阿里云灵骏产品进行AI大模型开发、训练和应用。围绕当下大模型训练和推理的技术难点,专家们分享了如何在阿里云上实现稳定、高效、经济的大模型训练,并通过多个客户案例展示了云上大模型训练的显著优势。
|
21天前
|
存储 人工智能 调度
阿里云吴结生:高性能计算持续创新,响应数据+AI时代的多元化负载需求
在数字化转型的大潮中,每家公司都在积极探索如何利用数据驱动业务增长,而AI技术的快速发展更是加速了这一进程。
|
13天前
|
并行计算 前端开发 物联网
全网首发!真·从0到1!万字长文带你入门Qwen2.5-Coder——介绍、体验、本地部署及简单微调
2024年11月12日,阿里云通义大模型团队正式开源通义千问代码模型全系列,包括6款Qwen2.5-Coder模型,每个规模包含Base和Instruct两个版本。其中32B尺寸的旗舰代码模型在多项基准评测中取得开源最佳成绩,成为全球最强开源代码模型,多项关键能力超越GPT-4o。Qwen2.5-Coder具备强大、多样和实用等优点,通过持续训练,结合源代码、文本代码混合数据及合成数据,显著提升了代码生成、推理和修复等核心任务的性能。此外,该模型还支持多种编程语言,并在人类偏好对齐方面表现出色。本文为周周的奇妙编程原创,阿里云社区首发,未经同意不得转载。
|
6天前
|
人工智能 自然语言处理 前端开发
100个降噪蓝牙耳机免费领,用通义灵码从 0 开始打造一个完整APP
打开手机,录制下你完成的代码效果,发布到你的社交媒体,前 100 个@玺哥超Carry、@通义灵码的粉丝,可以免费获得一个降噪蓝牙耳机。
3538 13
|
25天前
|
缓存 监控 Linux
Python 实时获取Linux服务器信息
Python 实时获取Linux服务器信息
|
11天前
|
人工智能 自然语言处理 前端开发
什么?!通义千问也可以在线开发应用了?!
阿里巴巴推出的通义千问,是一个超大规模语言模型,旨在高效处理信息和生成创意内容。它不仅能在创意文案、办公助理、学习助手等领域提供丰富交互体验,还支持定制化解决方案。近日,通义千问推出代码模式,基于Qwen2.5-Coder模型,用户即使不懂编程也能用自然语言生成应用,如个人简历、2048小游戏等。该模式通过预置模板和灵活的自定义选项,极大简化了应用开发过程,助力用户快速实现创意。
|
13天前
|
人工智能 自然语言处理 前端开发
用通义灵码,从 0 开始打造一个完整APP,无需编程经验就可以完成
通义灵码携手科技博主@玺哥超carry 打造全网第一个完整的、面向普通人的自然语言编程教程。完全使用 AI,再配合简单易懂的方法,只要你会打字,就能真正做出一个完整的应用。本教程完全免费,而且为大家准备了 100 个降噪蓝牙耳机,送给前 100 个完成的粉丝。获奖的方式非常简单,只要你跟着教程完成第一课的内容就能获得。
5703 10
|
7天前
|
人工智能 C++ iOS开发
ollama + qwen2.5-coder + VS Code + Continue 实现本地AI 辅助写代码
本文介绍在Apple M4 MacOS环境下搭建Ollama和qwen2.5-coder模型的过程。首先通过官网或Brew安装Ollama,然后下载qwen2.5-coder模型,可通过终端命令`ollama run qwen2.5-coder`启动模型进行测试。最后,在VS Code中安装Continue插件,并配置qwen2.5-coder模型用于代码开发辅助。
578 4
|
10天前
|
云安全 人工智能 自然语言处理

热门文章

最新文章

下一篇
无影云桌面