【业务数据分析】——如何搭建数据指标体系

简介: 【业务数据分析】——如何搭建数据指标体系

一、数据埋点


数据埋点我们可以分成两类,其一是页面统计,其二是行为统计。


页面统计可以帮我们知晓某个页面被多少人访问了多少次。行为统计是指用户在界面上的操作行为,应用最为广泛的便是按钮的点击次数。


还有一个用户属性埋点,主要是记录用户相关的信息。


埋点就是在关键页面,路径中收集用户的行为,做统计分析使用。前台在代码中提前写好了。


埋点指在需要采集数据的“操作节点”将数据采集的程序代码附加在功能程序代码中;


操作节点:一般是触发具有重要意义的事件:按钮的点击、页面的打开、页面的分享等。


埋点的方式:


第一种:自己公司的研发人员在产品中注入代码来统计,通常有客户端埋点和后台埋点。


第二种:第三方统计工具,如友盟、神策、Talkingdata、GrowingIO等。


二、数据埋点的作用


埋点是为了对产品进行全方位的持续追踪,通过数据分析不断指导优化产品。数据埋点的质量直接影响数据、产品、运营等的质量。


C端做埋点主要还是关注用户的行为路径,不断优化找出问题,提高留存,转化;


B端的埋点关注功能使用情况,判断某个功能在某个时间段的使用场景,使用次数逐渐下降的就可以考虑考虑给他干掉了。


c159fc40a72bb8235da3847674111590.png


三、设计埋点方案


简单概括下就是:


1、明确埋点目标 2、确认上报变量 3、明确上报时机 4、明确优先级。


1.明确埋点目标

每一个埋点的需求都是为了解决某个业务的需求,所以在写埋点方案时,需要明确这次方案是为了上报什么具体的数据。这个数据是为了解决业务方的什么具体需求,这些数据的上报大概可以带来哪些业务收益。


2.确认上报变量

上报变量主要是由事件和其他参数变量组成的,其中事件是必须的,用于标识这一次具体的操作。事件的上报主要用于捕捉用户的行为,知道用户具体操作了哪一个按钮、访问了哪一个页面、滑动了哪一个页面等。


3.明确上报时机

事件的触发时机,往往是影响数据准确性的重要因素。以用户的点击行为为例,如要统计用户点赞行为,我们是在用户点击点赞按钮时上报还是在用户成功点赞后上报,其结果是有偏差的。


4.明确优先级

一般情况下,我们会同时提出多个埋点需求,这时就需要规划好这些埋点需求的优先级。提交给开发人员后,他们可以根据优先级来调整。埋点的优先级主要是根据上报数据的重要性及紧急性确定的。比如,版本功能的需求埋点,埋点优先级较高的是基础指标的统计,用户的操作行为明细略微低一点。因为每次发版的新功能,业务侧最先关注的是基础指标,例如多少人用了这个功能、用的频次等,我们需要保证基础的数据指标齐全,其次才是深入分析所需要的数据。


四、搭建方法:OSM模型、UJM模型、AARRR模型


简单的概括下就是:


1.分析需求,2.根据需求拆分指标,3.根据指标确定埋点,4.设计数据需求文档;5.指标开发。


下面是不同的步骤,不同的公司步骤不一定相同。比如产品、运营、数据分析师、开发测试团队各个分工不同。


8c0ecd6b8c0a4779bb22550bb46b3127.png


数据指标体系的搭建是数据驱动的第一步。


1、OSM模型

OSM模型可以把业务的目标和对应的衡量评估的指标对应起来。


ee5d5786615d420497c12fa2bfb76d90.png


在制订业务目标时,除了要与业务方达成一致,还要保证业务目标符合以下4个原则,即DUMB原则:(1)切实可行(Doable)(2)易于理解(Understandable)(3)可干预、可管理(Manageable)(4)正向的、有益的(Beneficial)。


OSM模型的数据指标框架可以把目标和最终评估的数据体系连接起来,做到每一个指标的设定都知道是为了评估哪一个具体业务的策略效果,每一个业务的策略效果是怎么为总体目标服务的。


2、UJM模型

UJM模型是为了梳理用户的行为旅程地图,因为数据指标体系是与用户行为直接相关的,完整科学地梳理好用户的整个行为旅程,才可以在每一个环节设计相对应的指标。


UJM(User Journey Map,用户旅程地图)指的是用户在APP中的操作路径。以电商平台为例,用户购买一个商品的完整的UJM。


b60946198f1d79d2d40fd052624ba14e.png


我们以跨境独立站电商为例,首要先梳理清楚用户旅途:了解商品→在平台逛→心仪商品→注册登录→付费下单→复购。然后根据用户旅途去分析每个旅途节点的用户行为是什么,业务目标是什么,有什么和用户的接触点,在旅途中有什么问题,并针对这些问题找出机会点,最后根据机会点寻求合适的衡量指标。最终结果如上图所示。


3、AARRR模型

AARRR模型 主要从5个方面完整刻画一个APP,包括用户获取、用户活跃、用户留存、用户变现、用户推荐。任何APP的用户都会经历这5个阶段,同时这5个阶段也是业务方关注的。


4520351346db4d2781a04f41781ddd7f.png


用户获取:指利用外部投放广告,通过用户社交转发裂变、用户推荐、大V转发等进行用户获取。用户获取是一个用户到达一个APP,开始使用一个APP最开始的步骤。以拼多多为例,用户获取就是拼多多发布很多广告或者活动让用户来下载APP。


用户活跃:当获取到一个新的用户后要使用户在APP中活跃起来。


用户留存:留存就是用户可以持续地留在我们的APP中。当用户在APP上活跃以后,下一步就是让用户能够持续活跃,这也就是留存的定义。


用户变现:指的是利用用户来产生收入。当用户对APP产生一定的黏性后,我们最终的目的是希望在用户保持增长的同时提高收入,例如在电商类APP购买商品。


用户推荐:用户转发传播APP。用户的转发行为表示用户对APP有极高的认可,同时转发行为可以带来更多新用户的增长。


参考内容:


规划数据指标体系方法


数据埋点-什么是埋点? - 简书


《数据分析方法和业务实战》


更多博客:

【数据分析】————面试总结

【业务数据分析】——数据指标和数据指标体系

目录
相关文章
|
2月前
|
数据挖掘 PyTorch TensorFlow
|
30天前
|
机器学习/深度学习 人工智能 搜索推荐
某A保险公司的 数据图表和数据分析
某A保险公司的 数据图表和数据分析
55 0
某A保险公司的 数据图表和数据分析
|
3月前
|
数据采集 DataWorks 数据挖掘
提升数据分析效率:DataWorks在企业级数据治理中的应用
【8月更文第25天】本文将探讨阿里巴巴云的DataWorks平台如何通过建立统一的数据标准、规范以及实现数据质量监控和元数据管理来提高企业的数据分析效率。我们将通过具体的案例研究和技术实践来展示DataWorks如何简化数据处理流程,减少成本,并加速业务决策。
430 54
|
1月前
|
机器学习/深度学习 数据采集 数据可视化
如何理解数据分析及数据的预处理,分析建模,可视化
如何理解数据分析及数据的预处理,分析建模,可视化
49 0
|
2月前
|
机器学习/深度学习 数据挖掘 TensorFlow
🔍揭秘Python数据分析奥秘,TensorFlow助力解锁数据背后的亿万商机
【9月更文挑战第11天】在信息爆炸的时代,数据如沉睡的宝藏,等待发掘。Python以简洁的语法和丰富的库生态成为数据分析的首选,而TensorFlow则为深度学习赋能,助你洞察数据核心,解锁商机。通过Pandas库,我们可以轻松处理结构化数据,进行统计分析和可视化;TensorFlow则能构建复杂的神经网络模型,捕捉非线性关系,提升预测准确性。两者的结合,让你在商业竞争中脱颖而出,把握市场脉搏,释放数据的无限价值。以下是使用Pandas进行简单数据分析的示例:
42 5
|
3月前
|
存储 数据挖掘 数据处理
DataFrame探索之旅:如何一眼洞察数据本质,提升你的数据分析能力?
【8月更文挑战第22天】本文通过电商用户订单数据的案例,展示了如何使用Python的pandas库查看DataFrame信息。首先导入数据并使用`head()`, `columns`, `shape`, `describe()`, 和 `dtypes` 方法来快速概览数据的基本特征。接着,通过对数据进行分组操作计算每位顾客的平均订单金额,以此展示初步数据分析的过程。掌握这些技能对于高效的数据分析至关重要。
41 2
|
3月前
|
数据采集 机器学习/深度学习 算法
"揭秘数据质量自动化的秘密武器:机器学习模型如何精准捕捉数据中的‘隐形陷阱’,让你的数据分析无懈可击?"
【8月更文挑战第20天】随着大数据成为核心资源,数据质量直接影响机器学习模型的准确性和效果。传统的人工审查方法效率低且易错。本文介绍如何运用机器学习自动化评估数据质量,解决缺失值、异常值等问题,提升模型训练效率和预测准确性。通过Python和scikit-learn示例展示了异常值检测的过程,最后强调在自动化评估的同时结合人工审查的重要性。
91 2
|
2月前
|
机器学习/深度学习 数据挖掘 TensorFlow
从数据小白到AI专家:Python数据分析与TensorFlow/PyTorch深度学习的蜕变之路
【9月更文挑战第10天】从数据新手成长为AI专家,需先掌握Python基础语法,并学会使用NumPy和Pandas进行数据分析。接着,通过Matplotlib和Seaborn实现数据可视化,最后利用TensorFlow或PyTorch探索深度学习。这一过程涉及从数据清洗、可视化到构建神经网络的多个步骤,每一步都需不断实践与学习。借助Python的强大功能及各类库的支持,你能逐步解锁数据的深层价值。
65 0
|
3月前
|
数据采集 数据可视化 算法
GitHub星标68K!Python数据分析入门手册带你从数据获取到可视化
Python作为一门优秀的编程语言,近年来受到很多编程爱好者的青睐。一是因为Python本身具有简捷优美、易学易用的特点;二是由于互联网的飞速发展,我们正迎来大数据的时代,而Python 无论是在数据的采集与处理方面,还是在数据分析与可视化方面都有独特的优势。我们可以利用 Python 便捷地开展与数据相关的项目,以很低的学习成本快速完成项目的研究。
|
3月前
|
供应链 数据可视化 数据挖掘
【python】python省市水资源数据分析可视化(源码+数据)【独一无二】
【python】python省市水资源数据分析可视化(源码+数据)【独一无二】