数据分析实战 | 探寻销售额下降的原因

简介: 数据分析实战 | 探寻销售额下降的原因

场景描述


某公司经营的一款 APP 小游戏,每月销售额稳定上涨,但是在 7 月却突然下降,无论从市场环境或是游戏本身的环境来看,这个游戏的销售额都还有继续增长的空间 ,影响该游戏销售额的主要影响因素可能有两点:

  • 游戏活动上新
  • 商业宣传力度更改

经了解发现

  • 游戏活动与上月活动并无较大改变
  • 由于预算紧缺,宣传力度有所下降

接下来我们会根据数据分析来证实上述结论,并提出恢复销售额的方法。


数据描述


DAU(Daily Active User)

每天至少来访 1 次的用户数据,139112 行。

字段 类型 含义
log_date str 访问时间
app_name str 应用名
user_id numpy.int64 用户 ID
DPU(Daily Payment User)

每天至少消费 1 日元的用户数据(0.056 元),884 行。

字段 类型 含义
log_date str 访问时间
app_name str 应用名
user_id numpy.int64 用户 ID
payment numpy.int64 消费金额
Install

记录每个用户首次登录游戏的时间,29329 行。

字段 类型 含义
install_date str 首次登录时间
app_name str 应用名
user_id numpy.int64 用户 ID


数据分析


数据读取

读取三个数据集。

import pandas as pd
DAU_data = pd.read_csv('DAU.csv')
DPU_data = pd.read_csv('DPU.csv')
install_data = pd.read_csv('install.csv')
复制代码


显示 DAU 数据集前五行。

DAU_data.head()
复制代码

image.png

显示 DPU 数据集前五行。

DPU_data.head()
复制代码

image.png

显示 Install 数据集前五行。

install_data.head()
复制代码

image.png


数据合并

将每日活跃用户数据 DAU 与用户首次登录数据 Install 进行合并,将 user_idapp_name 作为参照 key。这样就可以得到用户的首次登录时间。

all_data = pd.merge(DAU_data,
                    install_data,
                    on=['user_id', 'app_name'])
all_data.head()
复制代码

image.png

得到用户首次登录时间后,再与每日消费用户数据 DPU 进行合并,使用左连接的方式,保留 all_data 中的所有数据,缺失值默认为 NaN

all_data = pd.merge(all_data,
                    DPU_data,
                    on=['log_date', 'app_name', 'user_id'],
                    how='left')
all_data.head()
复制代码

image.png


数据处理

payment 列中的空值填充为 0。

all_data['payment'] = all_data['payment'].fillna('0')
all_data
复制代码

image.png

payment 列的单位转换为元,log_dateinstall_date 都只保留月份即可。

all_data['payment'] = all_data['payment'].astype(float)
all_data['payment'] = all_data['payment'] * 0.056
all_data['log_date'] = pd.to_datetime(all_data['log_date']).map(lambda x : x.strftime("%m")[1] + '月')
all_data['install_date'] = pd.to_datetime(all_data['install_date']).map(lambda x : x.strftime("%m")[1] + '月')
all_data.head()
复制代码

image.png


新老用户划分

登录月份 > 首次登录月份 的用户定义为老用户,其他则定义为新用户。

all_data['user'] = all_data['log_date'] > all_data['install_date']
all_data['user'] = all_data['user'].map({False: '新用户', True: '老用户'})
all_data.head()
复制代码

image.png

按照 log_date, user 分组对 payment 求和,统计各月新老用户的带来的销售额。

user_category = all_data.groupby(['log_date', 'user'])['payment'].sum().reset_index()
user_category.head()
复制代码

image.png

image.png

可以看到 6 月和 7 月的老用户带来的销售额基本相同,但 7 月新用户带来的销售额明显少于 6 月。


将销售额划分区域,看看哪个层次的用户消费在减少。

import numpy as np
sale_df = all_data.loc[all_data['payment'] > 0, ['log_date', 'payment']].copy()
bins = list(range(0, 101, 30)) + [np.inf]
labels = [str(n) + '-' + str(n + 30) for n in bins[:-2]] + ['>90']
sale_df['payment_cut'] = sale_df['payment'].apply(lambda x : pd.cut([x], bins=bins, labels=labels)[0])
sale_df.head()
复制代码

image.png

image.png

根据上面柱状图可以看出,和 6 月相比,7 月消费额在 60 元以下的用户数量减少了一部分。

到此我们就可以得到一些结论。


结论


新用户中的产生消费的用户发生了减少,特别是消费金额较少的小额消费用户。因此,公司需要再次开展商业宣传活动并恢复到之前的水平,这样才有可能提升潜在用户对公司产品的认知度,增加新的用户。



相关文章
|
10天前
|
数据可视化 数据挖掘 Linux
震撼发布!Python数据分析师必学,Matplotlib与Seaborn数据可视化实战全攻略!
在数据科学领域,数据可视化是连接数据与洞察的桥梁,能让复杂的关系变得直观。本文通过实战案例,介绍Python数据分析师必备的Matplotlib与Seaborn两大可视化工具。首先,通过Matplotlib绘制基本折线图;接着,使用Seaborn绘制统计分布图;最后,结合两者在同一图表中展示数据分布与趋势,帮助你提升数据可视化技能,更好地讲述数据故事。
26 1
|
1天前
|
SQL 数据采集 数据可视化
深入 Python 数据分析:高级技术与实战应用
本文系统地介绍了Python在高级数据分析中的应用,涵盖数据读取、预处理、探索及可视化等关键环节,并详细展示了聚类分析、PCA、时间序列分析等高级技术。通过实际案例,帮助读者掌握解决复杂问题的方法,提升数据分析技能。使用pandas、matplotlib、seaborn及sklearn等库,提供了丰富的代码示例,便于实践操作。
101 64
|
7天前
|
数据挖掘 Python
Pandas实战(3):电商购物用户行为数据分析
Pandas实战(3):电商购物用户行为数据分析
23 1
|
7天前
|
数据挖掘 Python
Pandas实战(2):电商购物用户行为数据分析
Pandas实战(2):电商购物用户行为数据分析
19 1
|
7天前
|
数据挖掘 Python
Pandas实战(1):电商购物用户行为数据分析
Pandas实战(1):电商购物用户行为数据分析
20 1
|
7天前
|
数据挖掘 Python
Pandas数据分析实战(2):2023美国财富1000强公司情况
Pandas数据分析实战(2):2023美国财富1000强公司情况
18 0
|
7天前
|
数据采集 数据挖掘 Python
Pandas数据分析实战(1):2023美国财富1000强公司情况
Pandas数据分析实战(1):2023美国财富1000强公司情况
20 0
|
16天前
|
机器学习/深度学习 数据挖掘 TensorFlow
解锁Python数据分析新技能,TensorFlow&PyTorch双引擎驱动深度学习实战盛宴
在数据驱动时代,Python凭借简洁的语法和强大的库支持,成为数据分析与机器学习的首选语言。Pandas和NumPy是Python数据分析的基础,前者提供高效的数据处理工具,后者则支持科学计算。TensorFlow与PyTorch作为深度学习领域的两大框架,助力数据科学家构建复杂神经网络,挖掘数据深层价值。通过Python打下的坚实基础,结合TensorFlow和PyTorch的强大功能,我们能在数据科学领域探索无限可能,解决复杂问题并推动科研进步。
38 0
|
2月前
|
前端开发 Java JSON
Struts 2携手AngularJS与React:探索企业级后端与现代前端框架的完美融合之道
【8月更文挑战第31天】随着Web应用复杂性的提升,前端技术日新月异。AngularJS和React作为主流前端框架,凭借强大的数据绑定和组件化能力,显著提升了开发动态及交互式Web应用的效率。同时,Struts 2 以其出色的性能和丰富的功能,成为众多Java开发者构建企业级应用的首选后端框架。本文探讨了如何将 Struts 2 与 AngularJS 和 React 整合,以充分发挥前后端各自优势,构建更强大、灵活的 Web 应用。
41 0
|
2月前
|
SQL 数据采集 算法
【电商数据分析利器】SQL实战项目大揭秘:手把手教你构建用户行为分析系统,从数据建模到精准营销的全方位指南!
【8月更文挑战第31天】随着电商行业的快速发展,用户行为分析的重要性日益凸显。本实战项目将指导你使用 SQL 构建电商平台用户行为分析系统,涵盖数据建模、采集、处理与分析等环节。文章详细介绍了数据库设计、测试数据插入及多种行为分析方法,如购买频次统计、商品销售排名、用户活跃时间段分析和留存率计算,帮助电商企业深入了解用户行为并优化业务策略。通过这些步骤,你将掌握利用 SQL 进行大数据分析的关键技术。
53 0

热门文章

最新文章

下一篇
无影云桌面