python客户的流失率分析和预测

简介: python客户的流失率分析和预测

1  一、实验目的

1.1  1、掌握逻辑回归的模型及分类模型评估指标。

1.2  2、掌握决策树分类模型。

2  二、实验内容

2.1  1、本次实验是电信客户的流失率分析和预测。

2.2  2、通过分析用户的套餐、通话、流量、行为、合约、关联购买、使用月数等情况。

2.3  3、对用户是否会流失进行分析,并预测一些用户的流失可能性。

2.4  4、后期可以根据用户所关联的情况,推出一些新的政策或活动进行挽留。

3  三、 实验流程

使用 python 建立逻辑回归分类模型,主要分为以下几个步骤完成:

3.1  1、加载数据,查看数据大小,数据形式

1. import pandas as pd 
2. data=pd.read_excel("./data/实验3data.xlsx")# 加载数据
3. data.shape# 查看数据大小
data.head()# 查看数据形式

3.2  2、异常值处理(额外通话时长,额外流量)

1. data.额外通话时长[data.额外通话时长<=0]=0
2. data.额外流量[data.额外流量<=0]=0
3. print(data["额外流量"])
4. print(data["额外通话时长"])
5. data

3.3  3、删除用户 ID 列,查看数据是否存在 Null

1. data.drop('ID',axis=1,inplace=True)
2. data

3.4  4、查看数据类型

data.dtypes# 查看数据类型

3.5  5、查看数据基本信息

data.info()         # 打印摘要
data.describe()      # 描述性统计信息
data.values          # 数据 <ndarray>
data.to_numpy()       # 数据 <ndarray> (推荐)
data.shape           # 形状 (行数, 列数)
data.columns         # 列标签 <Index>
1. data.columns.values  # 列标签 <ndarray>
2.
data.index           # 行标签 <Index>
data.index.values    # 行标签 <ndarray>
data.head(5)         # 前n行
data.tail(5)       # 尾n行
data.memory_usage()                # 占用内存(字节B)

3.6  6、计算流失用户比例,并画饼图

1. User_info=data.groupby(by="流失用户")["流失用户"].count()
2. User_info=pd.DataFrame(User_info)
3. User_info
1. import pyecharts.options as opts
2. from pyecharts.charts import Pie
3. 
4. x_data = [ "流失", "未流失"]
5. y_data = [3146,882]
6. 
7. c=(
8.     Pie(init_opts=opts.InitOpts(width="160px", height="100px"))
9.     .add(
10.         series_name="访问来源",
11.         data_pair=[list(z) for z in zip(x_data, y_data)],
12.         radius=["50%", "70%"],
13.         label_opts=opts.LabelOpts(is_show=False, position="center"),
14.     )
15.     .set_global_opts(legend_opts=opts.LegendOpts(pos_left="legft", orient="vertical"))
16.     .set_series_opts(
17.         tooltip_opts=opts.TooltipOpts(
18.             trigger="item", formatter="{a} <br/>{b}: {c} ({d}%)"
19.         ),
20. # label_opts=opts.LabelOpts(formatter="{b}: {c}")
21.     )
22. #     .render("doughnut_chart.html")
23. 
24. )
25. c.render_notebook()

3.7  7、分类统计套餐金额、改变行为、服务合约、关联购买、集团用户、流失用户数量,并画条形图

In [23]:

1. Tc_info=data.groupby(by=["套餐金额","流失用户"])["流失用户"].count()
2. Tc_info=pd.DataFrame(Tc_info)
3. Tc_info
1. Change_info=data.groupby(by=["改变行为","流失用户"])["流失用户"].count()
2. Change_info=pd.DataFrame(Change_info)
3. Change_info
1. Server_info=data.groupby(by=["服务合约","流失用户"])["流失用户"].count()
2. Server_info=pd.DataFrame(Server_info)
3. Server_info
1. Relevance_info=data.groupby(by=["关联购买","流失用户"])["流失用户"].count()
2. Relevance_info=pd.DataFrame(Relevance_info)
3. Relevance_info
1. 
2. import numpy as np 
3. r=np.array(Relevance_info)
4. list_t=r[::2]
5. list_f=r[1::2]
6. list_t.tolist()
1. Group_info=data.groupby(by=["集团用户","流失用户"])["流失用户"].count()
2. Group_info=pd.DataFrame(Group_info)
3. Group_info
4. # Group_info["流失用户"]

3.8  8、画出套餐金额、改变行为、服务合约、关联购买、集团用户与流失用户对比关系条形图

1. from pyecharts.charts import Bar
2. from pyecharts.faker import Faker
3. from pyecharts.globals import ThemeType
4. 
5. c = (
6.     Bar({"套餐金额与客户流失条形图": ThemeType.MACARONS})
7.     .add_xaxis(['套餐金额:1','套餐金额:2','套餐金额:3'])
8.     .add_yaxis("流失", [3065,76,5])
9.     .add_yaxis("未流失",[756,106,20])
10.     .set_global_opts(
11.         title_opts={"text": "套餐金额与客户流失条形图", "subtext": "各套餐中流失与未流失"}
12.     )
13. #      .render("套餐金额与客户流失条形图.html") 
14. )
15. c.render_notebook()

后期补上建模评估,模型改进部分,感谢理解!


相关文章
|
7天前
|
数据采集 缓存 定位技术
网络延迟对Python爬虫速度的影响分析
网络延迟对Python爬虫速度的影响分析
|
24天前
|
数据采集 JSON 数据处理
抓取和分析JSON数据:使用Python构建数据处理管道
在大数据时代,电商网站如亚马逊、京东等成为数据采集的重要来源。本文介绍如何使用Python结合代理IP、多线程等技术,高效、隐秘地抓取并处理电商网站的JSON数据。通过爬虫代理服务,模拟真实用户行为,提升抓取效率和稳定性。示例代码展示了如何抓取亚马逊商品信息并进行解析。
抓取和分析JSON数据:使用Python构建数据处理管道
|
9天前
|
数据采集 存储 JSON
Python爬虫开发中的分析与方案制定
Python爬虫开发中的分析与方案制定
|
16天前
|
数据可视化 开发者 Python
Python GUI开发:Tkinter与PyQt的实战应用与对比分析
【10月更文挑战第26天】本文介绍了Python中两种常用的GUI工具包——Tkinter和PyQt。Tkinter内置于Python标准库,适合初学者快速上手,提供基本的GUI组件和方法。PyQt基于Qt库,功能强大且灵活,适用于创建复杂的GUI应用程序。通过实战示例和对比分析,帮助开发者选择合适的工具包以满足项目需求。
59 7
|
1月前
|
数据可视化 算法 Python
基于OpenFOAM和Python的流场动态模态分解:从数据提取到POD-DMD分析
本文介绍了如何利用Python脚本结合动态模态分解(DMD)技术,分析从OpenFOAM模拟中提取的二维切片数据,以深入理解流体动力学现象。通过PyVista库处理VTK格式的模拟数据,进行POD和DMD分析,揭示流场中的主要能量结构及动态特征。此方法为研究复杂流动系统提供了有力工具。
66 2
基于OpenFOAM和Python的流场动态模态分解:从数据提取到POD-DMD分析
|
15天前
|
存储 数据处理 Python
Python科学计算:NumPy与SciPy的高效数据处理与分析
【10月更文挑战第27天】在科学计算和数据分析领域,Python凭借简洁的语法和强大的库支持广受欢迎。NumPy和SciPy作为Python科学计算的两大基石,提供了高效的数据处理和分析工具。NumPy的核心功能是N维数组对象(ndarray),支持高效的大型数据集操作;SciPy则在此基础上提供了线性代数、信号处理、优化和统计分析等多种科学计算工具。结合使用NumPy和SciPy,可以显著提升数据处理和分析的效率,使Python成为科学计算和数据分析的首选语言。
25 3
|
16天前
|
存储 机器学习/深度学习 算法
Python科学计算:NumPy与SciPy的高效数据处理与分析
【10月更文挑战第26天】NumPy和SciPy是Python科学计算领域的两大核心库。NumPy提供高效的多维数组对象和丰富的数学函数,而SciPy则在此基础上提供了更多高级的科学计算功能,如数值积分、优化和统计等。两者结合使Python在科学计算中具有极高的效率和广泛的应用。
31 2
|
21天前
|
数据采集 机器学习/深度学习 搜索推荐
Python自动化:关键词密度分析与搜索引擎优化
Python自动化:关键词密度分析与搜索引擎优化
|
22天前
|
数据可视化 算法 JavaScript
基于图论的时间序列数据平稳性与连通性分析:利用图形、数学和 Python 揭示时间序列数据中的隐藏模式
本文探讨了如何利用图论分析时间序列数据的平稳性和连通性。通过将时间序列数据转换为图结构,计算片段间的相似性,并构建连通图,可以揭示数据中的隐藏模式。文章介绍了平稳性的概念,提出了基于图的平稳性度量,并展示了图分区在可视化平稳性中的应用。此外,还模拟了不同平稳性和非平稳性程度的信号,分析了图度量的变化,为时间序列数据分析提供了新视角。
50 0
基于图论的时间序列数据平稳性与连通性分析:利用图形、数学和 Python 揭示时间序列数据中的隐藏模式
|
1月前
|
自然语言处理 算法 数据挖掘
探讨如何利用Python中的NLP工具,从被动收集到主动分析文本数据的过程
【10月更文挑战第11天】本文介绍了自然语言处理(NLP)在文本分析中的应用,从被动收集到主动分析的过程。通过Python代码示例,详细展示了文本预处理、特征提取、情感分析和主题建模等关键技术,帮助读者理解如何有效利用NLP工具进行文本数据分析。
46 2