【数据挖掘实战】——航空公司客户价值分析(K-Means聚类案例)

简介: 项目地址:Datamining_project: 数据挖掘实战项目代码

一、背景和挖掘目标


在企业的客户关系管理中,对客户分类,区分不同价值的客户。针对不同价值的客户提供个性化服务方案,采取不同营销策略,将有限营销资源集中于高价值客户,实现企业利润最大化目标。

在竞争激烈的航空市场里,很多航空公司都推出了优惠的营销方式来吸引更多的客户。在此种环境下,如何将公司有限的资源充分利用,提示企业竞争力,为企业带来更多的利益。


1、RFM模型缺点分析

广泛用于分析客户价值的是 RFM 模型,它 是通过三个指标(最近消费时间间隔 (Recency) 、消费频率 (Frequency) 、消费金额 (Monetary) )来进行客户细分,识别出高价值的客户 。如果分析航空公司客户价值,此模型不再适用,存在一些缺陷和不足:9b726667f3514711b03db64f5d98ecf9.png在模型中,消费金额表示在一段时间内,客业产品金额的总和。因航空票价受到运输距离、舱位等级等多种因素影响,同样消费金额的不同旅客对航空公司的价值是不同的。因此这个指标并不适合用于航空公司的客户价值分析。


传统模型分析是利用属性分箱方法进行分析如图,但是此方法细分的客户群太多,需要一一识别客户特征和行为,提高了针对性营销的成本。


2、原始数据情况

99c44027944b45a88d68191ed4ce5ca5.png

ca8f57564673475ca64b18ae9fc8229b.png

#导包importnumpyasnpimportpandasaspdimportmatplotlib.pyplotaspltfromsklearn.clusterimportKMeansfromsklearnimportpreprocessingimportwarningswarnings.filterwarnings('ignore') #忽略警告plt.rcParams['font.sans-serif'] = ['SimHei'] #解决中文显示plt.rcParams['axes.unicode_minus'] =False#解决符号无法显示data=pd.read_csv('air_data.csv', sep=',',encoding='ANSI')  #encoding='gbk'data


3、挖掘目标

  • 借助航空公司客户数据,对客户进行分类;
  • 对不同的客户类别进行特征分析,比较不同类客户的客户价值;
  • 对不同价值的客户类别提供个性化服务,制定相应的营销策略。

二、分析方法与过程


1、初步分析:提出适用航空公司的LRFMC模型

  • 因消费金额指标在航空公司中不适用,故选择客户在一定时间内累积的飞行里程M和客户乘坐舱位折扣系数的平均值C两个指标代替消费金额。此外,考虑航空公司会员加入时间在一定程度上能够影响客户价值,所以在模型中增加客户关系长度L,作为区分客户的另一指标,因此构建出LRFMC模型。
  • 采用聚类的方法对客户进行细分,并分析每个客户群的特征,识别其客户价值。


2、总体流程

7e0cfada8e8d464097a57057315ec683.png

第一步:数据抽取

  • 以2014-03-31为结束时间,选取宽度为两年的时间段作为分析观测窗口,抽取观测窗口内有乘机记录的所有客户的详细数据形成历史数据。对于后续新增的客户详细信息,利用其数据中最大的某个时间点作为结束时间,采用上述同样的方法进行抽取,形成增量数据。
  • 根据末次飞行日期,从航空公司系统内抽取2012-04-01至2014-03-31内所有乘客的详细数据,总共62988条记录。


第二步:探索性分析

  • 原始数据中存在票价为空值,票价为空值的数据可能是客户不存在乘机记录造成。
  • 票价最小值为0、折扣率最小值为0、总飞行公里数大于0的数据。其可能是客户乘坐0折机票或者积分兑换造成。
explore=data.describe(percentiles= [], include='all').T#包括对数据的基本描述,percentiles参数是指定计算多少的分位数表(如1/4分位数、中位数等);T是转置,转置后更方便查阅explore['null'] =len(data)-explore['count'] #describe()函数自动计算非空值数,需要手动计算空值数

34c39f236673481ca1ab7899d4273899.png

explore=explore[['null', 'max', 'min']]
explore.columns= [u'空值数', u'最大值', u'最小值'] #表头重命名

6853b8abc44c4e9baffa5d055d3ebbca.png

describe()函数自动计算的字段有count(非空值数)、unique(唯一值数)、top(频数最高者)、freq(最高频数)、mean(平均值)、std(方差)、min(最小值)、50%(中位数)、max(最大值)。

explore.to_csv("resultfile.csv") #导出结果


第三步:数据预处理

  • 数据清洗:从业务以及建模的相关需要方面考虑,筛选出需要的数据。


丢弃票价为空的数据。丢弃票价为0、平均折扣率不为0、总飞行公里数大于0的数据。


  • 属性规约:原始数据中属性太多,根据LRFMC模型,选择与其相关的六个属性,删除不相关、弱相关或冗余的属性。


  • 数据变换: 属性构造、数据标准化。


/

data=pd.read_csv('air_data.csv', sep=',',encoding='ANSI')  #encoding='gbk'data=data[data['SUM_YR_1'].notnull()*data['SUM_YR_2'].notnull()] #票价非空值才保留#只保留票价非零的,或者平均折扣率与总飞行公里数同时为0的记录。index1=data['SUM_YR_1'] !=0index2=data['SUM_YR_2'] !=0index3= (data['SEG_KM_SUM'] ==0) & (data['avg_discount'] ==0) #该规则是“与”data=data[index1|index2|index3] #该规则是“或”data.to_csv("data_cleaned.csv") #导出结果

a55983be07a647aea0e4419074183298.png

属性构造: 因原始数据中并没有直接给出 LRFMC 五个指标,需要构造这五个指标。

L = LOAD_TIME - FFP_DATE

会员入会时间距观测窗口结束的月数 = 观测窗口的结束时间 - 入会时间[单位:月

R = LAST_TO_END

客户最近一次乘坐公司飞机距观测窗口结束的月数 = 最后一次乘机时间至观察窗口末端时长[单位:月]

F = FLIGHT_COUNT

客户在观测窗口内乘坐公司飞机的次数 = 观测窗口的飞行次数[单位:次]

M = SEG_KM_SUM

客户在观测时间内在公司累计的飞行里程 = 观测窗口总飞行公里数[单位:公里]

C = AVG_DISCOUNT

客户在观测时间内乘坐舱位所对应的折扣系数的平均值 = 平均折扣率[单位:无]


数据标准化:因五个指标的取值范围数据差异较大,为了消除数量级数据带来的影响,需要对数据进行标准化处理。


#标准差标准化importpandasaspddatafile='zscoredata.xls'#需要进行标准化的数据文件;zscoredfile='zscoreddata.xls'#标准差化后的数据存储路径文件;#标准化处理data=pd.read_excel(datafile)
data= (data-data.mean(axis=0))/(data.std(axis=0)) #简洁的语句实现了标准化变换,类似地可以实现任何想要的变换。data.columns=['Z'+iforiindata.columns] #表头重命名。data.to_excel(zscoredfile, index=False) #数据写入data

11b5b8c2c6404ca3854b219ca4b153b8.png

第四步:构建模型

构建航空客户价值分析模型:客户K-Means 聚类、客户价值分析、模型应用

1、客户K-Means聚类

采用 K-Means 聚类算法对客户数据进行分群, 将其 聚成五类(需要结合业务的理解与分析来确定客户的类别数量) 。

importpandasaspdfromsklearn.clusterimportKMeans#导入K均值聚类算法inputfile='zscoreddata.xls'#待聚类的数据文件k=5#需要进行的聚类类别数#读取数据并进行聚类分析data=pd.read_excel(inputfile) #读取数据#调用k-means算法,进行聚类分析kmodel=KMeans(n_clusters=k ) #n_jobs是并行数,一般等于CPU数较好kmodel.fit(data) #训练模型kmodel.cluster_centers_#查看聚类中心kmodel.labels_#查看各样本对应的类别r1=pd.Series(kmodel.labels_).value_counts() #统计各类的个数r2=pd.DataFrame(kmodel.cluster_centers_)  #获取聚类中心r=pd.concat([r2,r1],axis=1) #合并r.columns=list(['L','LAST_TO_END','FLIGHT_COUNT','SEG_KM_SUM','avg_discount']) + ['类别数目']  #加上列名r

8caa63479d25443f984d5a17c5e0169a.png

给df_data加上一列按照df_data索引,标签为值值的列。参考:http://t.csdn.cn/IOW5W

df_data=pd.read_excel('zscoreddata.xls')
r2=pd.concat([df_data,pd.Series(kmodel.labels_,index=df_data.index)],axis=1) 
r2.columns=list(['L','LAST_TO_END','FLIGHT_COUNT','SEG_KM_SUM','avg_discount']) + ['聚类类别'] #加列名r2

8efd480bdcb6496fa162b8b9768ed6cc.png

2、客户价值分析

对聚类结果进行特征分析,其中客户群 1 在 F 、 M 属性最大,在 R 属性最小;客户群 2 在 L 属性上最大;客户群 3 在 R 属性上最大,在 F 、 M 属性最小;客户群 4 在 L 、 C 属性上最小;客户群 5 在 C 属性上最大。


/

#根据r2绘制雷达图labels=np.array(['ZL','ZR','ZF','ZM','ZC'])
labels=np.concatenate((labels,[labels[0]]))
N=len(r2)
angles=np.linspace(0, 2*np.pi, N, endpoint=False)
data=pd.concat([r2,r2.loc[:,0]],axis=1)
angles=np.concatenate((angles, [angles[0]]))
fig=plt.figure(figsize=(8,8)) 
ax=fig.add_subplot(111, polar=True)    #参数polar, 以极坐标的形式绘制图形#画线j=0foriinrange(0,5):
j=i+1ax.plot(angles,data.loc[i,:],'o-',label="客户群"+str(j))
#添加属性标签ax.set_thetagrids(angles*180/np.pi,labels) 
plt.title(u'客户特征雷达图')
plt.legend(loc='lower right')
plt.show()

111f2d3542ab48028b6971d7530247ac.png

根据业务定义五个等级的客户类别:重要保持客户、重要发展客户、重要挽留客户、一般客户、低价值客户。

19162594b54c44e595bf32aaca4b45e7.png

 客户群价值排名:根据每种客户类型的特征,对各类客户群行客户价值排名,获取高价值客户信息。

c4b421ae096548e28f0ade164c619452.png

3、模型应用:根据各个客户群的特征,可采取一些营销手段和策略。

a) 会员的升级与保级。

b) 首次兑换。

c)交叉销售。


总结和思考

  • 在国内航空市场竞争日益激烈的背景下,客户流失问题是影响公司利益的重要因素之一。如何如何改善流失问题,继而提高客户满意度、忠诚度,维护自身的市场和利益?
  • 客户流失分析可以针对目前老客户进行分类预测。针对航空公司客户信息数据附件(见:/示例程序/air_data.csv)可以进行老客户以及客户类型的定义(例如:将其中将飞行次数大于6次的客户定义为老客户,已流失客户定义为:第二年飞行次数与第一年飞行次数比例小于50%的客户等)。
  • 选取客户信息中的关键属性如:会员卡级别,客户类型(流失、准流失、未流失),平均折扣率,积分兑换次数,非乘机积分总和,单位里程票价,单位里程积分等。通过这些信息构建客户的流失模型,运用模型预测未来客户的类别归属(未流失、准流失,或已流失)。


目录
相关文章
|
3月前
|
数据采集 自然语言处理 数据可视化
基于Python的社交媒体评论数据挖掘,使用LDA主题分析、文本聚类算法、情感分析实现
本文介绍了基于Python的社交媒体评论数据挖掘方法,使用LDA主题分析、文本聚类算法和情感分析技术,对数据进行深入分析和可视化,以揭示文本数据中的潜在主题、模式和情感倾向。
157 0
|
3月前
|
机器学习/深度学习 安全 算法
【2023年第十一届泰迪杯数据挖掘挑战赛】A题:新冠疫情防控数据的分析 32页和40页论文及实现代码
本文总结了2023年第十一届泰迪杯数据挖掘挑战赛A题的新冠疫情防控数据分析,提供了32页和40页的论文以及实现代码,涉及密接者追踪、疫苗接种影响分析、重点场所管控以及疫情趋势研判等多个方面,运用了机器学习算法和SEIR传染病模型等方法。
59 0
【2023年第十一届泰迪杯数据挖掘挑战赛】A题:新冠疫情防控数据的分析 32页和40页论文及实现代码
|
3月前
|
机器学习/深度学习 安全 算法
【2023年第十一届泰迪杯数据挖掘挑战赛】A题:新冠疫情防控数据的分析 建模方案及python代码详解
本文介绍了2023年第十一届泰迪杯数据挖掘挑战赛A题的解题思路和Python代码实现,涵盖了新冠疫情防控数据的分析、建模方案以及数据治理的具体工作。
74 0
【2023年第十一届泰迪杯数据挖掘挑战赛】A题:新冠疫情防控数据的分析 建模方案及python代码详解
|
3月前
|
数据采集 自然语言处理 数据可视化
基于python数据挖掘在淘宝评价方面的应用与分析,技术包括kmeans聚类及情感分析、LDA主题分析
本文探讨了基于Python数据挖掘技术在淘宝评价分析中的应用,涵盖了数据采集、清洗、预处理、评论词频分析、情感分析、聚类分析以及LDA主题建模和可视化,旨在揭示淘宝客户评价中的潜在模式和情感倾向,为商家和消费者提供决策支持。
|
3月前
|
SQL 开发框架 大数据
【数据挖掘】顺丰科技2022年秋招大数据挖掘与分析工程师笔试题
顺丰科技2022年秋招大数据挖掘与分析工程师笔试题解析,涵盖了多领域选择题和编程题,包括动态规划、数据库封锁协议、概率论、SQL、排序算法等知识点。
87 0

热门文章

最新文章