数据挖掘是什么?这东西到底怎么落地?
今天我正好把这几年的心得整理出来,希望能帮到你。
一、数据挖掘到底是什么?
简单来说,数据挖掘就是从大量数据里找出隐藏的规律。这些数据可能有缺失、有错误、格式也不统一,但通过算法,我们能从中提取出之前不知道、但确实有用的信息。它融合了机器学习、数据库技术、统计学等多个领域的方法。
我一直强调,它的核心是让算法自己去探索数据之间的关联和模式,把那些杂乱无章的数据变成能指导决策的依据。
二、数据挖掘和数据分析,有什么区别?
这个问题经常有人问。
我发现很多公司招人的时候,这两个岗位的职责也经常混在一起。
用过来人的经验告诉你,它们确实是两码事。
1、数据分析
重点在“分析”。你得有一定的数据敏感度,知道在什么情况下该看什么指标。
比如用Excel或者BI工具统计一下上季度的销售额是多少,哪个区域的用户最活跃,这就是典型的数据分析。它回答的问题是发生了什么。
2、数据挖掘
重点在“挖掘”。它对你的要求是要熟悉算法和建模工具,知道面对什么样的业务需求应该用什么方法来解决。
比如预测下个月哪些客户最有可能流失,这就是数据挖掘要干的活。它回答的问题是将会发生什么。
现在很多公司会把这两类人放在一个部门里,数据分析师负责提需求、看报表,数据挖掘工程师负责建模型、跑算法。两者配合好了,效果是1+1大于2的。
不过话说回来,这两者其实是一个递进的关系。你想想,是不是得先把发生了什么搞清楚,才能去研究为什么会发生,之后才能预测将会发生什么,最后才能回答我们该怎么做。
三、数据挖掘能用在哪些地方?
这些年我接触过的行业不少,发现数据挖掘的应用场景比大多数人想象的要广。挑几个最常见的给你讲讲。
1、电商零售是我最早接触的领域。
刚开始的时候,大家做的事情其实挺简单的,就是统计一下哪些商品卖得好,哪些用户买得多。
后来慢慢发现,这些数据背后藏着很多有意思的东西。
- 比如通过分析用户的浏览和购买记录,可以给每个人推荐他可能喜欢的商品。
- 分析购物篮里的商品组合,会发现买电饭煲的人经常会同时买量杯,买啤酒的人周末晚上买零食的概率特别高。这些规律一旦找出来,就能用来调整货架摆放、设计促销活动。
有家电商平台用了这些方法之后,销售额涨了将近三成。其实道理很简单,你把用户想要的东西送到他面前,他自然愿意掏钱。
2、金融行业对数据挖掘的需求一直很旺盛。
银行每天要处理大量贷款申请,哪些人该批、哪些人不该批,光靠人工判断太慢了。用历史数据建一个信用评分模型,输入申请人的收入、职业、过往还款记录,模型就能输出一个分数,分数高的直接批,分数低的人工复核。这样既快又准。
支付平台那边,天天要防诈骗。就用异常检测算法识别那些半夜在异地登录、大额转账的可疑交易。
实际上,还有医疗、智慧城市建设等项目都要用到数据挖掘。
这些场景你可能在自己的行业里也遇到过。只不过有的是已经开始做了,有的是还停留在想想的阶段。
四、动手之前,先把这三个问题想明白
最近我发现一个现象:很多团队拿到数据就急着建模跑算法,好像谁跑得快谁就赢了。结果往往是模型建了一堆,能用上的没几个。
根据我的经验,你正式动手之前,至少要把下面三个问题掰扯清楚。
问题1:你到底想解决什么具体问题?
是让复购率提高10%,还是让库存周转缩短5天?目标必须具体、可衡量。
如果你只说想把业务做好,那后面的所有努力都没办法聚焦。
我一直强调,模糊的目标只能带来模糊的结果。
问题2:你手里的数据够不够用?
你得盘点一下:数据从哪来?质量怎么样?有没有关键信息是缺失的?
要是数据本身就有问题,再牛的算法也跑不出靠谱的东西。数据挖掘最怕的不是技术不行,而是数据基础不牢。
问题3:搞出来的结果谁能用、怎么用?
你想想,模型建好之后,是要给市场部做人群圈选,还是给运营做自动化推送?
如果业务部门根本用不上,或者和现有流程对不上号,那这个项目就只能烂在服务器里。
我之前见过一个团队,花了半年时间做了一套非常精细的客户分群模型,结果业务同事看不懂标签含义,没人敢用。你说可惜不可惜?
五、技术工具怎么选?
说实话,我第一次接触那么多算法的时候也晕。逻辑回归、决策树、随机森林、XGBoost、神经网络等等,名字都记不全,更别说选了。
后来我慢慢想明白了,其实80%以上的业务问题,用逻辑回归或者决策树就能搞定。这些算法解释起来容易,业务部门能听懂、敢用。那些复杂的深度网络,除非你在处理图像、语音、文本这类数据,否则真没必要一上来就上。
工具方面:
- Python是目前的主流,库多、社区活跃,遇到问题随便一搜就能找到答案。
- R在统计分析和可视化上有积累,也值得学。
- 如果你刚入门,不想写代码,阿里云、腾讯云的机器学习平台都有拖拽式界面,上手快,适合业务人员先试试水。
你可能会问到底该选哪个?
我建议你从最熟悉的入手,先跑通一个小闭环,再慢慢拓展。别纠结工具,关键的是你对业务的理解和对数据的判断。
六、最容易遇到的问题
这些年经历过的失败,我总结了几条,希望你能避开。
1、数据质量不过关就硬上。
这是最大的失误。我在前面也提到了数据质量要过关,这里再提一下。
真实世界的数据有多乱,只有处理过的人才知道。有缺数据的、有格式不对的、有明显是乱填的。你得把它们清洗、补全、转成统一格式。
我一直强调,数据预处理做得越细,后面的模型就越稳。
我在做数据预处理的时候,常用到FineDataLink这个数据处理工具。
最大的感受就是它对数据清洗和整合的支持特别好,可以把来自不同数据库、不同格式的数据自动采集过来,通过拖拽的方式完成清洗和转换,不用写太多代码。特别是面对那些多源异构数据的时候,能省下不少时间。
2、忽视模型的解释性。
特别是在金融、医疗这些行业,模型为什么这么判断,得有清晰的说法。算法再准,如果说不清楚道理,也没人敢用。
选算法的时候,你尽量挑那些能输出重要特征、有决策路径的。
3、上线之后不管了。
模型不是一次性产品。用户行为在变,市场环境在变,模型的效果会慢慢下降。
你得定期看看它的表现,该更新就更新,该重新训练就重新训练。
七、未来会往哪儿走?
最后说说我对这个领域的一点看法。
1、门槛会越来越低。
现在自动化机器学习的工具越来越成熟,未来很多常规的挖掘任务,可能鼠标点几下就完成了。
但这不代表数据从业者会失业,相反,我们的工作重心会从怎么调参数转向怎么定义问题和怎么让结果落地。
2、数据挖掘会和业务结合得更深。
它会像Excel一样,慢慢变成每个业务人员的日常工具。运营、市场、产品,这些岗位自己就能做一些基础的预测和分析。
3、隐私计算、联邦学习这些新技术会越来越重要。
数据安全和用户隐私的监管越来越严,如何在保护隐私的前提下做挖掘,是所有企业都要面对的课题。
不过话说回来,不管技术怎么变,数据挖掘的核心还是那几样:对业务的理解、对数据的敏感、把问题拆清楚的能力。这些基本功,永远都是重要关键的。
今天聊得可能比较散,但都是我这些年的经验。希望能对你有帮助。