大数据造成的陷阱 为什么小数据更重要?

本文涉及的产品
数据管理 DMS,安全协同 3个实例 3个月
推荐场景:
学生管理系统数据库
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: “被过滤和忽视是小数据的命运,原因是人们没有现成的概念去定义和解释它们。可是,没有小数据,大数据管理会充满陷阱。小数据为主,大数据为仆,这是数据管理的正道。 ”

编者按:马总和王坚博士都曾说过,数据是未来的“新能源”,会驱动整个社会向前。加拿大莱桥大学管理学院副教授,复旦大学管理学院EMBA特聘教授鲍勇剑先生亦认为“数据管理就像是采矿”。

“被过滤和忽视是小数据的命运,原因是人们没有现成的概念去定义和解释它们。可是,没有小数据,大数据管理会充满陷阱。小数据为主,大数据为仆,这是数据管理的正道。 ”

大数据管理通过大量数据采矿,找出潜在的变量和它们之间的因果联系,这样企业可以有针对性地生产和营销。相比之下,小数据泛指零星的弱信号。它们往往被当作没有规范、似乎随机的偏差或噪音。

image.png

被过滤和忽视是小数据的命运,原因是人们没有现成的概念去定义和解释它们。可是,没有小数据,大数据管理会充满陷阱。

小数据为主,大数据为仆,这是数据管理的正道。

大数据的陷阱

春节就要到了。假如你是一位出车千次无事故的好司机,恰好在朋友家喝了点酒,警察也过年下班了,于是你坚持自己开车回家,盘算着出问题的概率也不过千分之一吧。如果这样算,你就犯了一个取样错误,因为那一千次出车,你没喝酒,它们不能和这次混在一起计算。这也是大数据“采矿”常犯的错。

从1967年第一届美国超级碗杯橄榄球赛到1997年第三十一届,只要NFL联赛出线队赢,当年的股票就大涨14%以上,AFL联赛出线队赢,则至少大跌10%。如果你按照这个指标来买卖股票,就要小心了!1998年,丹佛野马队(AFL)赢,当年股市大涨28%;2008年纽约巨人(11.92, -0.01, -0.04%)队(NFL)赢,股市不仅大跌35%,还引发次贷金融危机。

只要有超大样本和超多变量,我们都可能找到无厘头式的相关性。它完全符合统计方法的严格要求,但二者之间并没有因果关系。美国政府每年公布4.5万类经济数据。如果你要找失业率和利率受什么变量影响,你可以罗列10亿个假设。我自己的研究经验也显示,只要你反复尝试不同的模型,上千次后,你一定可以找到统计学意义上成立的相关性。把相关性当作因果关系,这是大数据采矿的另一个陷阱。

我们说,三尺深的水池能淹死人,因为三尺只是平均值。忽略极值,采用平均值,它是大数据采矿第三个常见的陷阱。

博弈论创始人之一,诺伊曼(John von Neumann)曾经戏言:有四个参数,我能画头大象,再加一个,我让大象的鼻子竖起来!大数据“采矿”可能给出新颖的相关性。

但是,脱离了问题的情境,它不但不能保证因果关系,还可能误导决策。

小数据里藏着金钥匙

巴恩斯利(Roger Barnsley)带他的孩子去我教书的莱桥市参加比赛时发现,摩羯座、水瓶座、双鱼座的孩子天生就是打冰球的,否则怎么会双方队员的生日大多在1月、2月和3月?带着心理学家的好奇,他研究了加拿大成人队的队员生日,发现同样的规律。不过,巴恩斯利还没依赖大数据到迷信的程度。

深入调查后他发现,加拿大少年队划分组别以1月1日为界。因此,在同一年龄组,那些1~3月出生的孩子自然有生理发育上的优势。因为是层层优选、优训,有起点优势的孩子就可能不断成长,主导每个阶段的冰球队伍。只有明白“年龄划分日”这个小数据,奇异的现象才有科学的解释。

罗列大量事例,在《偏差》中,格莱德威尔(Malcolm Gladwell)证明小数据的关键解码作用。

小细节解锁大问题。类似的小数据决定作用出现在不同的现象中。依据大数据,旧金山地区卫生部门根据同性恋人群肝病发病率上升预计艾滋病例也会上升,但这两种疾病流行正相关的预测失败。深入调查发现,同性恋对艾滋病越来越持平常心。他们利用新的社交网络,主动张贴自己的情况,避免交叉感染。这次,又是关于行为和动机的小数据解释了大数据看不到的规律。

小数据这把金钥匙难找,因为它们基本上是弱信号,出现的频率低,往往埋没在偏差值中,容易被忽视。同样难的是,它们过去没有规律性地出现过,人们不熟悉。对不熟悉的现象,人们心理上错把它们当作不大可能的现象。因此,决策时,人们容易把弱信号当作背景噪音过滤掉了。例如,假如恐怖分子只学开飞机,不学降落这个弱信号被关注,美国反恐历史可能要重写。

如何正确使用小数据?胡巴德(Douglas Hubbard)建议三种方法:

1)不求完美,只求不断接近。古希腊人俄如多斯(Eratosthenes)利用两地中午日光正射和斜射的角度与距离估算出第一个地球周长。误差很大,但那是一个跨越式的认知进步。

2)找“垫脚石”知识,用类比法提高认识。物理学家费米问学生,芝加哥城里有多少调琴师?他教学生学会从人口数、家庭数和拥有钢琴的家庭比例估算开始,推演到钢琴数量和调琴师大约的比例,再得出调琴师的估值。要点在于不囿于数据限制,学会用已知代换无知,推演估算值。

3)不要简单化前提条件,但要力求简单模式。9岁的罗萨(Emily Rosa)和她妈妈一起看电视介绍流行的“气场疗法”。罗萨把测试气场当作学校的一个科学项目。用两块遮挡纸板、几个直接问题,她采访和测试了29位气功理疗师,证明气场至多只是心理作用。罗萨的简洁实验设计被美国医学杂志(JAMA)刊载。她也成为杂志最年轻的作者。

求小步完善、类比借鉴和从简单模型开始,这三步也是对“贝尔斯定理”(Bayes Theorem)最好的运用。有条件概率分布的“贝尔斯定理”是掌握小数据的核心。

主与仆

关于复杂系统,美国的圣塔菲研究所罗列三个典型特征:多变量、相互作用,并同时发生。据此,天气预报是最复杂的数据管理了。

1916年,德国人理查森(Lewis Fry Richardson)尝试着把大数据化小,把整个德国的天气分割成纵横交错的小矩阵。这样每个格子里的天气对周边的影响就能简化了解。层层推进,他试图得出更靠谱的天气预测。理查森没有成功,因为当时的计算力不足。

到1950年,诺尔曼将电脑计算和理查森的方法整合在一起。结果,我们有了越来越可靠的天气预报。

理查森的小数据价值在于他对气候现象深刻的理解,并提炼出关键要素。诺尔曼的大数据贡献在于精确运算关键要素的动态运行形势和方向。二者结合,我们才有对气候的预报能力。

只要整合大、小数据管理的要点和优点,我们就能逐渐完善认知模型,辨别信号和噪音。就像统计学家博可斯(George Box)所言:所有的模型都是错的,但有些仍有用。

(作者为加拿大莱桥大学管理学院副教授,复旦大学管理学院EMBA特聘教授)

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
2月前
|
存储 机器学习/深度学习 分布式计算
大数据技术——解锁数据的力量,引领未来趋势
【10月更文挑战第5天】大数据技术——解锁数据的力量,引领未来趋势
|
1月前
|
存储 分布式计算 数据挖掘
数据架构 ODPS 是什么?
数据架构 ODPS 是什么?
290 7
|
1月前
|
存储 分布式计算 大数据
大数据 优化数据读取
【11月更文挑战第4天】
44 2
|
1月前
|
数据采集 监控 数据管理
数据治理之道:大数据平台的搭建与数据质量管理
【10月更文挑战第26天】随着信息技术的发展,数据成为企业核心资源。本文探讨大数据平台的搭建与数据质量管理,包括选择合适架构、数据处理与分析能力、数据质量标准与监控机制、数据清洗与校验及元数据管理,为企业数据治理提供参考。
86 1
|
2月前
|
分布式计算 关系型数据库 MySQL
大数据-88 Spark 集群 案例学习 Spark Scala 案例 SuperWordCount 计算结果数据写入MySQL
大数据-88 Spark 集群 案例学习 Spark Scala 案例 SuperWordCount 计算结果数据写入MySQL
54 3
|
25天前
|
机器学习/深度学习 存储 大数据
在大数据时代,高维数据处理成为难题,主成分分析(PCA)作为一种有效的数据降维技术,通过线性变换将数据投影到新的坐标系
在大数据时代,高维数据处理成为难题,主成分分析(PCA)作为一种有效的数据降维技术,通过线性变换将数据投影到新的坐标系,保留最大方差信息,实现数据压缩、去噪及可视化。本文详解PCA原理、步骤及其Python实现,探讨其在图像压缩、特征提取等领域的应用,并指出使用时的注意事项,旨在帮助读者掌握这一强大工具。
63 4
|
1月前
|
存储 大数据 数据管理
大数据分区简化数据维护
大数据分区简化数据维护
24 4
|
1月前
|
存储 大数据 定位技术
大数据 数据索引技术
【10月更文挑战第26天】
58 3
|
1月前
|
存储 大数据 OLAP
大数据数据分区技术
【10月更文挑战第26天】
66 2
|
1月前
|
消息中间件 分布式计算 大数据
数据为王:大数据处理与分析技术在企业决策中的力量
【10月更文挑战第29天】在信息爆炸的时代,大数据处理与分析技术为企业提供了前所未有的洞察力和决策支持。本文探讨了大数据技术在企业决策中的重要性和实际应用,包括数据的力量、实时分析、数据驱动的决策以及数据安全与隐私保护。通过这些技术,企业能够从海量数据中提取有价值的信息,预测市场趋势,优化业务流程,从而在竞争中占据优势。
112 2
下一篇
DataWorks