大数据的“近因偏差”烦恼

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介:

全世界90%的数据都是最近几年生成的,人们对这个结论可能已经耳熟能详。尽管我能找到的这个说法的最早出处是在2013年5月,但是,这种趋势却始终未曾发生变化。事实上,过去30年间,每隔两年,全球总数据量就会增长大约10倍——这让计算机行业的摩尔定律相形见绌。

信息爆炸所带来的问题之一在于,即便和不久之前相比,当前的信息量规模都会大到不可思议的程度。假如有一本信息影集代表了你从婴儿到成年的前18年人生,并且照片数量的增长速度和全球数据量保持一致,如果头两年你只有两张照片,那么从6岁到8岁的两年间你就会有两千张照片,从10岁到12岁有20万张,从16岁到18岁则有惊人的2亿张,这意味着在16-18岁期间你每秒钟就会拍3张照片。

当你回过头去以更长远的眼光来看待事物时,你会发现,你有太多太多近期的的事件,而较早的数据和事件是那么的稀少。

当然,全球数据不能这样简单类比。全球数据增长的主要原因在于更多的人口产生了更多信息源,以及更大的和更复杂详细的信息结构。然而,如果试图回顾或分析与上文所述影集类似的历史记录,你会发现一个相同点,越遥远的历史所留下的信息和记录就会越稀少。怎么会发生这种事情呢?

这就是目前大数据采集分析中存在的一项弊端。无论你在哪一个时间点开始回顾历史,都会遇到同一个麻烦:近期数据的数量远远超过远期历史数据,由此,这个分析系统会过度重视短期趋势而忽略长期趋势,从而受到短视的困扰。

为了理解这个问题的重要性,需要考虑社会科学中有关“近因偏差”(recency bias,又称近因效应)的研究发现。近因偏差是指:人们在判断事物发展趋势时,会认为未来事件将会和近期体验高度类似。这可以说是某种“可利用性法则”(availability heuristic)——不恰当地以最容易认知的信息来作为思考的基础。这还是一种普遍的心理学特征。

举例来说,如果在你居住的地方,过去几年的夏季气温都很低,那么你可能会认为夏季气候正在变得更冷——或者说你当地的气候正在变冷。但是,你不应该只根据少量数据分析长期趋势。你需要有一个长远视角,才能认识真正有意义的气候趋势。短时期内,最好不进行任何猜测。不过,我们之中又有谁能真正做到这点呢?

短期分析不仅不扎实、毫无益处,还会产生误导

现实生活中大部分复杂事物的现象正是如此:股票市场、经济发展、企业的成功与失败、战争与和平、国家关系、帝国的崛起和衰落等等。短期分析不仅不扎实、毫无益处,还会产生误导。回头看看,就在2009年全球金融危机袭来的时候,还有那么多经济学家信誓旦旦地宣称这一事件不会发生。认为根据那种短期时间尺度的数据就能做出扎实的预测,这种想法本身就有很大的问题。

我们还应当记住,在决定哪些数据该保存还是删除的时候,新颖性往往会成为主要的考虑因素。旧的淘汰,新的进来,在这个搜索算法本质上偏向于新鲜事物的数字世界中,这是一个明显的趋势。从最高法院的裁决,到所有社交媒体服务平台,我们到处都可以看到已经失效的网址。我们身边的几乎所有技术都偏向于当前信息,人也一样:大多数人已经习惯用个四五年就把原本光鲜亮丽的设备丢掉。

怎么办?这个问题已经不仅仅在于如何更好保存旧数据的范畴——尽管这并不是个坏主意,想想我们现在还有什么东西能流行保留10年之久。更重要的是,这个问题关系到确定哪些东西值得优先保存,以及如何在知识的名义下,选择哪些信息最有意义

或许我们需要的是我所称之为的“智能性遗忘”:应该让我们的工具更多地放弃最近的信息,从而在长远视角上保持更高水平的连续性。这有点象是以数学方法重新整理一本影集。什么时候两百万张照片的价值比两千张照片更低?什么时候较大的样本量覆盖范围反而较小?哪些问题的重要性较低?哪个细节水平能提供有用的质疑证据,而不是虚假的信心?

许多数据集是无法缩减的,只有在完整的情况下才最宝贵,比如,基因序列、人口统计学数据、地理和物理学的原始观测数据等等。数据的科学性越弱,数据规模与数据的质量就越可能呈现负相关,此时时间本身就成为更加重要的过滤工具。我们如果不仔细选择过去保存下来的有价值、有意义的事物,它们就会被迅速膨胀的信息洪流悄无声息地吞没掉。

能否考察长期历史遗留下来的数据取决于考察者是否有足够的时间和注意力。今天的企业、个人和政府机构都能够获得比以往(甚至就在几年前)大许多数量级的数据,但是董事会成员、首席执行官、政府官员等决策者却没有足够时间和注意力来应对这些数据。

今天的决策者们有越来越高效的工具帮助他们就所持有的数据提出问题——但你只应该分析有意义的数据。单纯的数量累积不是一个好的对策。在一个数据量越来越大的时代,如何选择主动放弃哪些事情,与选择做什么事情一样重要。
本文转自d1net(转载)

相关实践学习
基于Hologres轻松玩转一站式实时仓库
本场景介绍如何利用阿里云MaxCompute、实时计算Flink和交互式分析服务Hologres开发离线、实时数据融合分析的数据大屏应用。
基于MaxCompute的热门话题分析
Apsara Clouder大数据专项技能认证配套课程:基于MaxCompute的热门话题分析
相关文章
|
C语言
Makefile模式规则与自动变量
Makefile模式规则与自动变量
165 0
|
10月前
|
安全 数据安全/隐私保护 开发者
Flask框架的安全性如何?
安全是一个持续的过程,需要不断地关注和更新。随着新的安全威胁的出现和技术的发展,开发者需要及时了解并采取相应的措施来应对,以确保 Flask 应用始终处于安全的状态。
339 63
|
存储 缓存 JavaScript
RxJS 是前端开发的未来吗?
RxJS 是前端开发的未来吗?
228 0
|
关系型数据库 分布式数据库 数据库
【PolarDB 开源】PolarDB 性能调优实录:提升数据库集群吞吐量的技巧
【5月更文挑战第22天】PolarDB 性能调优关键点包括硬件资源配置、数据库参数调整、索引优化、分区策略、事务优化及性能监控。创建高效索引如`CREATE INDEX idx_name ON table_name (column_name);`,根据业务场景选择分区方式,调整事务隔离级别以提升并发性能。监控 CPU、内存等指标,定期维护数据库,结合业务特点综合调优,从而提升数据库集群吞吐量。这些技巧有助于发挥PolarDB潜力,支持业务高效运行。
684 6
|
Java 网络安全 API
Java中如何解决SocketException异常?
Java中如何解决SocketException异常?
|
负载均衡 安全 Cloud Native
Web应用防火墙
本文介绍了Web应用防火墙(Web Application Firewall,简称WAF)2.0和3.0版本的关系、区别、如何快速使用WAF。
365 1
|
12月前
C 作用域详解
在 C 语言中,作用域决定了变量和函数的可见性和生命周期,包括块作用域、函数作用域、文件作用域和全局作用域。块作用域内的变量仅在块内有效,函数作用域内的变量在整个函数内有效,文件作用域内的全局变量和函数在整个文件内有效,而全局作用域内的变量和函数在整个程序运行期间有效。作用域的优先级遵循局部变量优先的原则,局部变量会遮蔽同名的全局变量。变量的生命周期分为局部变量(函数调用时创建和销毁)、全局变量(程序开始时创建和结束时销毁)以及静态变量(整个程序期间有效)。理解作用域有助于避免命名冲突和错误,提高代码的可读性和可维护性。
|
机器学习/深度学习 PyTorch 算法框架/工具
深度学习实践篇 第五章:模型保存与加载
简要介绍pytorch中模型的保存与加载。
451 0
|
区块链 开发工具 数据安全/隐私保护
【Web3新手知识】了解 Wei 和 Gwei:以太坊最小面额解释
在以太坊世界中,Wei 是一个关键概念,它是这个区块链网络中最小的以太单位。随着加密货币的普及,理解各种面值变得至关重要。
879 0
|
安全 网络协议 网络安全
HTTPS 存在哪些安全问题,有什么应对方案
HTTPS 是 HTTP 的安全版本,通过使用 SSL/TLS 协议对通信内容进行加密,提供了以下几个关键的安全特性:数据加密、身份认证和完整性保护。尽管 HTTPS 在很大程度上提高了安全性和数据传输的安全性,但仍然存在一些潜在的安全问题。以下是一些可能的问题以及相应的应对方案