有全量大数据了,还要用估算、抽样吗?

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 有全量大数据了,还要用估算、抽样吗?

这是我的第59篇原创

统计学是一个用数学研究现实世界的学科,研究的手段就是搜索、整理、分析、描述数据等手段。你看,跟数据分析师的工作是不是很像啊?

统计学家是一个很有意思的职业,早期的统计学家大量的工作都花在了数据搜集和整理上了。

比如现在数理统计的奠基人英国数学和统计学家费希尔,长期在农业试验站搞生物实验,其实就是种地去了。

他们研究的目标都是很实用的问题。你看很多名词就知道了,什么假设检验、幸存者偏差、遗传算法、期望、生命表、鱼塘抽样、双盲测试等等,一看就明白研究的是啥。


这几年大数据火的不行不行的。很多人对大数据的理解是我们拥有全量数据了,可以不用做估算了,也不用做抽样统计了。咱先不对这个说法做任何评判,先看几个统计学家捞鱼的故事,之后你就会对这个问题有更进一步的理解了。

怎么知道池塘有多少条鱼?

你在老家承包了一个大池塘,但是你不知道里面有多少条鱼,这没法进行管理啊,这可咋办?

数鱼跟数羊不一样,数羊可以通过围栏来清点,数过的在一边,没数过的在另一边。但是鱼是会游来游去的,而且会上下左右乱游,这可没法精确清点。怎么办呢?

统计学家数数,统共分两步

1、先随便捞一批鱼(比如10网,共1000条),打上标记,放池塘;

2、过一阵,再随便捞一批鱼(共800条),数一下有标记的占多少(比如有16条)。

这样就能估算出来了:

  • 1000条鱼与池塘总鱼数X的关系是1000:X
  • 有标记的鱼与样本量的关系是16:800。

因为两次都是随机捞的,这两次随机的概率分布基本是一致的。所以可以用一次的抽样的分布当做概率,然后推算总量

1000:X=16:800,X=50000条,鱼塘大概有5万条鱼。


这就是抽样概率的实际应用-总量估算,这招在很多需要总量估计的地方都能用到。


怎样保证每一条鱼都同样幸运?

突然有一天,上帝给你一个任务:需要从池塘中挑选100条鱼进入天堂,你必须要保证公平。上帝在给你任务的时候,却忘了给你对应的能力。这可该咋办啊?

没关系,统计学家来帮你。

你同样不知道这个池塘有多少条鱼,因此保证每一条鱼都有公平的被选入的机会,就是一个非常困难的事情了。不过统计学家早已研究过了:

1、先捞100条鱼,放在备选筐中;

2、然后不断的捞鱼,拿其中一只过来,给他摇奖,号箱里是1-101号,如果摇的号在1-100之间,就入选,并从备选筐中随便捞一条鱼做好标记扔回去,否则把刚捞出来的鱼好标记扔回去。然后以后只捞没有标记的鱼就能达成公平的要求了。

3、继续重复第二个步骤,捞没有标记的鱼。每多一条鱼,就往号箱里加一个数,摇中了就放备选筐,没摇中就做标记扔回池塘里。比如捞了一上午了,捞出了第10000只鱼,这时候号箱里有10000个号,这时候给鱼摇奖,摇到1-100号,就留下,否则就打标记扔回去。


这就是传说中的“水塘采样/抽样”。有人说,这跟大数据有啥关系啊?这个可太有关系了!


水塘采样的大数据应用

水塘采样可以解决在总量未知的情况下进行同等概率的采样,而以下场景正好需要一种方法解决这个问题:

1、在内存不够大的时候,对全量数据进行随机采样;

   这个应用场景是解决数据倾斜。我们需要对全量样本进行采样,得知数据的分布,然后根据数据分布进行分区,这样,每个节点分到的数据基本上是均匀的,也就解决了数据倾斜的问题。

2、在数据流中,对全量数据进行随机采样;

   这个应用场景是实时数据处理,在流数据过来的时候,数据总量是不知道的,这时候就得用水塘采样法解决流式数据随机采样了。在线机器学习就会使用这种方法。

3、在分布式节点数据源进行随机采样。

   这个应用场景是解决分布式数据来源进行随机采样的。比如在机器学习时,需要对全量数据进行随机采样,但是数据是存在很多个节点中的,你如果把所有数据都读取一遍,然后再采样,那简直太慢了。Flink就用了水塘采样,速度又快,又很精准。


结论

另外,我们用的A/B Test和质检也会用到各种抽样哦!听过买桃子的笑话吗?

小明去买桃子,买回来的每个桃子上都被咬了一口,原因是他需要吃一口才能确认桃子甜不甜。

我们买回来的所有产品都有质检这一关的。我们不可能把每一个产品都破坏性质量检验,这跟上面的小明没啥区别。

比如说这个,膨化食品袋中的小东西。这是是用来监测食品袋中是否会混入金属用的。是质检手段之一。厂家有意往产品中随机添加这些测试芯片,然后在出厂前进行芯片回收,用以确定该条产品线是否安全。一旦在出厂前找到了这些芯片,就说明前面的所有金属检测手段都失效了。


所以再有人跟你说:因为大数据的“全量”,所以不需要“抽样”统计时,你就可以随便抛出这几个应用场景打他的脸了。


总结一下,原因有三:

1、大数据的“全量”有个前提,就是你的“全量”真的是全量。而绝大多数情况我们都无法做到真正的全量。

2、并且即便是我们有全量数据了,因为全量数据太多了,为了保证效率,有时候我们也会用抽样;

3、有些事情真的不能全量。比如A/B Test和质检。


相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
相关文章
|
6月前
|
分布式计算 DataWorks IDE
MaxCompute数据问题之忽略脏数据如何解决
MaxCompute数据包含存储在MaxCompute服务中的表、分区以及其他数据结构;本合集将提供MaxCompute数据的管理和优化指南,以及数据操作中的常见问题和解决策略。
|
6月前
|
存储 SQL 分布式计算
MaxCompute 近实时增全量处理一体化新架构和使用场景介绍
本文主要介绍基于 MaxCompute 的离线近实时一体化新架构如何来支持这些综合的业务场景,提供基于Delta Table的近实时增全量一体的数据存储和计算解决方案。
141988 4
MaxCompute 近实时增全量处理一体化新架构和使用场景介绍
|
SQL 运维 分布式计算
【大数据开发运维解决方案】Sqoop全量同步mysql/Oracle数据到hive
前面文章写了如何部署一套伪分布式的handoop+hive+hbase+kylin环境,也介绍了如何在这个搭建好的伪分布式环境安装配置sqoop工具以及安装完成功后简单的使用过程中出现的错误及解决办法, 接下来本篇文章详细介绍一下使用sqoop全量同步oracle/mysql数据到hive,这里实验采用oracle数据库为例,
【大数据开发运维解决方案】Sqoop全量同步mysql/Oracle数据到hive
|
SQL 分布式计算 关系型数据库
优化(2)MaxCompute 实现增量数据推送(全量比对增量逻辑)
MaxCompute(ODPS2.0) - 试用新的集合操作命令 EXCEPT & 增量识别
2608 1
|
SQL 分布式计算 算法
MaxCompute数据仓库在更新插入、直接加载、全量历史表三大算法中的数据转换实践
2018“MaxCompute开发者交流”钉钉群直播分享,由阿里云数据技术专家彬甫带来以“MaxCompute数据仓库数据转换实践”为题的演讲。本文首先介绍了MaxCompute的数据架构和流程,其次介绍了ETL算法中的三大算法,即更新插入算法、直接加载算法、全量历史表算法,再次介绍了在OLTP系统中怎样处理NULL值,最后对ETL相关知识进行了详细地介绍。
5381 0
|
算法 大数据
《大数据算法》一3.2 水库抽样
本节书摘来华章计算机《大数据算法》一书中的第3章 ,第3.2节,王宏志 编著, 更多章节内容可以访问云栖社区“华章计算机”公众号查看。 3.2 水库抽样 本节介绍一个简单的空间亚线性算法,即水库抽样。问题定义如下。
2742 0