什么是大数据技术?

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 什么是大数据技术?

聊大数据技术是什么这个问题,那么我们先得弄明白另一个问题,不是大数据的数据技术又是什么呢?


从传统数据库的诞生开始,这个世界基本上都是围绕着关系型数据模型进行业务系统的开发,例如MySQL,Oracle,SqlServer等等,这种数据存储的技术特点其实就是对业务数据结构化为关系模型。


什么是关系模型?


经典数据模型定义的三个要素:结构、完整性、操作


关系型模型之父Edgar F. Codd,在1970年Communications of ACM 上发表了《大型共享数据库数据的关系模型》这就是永恒的经典,关系模型的语义设计达到了40年来普世的易于理解,语法的嵌套,闭环,完整。


结构:就是我们经常要先对数据库预先定义的表名和字段(名称、类型)


完整性:就是表的主键不能为空,表与表之间的主外键关联必须保证是完整的,外键一定是能找到主键的。


操作:那就是SQL表达式啦,SQL的子查询就是典型的闭包(Closure),可以形成嵌套表达式。


摘自:HDFS/HBase技术报告·分布式数据库设计架构的全面解析


具体点就是:表和列字段形成了嵌套语义SQL,实现对数据的读写操作。这种关系模型非常生动地描述了大多数人工活动过程中产生的行为数据,例如:一个填报表单,一组数据列表,一张张互相连接紧密的关联表,这种模型非常适应人类复杂的生活与生产活动。例如:你去医院挂号看病,系统一定会在数据库中的电子病历表找到你曾经的就诊记录和唯一识别号,并且在科室表关联的医生表中寻找你想要就诊的医师,为你生成新的挂号记录和预约排队记录,在实际情况,会对你的就诊流程不断在活动中和更多数据表关联,生成新的数据记录。


上述就是程序员很多年一直不断开发,生产的传统数据架构,这个过程有一个非常关键的特征,就是很难在短期内产生海量数据,为什么呢?上面其实也说得很清楚了,密切的人工协作活动产生的数据记录,这种记录往往表现出来的特征就是复杂,那么这就很难快起来了,比如,你等待一个事情的审批人的审核才能走到下一步,有时候这会很慢很慢。


大数据技术不一样的地方


到了Google的大数据时代,就不同了。数据不再静静躺在数据库里面成为数据坟墓。新的数据不断涌入,所有数据有了生命周期,数据变得流动起来了。我们需要存储的不再是经过前期固定设计后有损的数据,而是直接将无损的原始数据实现保存,因为更强悍的分布式并行数据处理技术可以更高效的吃掉这些数据,完成所需的数据结果,数据在一定阶段内长期保存,但是在生命周期的设定下,可以接收销毁,实现存储的成本最优化。


这与传统的应用场景彻底反过来了:第一时间产生数据的效率很高,为什么互联网平台特别容易产生大数据?例如淘宝,京东,美团,因为无论是你点餐,还是你买衣服,都是非常短促的单点行为,很少发生多人协作的事情,除非是早期的退货过程,也就是说你查的多,但动手下单支付也就是那一小会儿时间,而且,这个时刻,会有大量的顾客在重复做着和你同样的事情,这就是互联网平台在第一时间产生数据的效率很高,并且基本没有多人协作的过程。同理:12306买票也是这样,税务开发票也是这样,交警平台交罚单也是这样,电信交话费也是这样,这些都是大数据的产生过程。


当今时代,随着技术的发展,物联网也逐渐在发展,工业设备第一时间产生数据的效率那可是要比人高得多,因此我们说大数据时代真正的到来,实际上是智能工业互联网的兴起。


那么铺垫到这里,我们就开始正式说说大数据技术了!


大数据技术首先面临第一时间大量甚至是海量的数据产生,必然就会形成多种解决方案,但有些基础技术几乎是标准必备的,例如:


分布式技术,这就包括了数据分布存储技术,集群协调技术和集群状态一致性技术。

结构化技术,原生数据进行列式结构转换,文档结构转换,或者是简单键值转换。

压缩技术,压缩数据可以极大提升数据的传输率和磁盘存储量,压缩的各类技术一般就是在CPU消耗效率和文件压缩比之间寻找适合的方案。

数据容错技术,最常见的方法就是副本,给多个集群节点多复制几分,还有类似raid的冗余校验技术,用CPU换空间。

各种算法和数据结构,例如布隆过滤解决数据有没有的问题,内存跳表实现高性能扫描,一致性哈希解决分布问题,lsm-tree 大多数nosql标配的索引数据结构等等。

大数据技术上层还包括了分布式数据存储,流计算,大规模批处理,大吞吐消息系统等等。


那么大数据技术搞得这么庞大而又复杂,到底是为了什么呢?其一大数据技术不是为了在线事务处理而生,其二大数据技术也不是数据分析技术,或者是数据挖掘、机器学习、神经网络这些AI技术。大数据技术的目的就是为了应对前面所说的业务环境(生活或生产)中第一时间产生的大量或海量数据,可能是一天几个亿甚至几十亿的数据,要对这些数据进行结构化处理,既能大吞吐量的写入存储,还能快速的查询到存储的结构,既要均衡的分布这些数据,还能对出现问故障的节点,快速进行恢复,既能保证系统在分布式环境下具有良好的可用性,在某些情况下还要保证数据的一致性(接近),既要能快速的调用业务规则,实现数据驱动下的实时处理,还能对成百上千台存储了N多个PT数据集的并行分析,提供算力最大化的数据处理架构。


这就是大数据技术。


相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
相关文章
|
2月前
|
存储 机器学习/深度学习 分布式计算
大数据技术——解锁数据的力量,引领未来趋势
【10月更文挑战第5天】大数据技术——解锁数据的力量,引领未来趋势
|
1月前
|
存储 机器学习/深度学习 SQL
大数据处理与分析技术
大数据处理与分析技术
123 2
|
2月前
|
存储 分布式计算 数据可视化
大数据常用技术与工具
【10月更文挑战第16天】
184 4
|
1月前
|
存储 分布式计算 NoSQL
【赵渝强老师】大数据技术的理论基础
本文介绍了大数据平台的核心思想,包括Google的三篇重要论文:Google文件系统(GFS)、MapReduce分布式计算模型和BigTable大表。这些论文奠定了大数据生态圈的技术基础,进而发展出了Hadoop、Spark和Flink等生态系统。文章详细解释了GFS的架构、MapReduce的计算过程以及BigTable的思想和HBase的实现。
|
2月前
|
存储 数据采集 监控
大数据技术:开启智能决策与创新服务的新纪元
【10月更文挑战第5天】大数据技术:开启智能决策与创新服务的新纪元
|
8天前
|
分布式计算 大数据 数据处理
技术评测:MaxCompute MaxFrame——阿里云自研分布式计算框架的Python编程接口
随着大数据和人工智能技术的发展,数据处理的需求日益增长。阿里云推出的MaxCompute MaxFrame(简称“MaxFrame”)是一个专为Python开发者设计的分布式计算框架,它不仅支持Python编程接口,还能直接利用MaxCompute的云原生大数据计算资源和服务。本文将通过一系列最佳实践测评,探讨MaxFrame在分布式Pandas处理以及大语言模型数据处理场景中的表现,并分析其在实际工作中的应用潜力。
37 2
|
22天前
|
SQL 运维 大数据
轻量级的大数据处理技术
现代大数据应用架构中,数据中心作为核心,连接数据源与应用,承担着数据处理与服务的重要角色。然而,随着数据量的激增,数据中心面临运维复杂、体系封闭及应用间耦合性高等挑战。为缓解这些问题,一种轻量级的解决方案——esProc SPL应运而生。esProc SPL通过集成性、开放性、高性能、数据路由和敏捷性等特性,有效解决了现有架构的不足,实现了灵活高效的数据处理,特别适用于应用端的前置计算,降低了整体成本和复杂度。
|
1月前
|
机器学习/深度学习 存储 大数据
在大数据时代,高维数据处理成为难题,主成分分析(PCA)作为一种有效的数据降维技术,通过线性变换将数据投影到新的坐标系
在大数据时代,高维数据处理成为难题,主成分分析(PCA)作为一种有效的数据降维技术,通过线性变换将数据投影到新的坐标系,保留最大方差信息,实现数据压缩、去噪及可视化。本文详解PCA原理、步骤及其Python实现,探讨其在图像压缩、特征提取等领域的应用,并指出使用时的注意事项,旨在帮助读者掌握这一强大工具。
72 4
|
1月前
|
机器学习/深度学习 存储 大数据
云计算与大数据技术的融合应用
云计算与大数据技术的融合应用
|
1月前
|
SQL 存储 大数据
单机顶集群的大数据技术来了
大数据时代,分布式数仓如MPP成为热门技术,但其高昂的成本让人望而却步。对于多数任务,数据量并未达到PB级,单体数据库即可胜任。然而,由于SQL语法的局限性和计算任务的复杂性,分布式解决方案显得更为必要。esProc SPL作为一种开源轻量级计算引擎,通过高效的算法和存储机制,实现了单机性能超越集群的效果,为低成本、高效能的数据处理提供了新选择。