上帝视角一览大数据开发体系

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 上帝视角一览大数据开发体系

前言


不知道大家有没有过在百度搜索旅游的关键字,不久就可能收到机票的推销的经验。如今是大数据的时代,数据的价值越来越重要。数据即资产,想必大家都听说过。最近公司的项目中也用到了一些大数据的技术,本文对大数据相关的知识体系做了一个整体的梳理。


什么是大数据


大数据,你可能就简单理解为数据量大,那是多大才算大数据呢?如果只有数据量大是不是太片面单一了,实际上如果你说是从事大数据开发, 那么起码要满足下面的5大特征。


1671202961520.jpg


5大特征


1.数据量大

  • 需要采集的数据量大
  • 需要存储的数据量大
  • 需要计算de 数据量大
  • 数据总体规模起码要TB、PB级别起步

2.数据种类、来源多样化

  • 数据的种类多样,可能是类似MySQL一样的结构化数据,也可能是文本的非结构化数据,或者介于二者之间的半结构化数据
  • 数据的格式来源也多样,可以是业务数据、日志文本文件,甚至是图片、视频等。

3.低价值密度

  • 信息海量但是有价值的少,也就是价值密度低
  • 深度复杂的挖掘分析需要机器学习参与

4.速度快

  • 数据增长速度快
  • 获取数据速度快
  • 数据处理速度块

5.数据的质量

  • 数据的准确性要求高
  • 数据的可信赖度


数据分析方向


针对海量数据的分析,针对不同的业务场景,大致可以分为3个方向,离线分析,实时分析和预测分析。


离线分析


离线分析,也就是所谓的批处理,主要分析过去的历史数据,可以每周(T+7)或者每天(T+1)的方式分析历史的数据,找出隐藏在数据背后的深层次原因,从而做出调整优化。比如说分析过去一个月的用户操作数据等。

这种分析方式一般数据量非常大,通常采用Hadoop生态技术体系解决,比如HDFSYarnHbase等技术。

1671202977567.jpg


实时分析


实时分析,也叫流计算,主要是面向当下,实时处理分析数据,你可以想象成流水一样,源源不断的处理数据,对时效性要求比较高,可到秒级甚至毫秒级。比如说在金融领域中,你发起一笔交易,可以通过实时分析判断当前笔交易是否存在欺诈风险,从而保护资金安全。


1671202983888.jpg


目前StormFlinkSparkStreaming 都是比较流行的流式处理框架。


预测分析


预测分析,实际就是通过机器学习的手段,基于历史数据和当下产生的实时数据预测未来发生的事情。更侧重于数学算法的运用,如分类、聚类、关联、预测,但是也离开不了数据,需要通过历史的数据进行训练,得出可预测的模型,比较典型的应用比如说电商领域"猜你喜欢"。

1671202994690.jpg


数据分析步骤


我们都知道数据的重要性,那数据分析的整个生命周期是怎么样的呢?什么时候来,要做什么处理,都有什么步骤呢?

  1. 明确分析目的和思路
  • 要弄清楚你的业务场景,找到分析的目的,目的是整个分析流程的起点,需要为数据的收集、处理及分析提供清晰的指引方向。
  • 厘清分析的思路,比如先分析什么,后分析什么,使各分析点之间具有逻辑联系,保证分析维度的完整性,分析结果的有效性以及正确性,需要数据分析方法论进行支撑;
  1. 数据收集
  • 数据从无到有的过程:比如传感器收集气象数据、埋点收集用户行为数据
  • 数据传输搬运的过程:比如采集数据库数据到数据分析平台


1671203001677.jpg


  1. 数据预处理
  • 数据预处理需要对收集到的数据进行加工整理,形成适合数据分析的样式,主要包括数据清洗数据转化数据提取数据计算
  • 数据预处理可以保证数据的一致性和有效性,让数据变成干净规整的结构化数据。
  1. 数据分析
  • 用适当的分析方法及分析工具,对处理过的数据进行分析,提取有价值的信息,形成有效结论的过程;
  • 需要掌握各种数据分析方法,还要熟悉数据分析软件的操作;
  1. 数据展现
  • 通过图表、报表等方式形象直观的展示出数据分析的结果,这也叫做数据可视化。
  1. 报告撰写
  • 数据分析报告是对整个数据分析过程的一个总结与呈现
  • 把数据分析的起因、过程、结果及建议完整地呈现出来,供决策者参考


1671203016857.jpg


大数据主流技术栈


前面讲解了大数据分析的整个过程,需要涉及到很多步骤,每个步骤都需要一些工具和方法支持,作为开发人员,我们可能更加关注用到的一些主流技术栈,目前最主流的还是基于Hadoop生态。

1671203026442.jpg


  1. 数据采集和传输层
  • Flume

Flume一个分布式、可靠的、高可用的用于数据采集、聚合和传输的系统,常用于日志采集系统中。

  • Logstash

ELK中的一员,也常用于数据采集。

  • Sqoop

Sqoop主要通过一组命令进行数据导入导出的工具,主要用于Hadoop(如HDFS、Hive、HBase)和RDBMS(如mysql、oracle)之间的数据导入导出。

  • Kafka/RocketMQ

高性能的的消息队列,主要应用在数据缓冲、异步通信、汇集数据、系统解耦等方面。

  1. 数据存储层
  • HDFS

分布式文件存储系统,HDFS非常适合大规模数据集上的应用,提供高吞吐量的数据访问,可部署在廉价的机器上。

  • HBase

是一款基于HDFS的数据库,是一种NoSQL数据库,主要适用于海量明细数据(十亿、百亿)的随机实时查询,如日志明细、交易清单、轨迹行为等。

HBase可以认为是HDFS的一个包装。他的本质是数据存储,是个NoSql数据库;HBase部署于HDFS之上,并且克服了HDFS不能随机读写的问题。

  • Kudu

介于HDFS和HBase之间的基于列式存储的分布式数据库。兼具了HBase的实时性、HDFS的高吞吐,以及传统数据库的sql支持。

  1. 数据计算与分析层
  • MapReduce

分布式运算程序的编程框架,适用于离线数据处理场景。

  • Yarn

Yarn是一个资源调度平台,负责为运算程序分配资源和调度,不参与用户程序内部工作。

  • Hive

Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供HQL语句(类SQL语言)查询功能,存储依赖于HDFS。本质上是把好写的hive的sql转换为复杂难写的map-reduce程序。

  • Spark

Spark是一个快速、通用、可扩展、可容错的、内存迭代式计算的大数据分析引擎。目前生态体系主要包括用于批数据处理的SparkRDDSparkSQL,用于流数据处理的SparkStreaming,用于机器学习的Spark MLLib,用于图计算的Graphx以及用于统计分析的SparkR

  • Flink

Flink是一个分布式的实时计算引擎,可以对有限数据流和无限数据流进行有状态的计算。

  • Storm

Storm是一个没有批处理能力的数据流处理计算引擎,是由Twitter开源后归于Apache管理的分布式实时计算系统。

  • Phoenix

构建在HBase之上的一个SQL层,能让我们通过标准的JDBC API操作HBase中的数据。

小结:

大数据生态组件众多,上面只是列出了其中一部分,目前一般会通过CDH等平台统一进行安装管理,如下图所示:


1671203035045.jpg


总结


本文讲解了从上帝视角看大数据分析,了解了数据分析的方向和步骤,同时整理了目前市面上常见的一些大数据组件,希望对大家入门大数据学习有一个初步的认识。

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
3月前
|
SQL 分布式计算 DataWorks
DataWorks产品使用合集之如何开发ODPS Spark任务
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
4月前
|
SQL 存储 分布式计算
ODPS开发大全:入门篇(3)
ODPS开发大全:入门篇
190 19
|
4月前
|
SQL 存储 分布式计算
ODPS开发大全:入门篇(1)
ODPS开发大全:入门篇
452 14
|
4月前
|
SQL 分布式计算 资源调度
ODPS开发大全:进阶篇(1)
ODPS开发大全:进阶篇
392 13
|
2月前
|
SQL 分布式计算 大数据
代码编码原则和规范大数据开发
此文档详细规定了SQL代码的编写规范,包括代码的清晰度,执行效率,以及注释的必要性。它强调所有SQL关键字需统一使用大写或小写,并禁止使用select *操作。此外,还规定了代码头部的信息模板,字段排列方式,INSERT, SELECT子句的格式,运算符的使用,CASE语句编写规则,查询嵌套规范,表别名定义,以及SQL注释的添加方法。这些规则有助于提升代码的可读性和可维护性。
46 0
|
2月前
|
SQL 分布式计算 大数据
大数据开发SQL代码编码原则和规范
这段SQL编码原则强调代码的功能完整性、清晰度、执行效率及可读性,通过统一关键词大小写、缩进量以及禁止使用模糊操作如select *等手段提升代码质量。此外,SQL编码规范还详细规定了代码头部信息、字段与子句排列、运算符前后间隔、CASE语句编写、查询嵌套、表别名定义以及SQL注释的具体要求,确保代码的一致性和维护性。
84 0
|
4月前
|
SQL 分布式计算 MaxCompute
SQL开发问题之对于ODPS中的UNION操作,执行计划的问题如何解决
SQL开发问题之对于ODPS中的UNION操作,执行计划的问题如何解决
|
4月前
|
SQL 分布式计算 MaxCompute
ODPS开发大全:入门篇(2)
ODPS开发大全:入门篇
114 14
|
4月前
|
存储 分布式计算 MaxCompute
构建NLP 开发问题之如何支持其他存储介质(如 HDFS、ODPS Volumn)在 transformers 框架中
构建NLP 开发问题之如何支持其他存储介质(如 HDFS、ODPS Volumn)在 transformers 框架中
|
4月前
|
SQL 分布式计算 资源调度
ODPS开发大全:进阶篇(4)
ODPS开发大全:进阶篇
219 10