大数据技术变革正当时,Apache Hudi了解下?

本文涉及的产品
简介: 大数据技术变革正当时,Apache Hudi了解下?

之前认为只有大公司才能负担得起大数据驱动的解决方案,该方案适用于海量数据,但价格昂贵。随着大数据技术的不断发展,现在已经发生了很大变化。

1. 大数据技术的成熟度

第一次革命与成熟度和质量有关。十年前对于大数据技术开发人员需要做出一定努力才能使一些大数据技术正常工作或与其他大基础组件协同工作。

过去的开发人员浪费了80%的时间试图克服Spark、Hadoop、Kafka或其他软件的低级问题,如今这些技术变得足够可靠,并且可以很好的协同工作。

与出现内部错误相比,基础架构出错的概率要大得多,在大多数情况下即使基础架构出现问题也是可以容忍的,因为大多数大数据处理框架都设计为容错的。此外这些技术为计算提供了稳定、强大和简单的抽象,使开发人员可以专注于业务开发。

2. 各种大数据技术

第二场革命现在正在发生,近年出现了很多开源技术,如Apache Pino,Delta Lake,Hudi,Presto,Clickhouse,Snowflake,Upsolver,Serverless等等。数千名开发人员将创造力和创意转化为了大胆而出色的解决方案,并可相互协同。

接着我们来介绍一个典型的分析数据平台(ADP),它包括四层:

• 仪表板和可视化– ADP的外观,向终端用户提供分析入口。• 数据处理 – 数据流水线,用于验证、丰富和转换,将数据从一种形式到另一种形式。• 数据仓库 – 存放组织良好的数据的地方– 汇总、数据集市等。• 数据湖 - 用于存放原始数据的地方,是数据仓库的基础。

上述每一层都有很多替代品,可满足任何要求,这些技术中有一半是在过去5年内出现的。

这些技术开发旨在相互兼容。例如典型的低成本小型ADP可能包含Apache Spark作为处理组件的基础,AWS S3或类似云上对象存储作为数据湖,Clickhouse作为仓库,OLAP用于低延迟查询,而Grafana用于仪表板。

具有更强保证、更复杂的ADP可以以另外不同的方式构成,例如引入Apache Hudi与S3、OSS作为数据仓库可以确保更大的规模,而Clickhouse仍然可以低延迟地访问聚合数据。

3. 成本效益

第三次革命由云引发。云服务成为真正的游戏规则改变者,他们将大数据作为即用型平台(大数据即服务)进行处理,使开发人员可以专注于功能特性开发,使云计算能够关注基础架构。

下图显示了ADP的另一个示例,该示例利用了无服务器技术,从存储、处理到表示层的强大功能。AWS托管服务使用了相同的设计思想(此处的AWS只是一个示例,可以在任何其他云提供商的基础上构建相同的ADP)。

开发人员可以选择特定技术和一定程度的无服务器技术,无服务器技术越多,可组合性就越好,锁定在特定的云提供商和无服务器技术的解决方案可以缩短开发交付时间,但在无服务器技术之间进行明智地选择可使解决方案具有成本效益。

尽管此选项对初创公司而言不是很有用,因为它们倾向于利用10万美元云信用额度,并且在AWS,GCP和Azure之间进行转变非常普遍。

通常工程师需要区分以下成本:

• 开发成本• 维护成本• 变更成本

3.1 开发成本

云技术绝对可以简化工程工作,它在几个方面产生积极影响。

第一个是架构和设计决策。无服务器技术提供了丰富的模式和可重用组件集,为解决方案的体系结构提供了坚实而一致的基础。

其中的问题是可能会减慢设计阶段:大数据技术自然是分布式的,因此在设计相关解决方案时必须考虑可能的故障和中断,以确保数据的可用性和一致性,另外解决方案进行扩展所需的精力更少。

第二个是集成和端到端测试。无服务器技术允许创建隔离的沙箱,播放,测试,修复问题,从而减少开发时间。

另一个优势是云使解决方案的部署过程实现了自动化,此功能是任何团队成功的必备属性。

3.2 维护成本

云提供商声称要解决的主要目标之一是减少用户监视工作并保持生产环境可用,他们试图用几乎没有devops参与的方式构建某种理想的抽象,但实际情况有所不同,关于这个想法通常维护仍然需要一些努力,下表显示了最突出的部分。

除此之外,这方案在很大程度上取决于基础设施和许可证成本。设计阶段非常重要,因为它提供了一个挑战特定技术并提前预估运行成本的机会。

3.3 变更成本

大数据技术关注客户的另一个重要方面 - 变更成本。我们的经验表明大数据与任何其他技术之间没有区别,如果解决方案没有过度设计,那么变更的成本就可以与非大数据技术完全媲美,大数据带来了一个好处是大数据解决方案被设计为解耦的,设计正确的解决方案看起来不像是整体解决方案,可以在需要的地方短期内应用局部更改,并且影响生产的风险较小。

4. 总结

总而言之我们认为大数据是可以负担得起的,它为开发人员提出了新的设计模式和方法,开发人员可以利用它来组装符合最严格的业务要求并同时具有成本效益的任何分析数据平台。

大数据驱动的解决方案可能是快速成长的初创公司的基础,这些初创公司希望变得灵活,应用快速变更,而一旦企业需要更大的数据量,大数据驱动的解决方案就可以与企业一起扩展。

大数据技术允许以小规模或大规模实施近实时分析,而经典解决方案却有性能问题,云提供商已将大数据提升到了新的水平,从而提供了可靠、可扩展和即用的功能,快速交付来开发具有成本效益的ADP从未如此简单。

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
12天前
|
分布式计算 Hadoop 大数据
大数据技术与Python:结合Spark和Hadoop进行分布式计算
【4月更文挑战第12天】本文介绍了大数据技术及其4V特性,阐述了Hadoop和Spark在大数据处理中的作用。Hadoop提供分布式文件系统和MapReduce,Spark则为内存计算提供快速处理能力。通过Python结合Spark和Hadoop,可在分布式环境中进行数据处理和分析。文章详细讲解了如何配置Python环境、安装Spark和Hadoop,以及使用Python编写和提交代码到集群进行计算。掌握这些技能有助于应对大数据挑战。
|
12天前
|
存储 数据采集 数据可视化
大数据处理技术
【4月更文挑战第10天】大数据处理涵盖采集、预处理、存储、分析挖掘、展现和应用等关键步骤。采集涉及多种类型数据,预处理确保数据质量,存储管理关注规模、速度和安全,分析挖掘利用机器学习发现价值,展现和应用则通过可视化和检索实现数据价值。云计算和AI强化了大数据处理能力,整体目标是提取数据中的价值,驱动企业和社会进步。
36 4
大数据处理技术
|
6天前
|
存储 算法 搜索推荐
【大数据分析与挖掘技术】Mahout推荐算法
【大数据分析与挖掘技术】Mahout推荐算法
11 0
|
6天前
|
机器学习/深度学习 算法 数据挖掘
【大数据分析与挖掘技术】概述
【大数据分析与挖掘技术】概述
10 1
|
7天前
|
存储 分布式计算 大数据
大数据技术概述
大数据技术概述
26 3
|
12天前
|
机器学习/深度学习 运维 算法
大数据基础工程技术团队4篇论文入选ICLR,ICDE,WWW
近日,由阿里云计算平台大数据基础工程技术团队主导的四篇时间序列相关论文分别被国际顶会ICLR2024、ICDE2024和WWW2024接收。
|
12天前
|
存储 机器学习/深度学习 数据采集
大数据处理与分析实战:技术深度剖析与案例分享
【5月更文挑战第2天】本文探讨了大数据处理与分析的关键环节,包括数据采集、预处理、存储、分析和可视化,并介绍了Hadoop、Spark和机器学习等核心技术。通过电商推荐系统和智慧城市交通管理的实战案例,展示了大数据在提高用户体验和解决实际问题上的效能。随着技术进步,大数据处理与分析将在更多领域发挥作用,推动社会进步。
|
12天前
|
存储 数据可视化 大数据
大数据技术框架
【4月更文挑战第20天】大数据一般需要经过6个主要环节,包括数据收集、数据存储、资源管理与服务协调、计算引擎、数据分析和数据可视化。
|
12天前
|
数据可视化 Linux Apache
CentOS部署Apache Superset大数据可视化BI分析工具并实现无公网IP远程访问
CentOS部署Apache Superset大数据可视化BI分析工具并实现无公网IP远程访问
|
12天前
|
机器学习/深度学习 分布式计算 大数据
一文读懂Apache Beam:统一的大数据处理模型与工具
【4月更文挑战第8天】Apache Beam是开源的统一大数据处理模型,提供抽象化编程模型,支持批处理和流处理。它提倡"一次编写,到处运行",可在多种引擎(如Spark、Dataflow、Flink)上运行。Beam的核心特性包括抽象化概念(PCollection、PTransform和PipelineRunner)、灵活性(支持多种数据源和转换)和高效执行。它广泛应用在ETL、实时流处理、机器学习和大数据仓库场景,助力开发者轻松应对数据处理挑战。
34 1

热门文章

最新文章

推荐镜像

更多