Hadoop工具让数据仓库迁移更轻松

简介:

从高成本数据仓库将任务卸载有时被看做是Hadoop商用集群的首要目标。迁移提取、转换、加载(ETL)、查询以及报告工作并不能显著改变商业模式,但它可能会抑制数据仓库的增长和成本。

从高成本数据仓库将任务卸载有时被看做是Hadoop商用集群的首要目标。迁移提取、转换、加载(ETL)、查询以及报告工作并不能显著改变商业模式,但它可能会抑制数据仓库的增长和成本。

但是,即便进入Hadoop时代已经有些年头了,将任务迁移至分布式平台并非易事。能够找出哪些任务在不给大量开发人员带来麻烦的情况下进行迁移,有助于数据管理人员做出最佳选择。

一款来自Cloudera公司的Hadoop工具Navigator Optimizer可能是个不错的选择。它源于该公司在2015年收购的Xplain.io,这家公司试图将某些与SQL类似的数据库优化功能引入Hadoop。该产品于今夏开始正式供应。

“该工具可以让人们查看那些正在其他平台上运行的查询,并可以查看它们将会如何在我们的Hadoop环境中表现,” Conversant的一名软件工程经理Peter Wojciechowski说,而Conversant是一家数字营销公司,它通过对大量数据的处理来呈现个性化的广告。

Conversant在查询中的表现

Conversant最初是将Hadoop用作数据的第一着陆点,之后通过Pivotal Greenplum数据仓库进行处理以用于分析。团队使用Navigator已经能够将某些任务迁移至Hadoop和Apache Hive数据仓库以及Impala SQL查询环境。

“如今,核心的ETL和某些大型处理工作是在一个Hadoop集群上进行的,”Wojciechowski说,高度迭代的处理工作对于Hadoop来说是不错的目标,但Greenplum并未被取代。在他的公司里,Greenplum仍担当着重要的分析责任。但现在,其使用则更为精炼。

Wojciechowski说,“以前,Greenplum负责了所有的工作负载,但并不是所有工作负载都与其契合。现在,有了该工具,我们就能更加游刃有余,例如,我们可以判断什么才是适合在Hive中运行的。”

通过使用Optimizer,Wojciechowski和他的团队能够说出在Hive和Impla中查询将会如何更好的执行,这就如同是接受在新环境中查询是如何执行的指导是一样的。Hadoop工具在生产中还有着进一步的应用。Optimizer与Navigator协同工作会帮助你判断如何将工作负载查询进行分组,这样就能发现更多的重复并更有效的对集群进行利用,”他说。

像Navigator Optimizer之类的技术有助于揭示数据连接,这是一个SQL常见的特性,而它会对Hadoop造成阻碍,451 Research的分析师James Curtis如是说。“Navigator会在将任务迁移至Impala或Hive之前对已有工作进行分析,并对需要重做的连接数量进行估计,”他说。

对于该工具在任务迁移中的作用他表示认同,但他强调对查询的优化远比仅用于迁移有着更广泛的使用。“对于那些拥有数以千计查询的公司来说,优化查询并不是琐碎的工作,”Curtis说。

改变和提升

像Cloudera Navigator套件之类产品的可用性可以覆盖包括所有最困难迁移任务中的一项:即将主框架数据迁移至Hadoop生态系统。

为此,主框架和Hadoop数据转换公司Syncsort表示,它正在和Cloudera合作,通过将Navigator连接至其工具来追踪传统来源的数据沿袭以改善数据治理。这些传统来源不仅限于主框架,而是包括运行在中端系统上的数据仓库。

对于将关系型数据仓库任务迁移至Hadoop来说,Cloudera并不是可以提供工具唯一厂商,这一领域是十分活跃的。

对于他们来说,独立的Hadoop分销竞争对手Hortonworks和MapR Technologies Inc.会提供相关的Hadoop工具,包括基于Apache Calcite的SQL优化工具,而Apache Calcite是一款包括了一个SQL解析器和查询规划器的开源项目,而它刚刚迎来它的第一个生日。

而且,数据管理服务公司Bitwise最近推出了Hydrograph,这是一款旨在简化卸载ETL工作负载到Hadoop和其他大数据框架的工具。Bitwise的软件是与客户Capital One一起开发的,它基于的开发环境使用了XML接口,因此任务可以迁移至不同的Hadoop框架,例如从MapReduce到Tez,只需要少量重新配置。

如果这些Hadoop工具能够让迁移设计更上一层楼并不断探索试错,则会改善对Hadoop的提升。对于企业中Hadoop和它的生态系统组件来说,在平台上高效地获取数据仓库工作仍是一项重要步骤。

本文转自d1net(转载)

目录
相关文章
|
2月前
|
SQL 分布式计算 关系型数据库
Hadoop-21 Sqoop 数据迁移工具 简介与环境配置 云服务器 ETL工具 MySQL与Hive数据互相迁移 导入导出
Hadoop-21 Sqoop 数据迁移工具 简介与环境配置 云服务器 ETL工具 MySQL与Hive数据互相迁移 导入导出
62 3
|
7月前
|
存储 机器学习/深度学习 数据采集
【专栏】在数字化时代,数据仓库和数据湖成为企业管理数据的关键工具
【4月更文挑战第27天】在数字化时代,数据仓库和数据湖成为企业管理数据的关键工具。数据仓库是经过规范化处理的结构化数据集合,适合支持已知业务需求;而数据湖存储原始多类型数据,提供数据分析灵活性。数据仓库常用于企业决策、财务分析,而数据湖适用于大数据分析、机器学习和物联网数据处理。企业需根据自身需求选择合适的数据存储方式,以挖掘数据价值并提升竞争力。理解两者异同对企业的数字化转型至关重要。
136 2
|
2月前
|
SQL 关系型数据库 MySQL
Hadoop-25 Sqoop迁移 增量数据导入 CDC 变化数据捕获 差量同步数据 触发器 快照 日志
Hadoop-25 Sqoop迁移 增量数据导入 CDC 变化数据捕获 差量同步数据 触发器 快照 日志
42 0
|
2月前
|
SQL 分布式计算 关系型数据库
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
90 0
|
6月前
|
存储 分布式计算 Hadoop
Spark和Hadoop都是大数据处理领域的重要工具
【6月更文挑战第17天】Spark和Hadoop都是大数据处理领域的重要工具
180 59
|
4月前
|
存储 SQL 分布式计算
揭秘Hadoop:如何用这个超级工具征服大数据的海洋
【8月更文挑战第7天】Hadoop是一个强大的分布式系统基础架构
66 1
|
5月前
|
分布式计算 监控 安全
Hadoop格式化前使用DistCp工具
【7月更文挑战第23天】
62 6
|
5月前
|
SQL Cloud Native 关系型数据库
云原生数据仓库使用问题之如何实现adb到adb的整库迁移或同步
阿里云AnalyticDB提供了全面的数据导入、查询分析、数据管理、运维监控等功能,并通过扩展功能支持与AI平台集成、跨地域复制与联邦查询等高级应用场景,为企业构建实时、高效、可扩展的数据仓库解决方案。以下是对AnalyticDB产品使用合集的概述,包括数据导入、查询分析、数据管理、运维监控、扩展功能等方面。
|
7月前
|
SQL 分布式计算 关系型数据库
【数据仓库与联机分析处理】数据仓库工具Hive
【数据仓库与联机分析处理】数据仓库工具Hive
113 6
|
7月前
|
SQL 分布式计算 Hadoop
利用Hive与Hadoop构建大数据仓库:从零到一
【4月更文挑战第7天】本文介绍了如何使用Apache Hive与Hadoop构建大数据仓库。Hadoop的HDFS和YARN提供分布式存储和资源管理,而Hive作为基于Hadoop的数据仓库系统,通过HiveQL简化大数据查询。构建过程包括设置Hadoop集群、安装配置Hive、数据导入与管理、查询分析以及ETL与调度。大数据仓库的应用场景包括海量数据存储、离线分析、数据服务化和数据湖构建,为企业决策和创新提供支持。
771 1

热门文章

最新文章