《CDP企业数据云平台从入门到实践》——HBase 迁移到 CDP(2)

简介: 《CDP企业数据云平台从入门到实践》——HBase 迁移到 CDP(2)

《CDP企业数据云平台从入门到实践》——HBase 迁移到 CDP(1) https://developer.aliyun.com/article/1226639?groupCode=ClouderaCDP


二、 HBase 迁移概览


1. 推荐的 HBase 迁移方案


将数据迁移到 CDP Private Cloud Base 部署时,必须使用 Apache HBase 复制和快照功能。


T0:设置 A 集群到 B 集群的 Replication,记录增量数据。

T1:A 集群生成快照,导出快照,获得 T1 时刻的全量数据。

T2:B 集群导入 T1 的全量快照,同时 T0 的 Replication 增量数据开始自动同步。

T3:Replication 增量数据逐渐消费完,业务面暂停写入。

T4:Replication 数据完全消费完,业务切换到 B 集群。

• 使用快照一次性导出/ExportSnapshot 到目的地/CloneSnapshot。

• 持续迁移:一次性方法+HBase Replication 设置。


2. 数据迁移先决条件


• 如果从 CDH 迁移,请在目标 CDP 集群中配置与现有 CDH 集群中的 HBase ACL对应的 Ranger ACL。

• 如果从 HDP 迁移,请在目标 CDP 集群中配置与现有 HDP 集群中的 HBase ACL或Ranger ACL 对应的 Ranger ACL。

• 迁移应用程序以使用新的 HBase-Spark Connector,因为 CDP 不再支持在 CDH或HDP 中使用的 Spark-HBase Connector。

• 查看从 HDP 2.x 或 CDH 5.x 升级到 CDP 时不推荐使用的 API 和不兼容(CDH6/HDP3 基本上没问题)。

• 确保升级前所有数据都迁移到支持的数据块编码类型。

• 确保手动升级任何外部的或第三方的协处理器,因为在升级期间它们不会自动升级。


3. HBase 数据迁移步骤


在迁移数据之前,必须在 CDP PvC Base 上创建一个 Apache HBase 集群。CDH 或HDP 集群是源集群,CDP PvC Base 集群是目标集群。


1) 在源集群和目标集群上部署 HBase Replication。


2) 通过对要在 HBase Shell 中复制的每个表运行以下命令,在源集群和目标集群上启用复制:


• 在源集群上

create 't1',{NAME=>'f1', REPLICATION_SCOPE=>1}

• 在目标集群上

create 't1',{NAME=>'f1', KEEP_DELETED_CELLS=>'true'}


注:建议在目标集群中的列族上启用 KEEP_DELETED_CELLS,其中源集群中的REPLICATION_SCOPE=1。


3) 在源集群的 HBase Shell 中运行 add_peer 命令,将目标集群添加为 peer:


add_peer 'ID', 'DESTINATION_CLUSTER_KEY'

注:可以从 Cloudera Manager(CM)访问的 HBase Master 用户界面获取

DESTINATION_CLUSTER_KEY 值。


4) 在源集群的 HBase Shell 中运行 disable_peer(“”)命令来禁用源集群中的 peer:


disable_peer("ID1")


5) 在 Cloudera Manager 中拍摄快照(UI/BDR/Hbase shell 命令行)。


6) 在源集群的 HBase Shell 中运行 ExportSnapshot 命令,将源集群的快照导出到


目标集群,必须以 HBase 用户或拥有文件的用户身份运行 ExportSnapshot 命令:

hbase org.apache.hadoop.hbase.snapshot.ExportSnapshot -snapshot

-copy-to hdfs://destination:hdfs_port/hbase -

mappers 16


注:必须在源集群和目标集群上启用快照。导出快照时,表的 HFile、日志和快照元

数据将从源集群复制到目标集群。


7) 在源集群的 HBase Shell 中运行 enable_peer(“”)以启用源集群和目标集群中的 peer:


enable_peer("ID1")


8) 在目标集群恢复快照:


restore_snapshot 'student_snapshot’


9) 后续增量数据会自动利用 replication 功能同步到目标集群中。


10) 数据同步完成后,需要将源端的 peer 给 disable 掉,这时数据就不再继续同步:


disable_peer("ID1")


4. HBase 数据迁移步骤(少量数据)


在源集群上运行 HashTable 命令,在目标集群上运行 SyncTable 命令,以验证表数据在源集群和目标集群之间是否同步:

• 在源集群上

HashTable [options]  

• 在目标集群上

SyncTable [options]  


《CDP企业数据云平台从入门到实践》——HBase 迁移到 CDP(3) https://developer.aliyun.com/article/1226634?groupCode=ClouderaCDP

相关实践学习
lindorm多模间数据无缝流转
展现了Lindorm多模融合能力——用kafka API写入,无缝流转在各引擎内进行数据存储和计算的实验。
云数据库HBase版使用教程
  相关的阿里云产品:云数据库 HBase 版 面向大数据领域的一站式NoSQL服务,100%兼容开源HBase并深度扩展,支持海量数据下的实时存储、高并发吞吐、轻SQL分析、全文检索、时序时空查询等能力,是风控、推荐、广告、物联网、车联网、Feeds流、数据大屏等场景首选数据库,是为淘宝、支付宝、菜鸟等众多阿里核心业务提供关键支撑的数据库。 了解产品详情: https://cn.aliyun.com/product/hbase   ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库 ECS 实例和一台目标数据库 RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
目录
相关文章
|
13天前
|
缓存 监控 Shell
如何使用 HBase Shell 进行数据的实时监控和备份?
如何使用 HBase Shell 进行数据的实时监控和备份?
|
13天前
|
Shell 分布式数据库 Hbase
如何使用 HBase Shell 进行数据的批量导入和导出?
如何使用 HBase Shell 进行数据的批量导入和导出?
|
4月前
|
存储 分布式数据库 数据库
Hbase学习二:Hbase数据特点和架构特点
Hbase学习二:Hbase数据特点和架构特点
84 0
|
4月前
|
弹性计算 Linux 网络安全
使用阿里云服务器迁移中心SMC将其他云平台业务迁移至阿里云教程参考
现在越来越多的个人和企业用户选择将其他云平台或者服务商的业务迁移到阿里云,但是如何快速且安全完成迁移是很多用户比较关注的问题,我们可以选择使用阿里云提供的服务器迁移中心(Server Migration Center,简称SMC),这个产品是阿里云提供给您的迁移平台,专注于提供能力普惠、体验一致、效率至上的迁移服务,满足您在阿里云的迁移需求。本文为大家展示使用阿里云服务器迁移中心SMC将其他云平台业务迁移至阿里云的教程,以供参考。
使用阿里云服务器迁移中心SMC将其他云平台业务迁移至阿里云教程参考
|
4月前
|
缓存 监控 Shell
使用 HBase Shell 进行数据的实时监控和备份
使用 HBase Shell 进行数据的实时监控和备份
|
4月前
|
Shell 分布式数据库 Hbase
使用 HBase Shell 进行数据的批量导入和导出
使用 HBase Shell 进行数据的批量导入和导出
620 6
|
3月前
|
存储 分布式计算 分布式数据库
《HBase MapReduce之旅:我的学习笔记与心得》——跟随我的步伐,一同探索HBase世界,揭开MapReduce的神秘面纱,分享那些挑战与收获,让你在数据的海洋里畅游无阻!
【8月更文挑战第17天】HBase是Apache顶级项目,作为Bigtable的开源版,它是一个非关系型、分布式数据库,具备高可扩展性和性能。结合HDFS存储和MapReduce计算框架,以及Zookeeper协同服务,HBase支持海量数据高效管理。MapReduce通过将任务拆解并在集群上并行执行,极大提升处理速度。学习HBase MapReduce涉及理解其数据模型、编程模型及应用实践,虽然充满挑战,但收获颇丰,对职业发展大有裨益。
46 0
|
4月前
|
存储 Java 分布式数据库
HBase构建图片视频数据的统一存储检索
HBase构建图片视频数据的统一存储检索
|
6月前
|
安全 Linux 网络安全
其他云平台的业务迁移到阿里云最新优惠,使用服务器迁移中心SMC快速迁移简介
越来越多的个人和企业希望将部署在其他云平台或者IDC企业的业务迁移到阿里云上,对于这部分用户来说,最为关注的问题就是迁移到阿里云有没有什么优惠,迁移过程是否麻烦,针对这部分用户的需求,阿里云推出了5亿算力补贴,针对迁移用户做出补贴优惠,在迁移过程中,用户可以自行做数据传输迁移,也可以使用阿里云的服务器迁移中心,快速完成迁移。本文为大家介绍其他云服务商的业务迁移到阿里云最新优惠政策,以及使用服务器迁移中心实现快速迁移的方法。
其他云平台的业务迁移到阿里云最新优惠,使用服务器迁移中心SMC快速迁移简介
|
6月前
|
消息中间件 关系型数据库 MySQL
实时计算 Flink版操作报错合集之使用 Event Time Temporal Join 关联多个 HBase 后,Kafka 数据的某个字段变为 null 是什么原因导致的
在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。
137 0
下一篇
无影云桌面