阿里云发布国内首个混合云大数据双活容灾服务

本文涉及的产品
对象存储 OSS,20GB 3个月
云备份 Cloud Backup,100GB 3个月
阿里云盘企业版 CDE,企业版用户数5人 500GB空间
简介: 阿里云发布了国内首个混合云大数据集群双活容灾产品-混合云容灾服务下的大数据容灾服务(HDR for Big Data),采用业界领先的数据双向实时复制技术,HDR for Big Data可以实现Hadoop集群双活和准0 RPO容灾,为大数据灾备制定了全新的标准。

在6月上旬举行的云栖大会上海峰会上,阿里云发布了国内首个混合云大数据集群双活容灾产品-混合云容灾服务下的大数据容灾服务(HDR for Big Data,简称 HDR-BD),并已经在7月份开始邀测。采用业界领先的数据双向实时复制技术,HDR-BD可以实现Hadoop集群双活和准0 RPO容灾,为大数据灾备制定了全新的标准。

常见Hadoop灾备技术的挑战

当前比较常见的Hadoop集群灾备方式是用distcp将数据定期复制到一个备用集群做容灾用途,或者将数据复制到只读集群、二级存储作为备份。这些方案都有明显弱点:

  1. RPO大:distcp 的原理决定了期数据复制不能是实时的,用户必须承受小时到天级的RPO
  2. RTO长:主站宕机后,将只读集群或二级存储中的数据恢复出来会占用大量时间,而拉起standby集群重新启动业务依然是一个耗时的操作
  3. 资源浪费:灾备集群平时处于备用状态,不能用于运行业务
    以上这些问题长期困扰着Hadoop集群的用户和管理员们,大数据集群的灾备领域亟需一种全新的技术来彻底解决目前的困境。HDR- BD此次带来的双向实时复制技术可以在两个Hadoop集群之间建立双活架构,RPO接近0;RTO因为数据随时可读写而极大压缩;双活架构可以让两个集群运行不同的应用,避免资源浪费。这些特性将Hadoop灾备标准提高到了一个全新的高度,为Hadoop用户带来了极高的价值。

HDR-BD的使用场景

image

在自建数据中心和阿里云之间部署HDR-BD服务器配对,用户就可以将自建Hadoop集群与阿里云无缝集成,充分利用阿里云EMR和OSS建立极为高效的Hadoop灾备、迁移系统。HDR-BD可以满足的核心场景包括:

  1. 近0 RPO Hadoop云容灾
    将自建Hadoop集群的数据实时复制到阿里云EMR集群,实现接近0 RPO的Hadoop集群容灾。
  2. Hadoop集群与阿里云EMR集群双活
    在自建Hadoop集群和阿里云EMR集群之间建立数据双向复制。两个集群共享一份数据,但是运行不同的应用,实现集群双活,达到资源的最大化利用。
  3. Hadoop数据实时备份,迁移上云
    云上HDR-BD服务器可以直连至阿里云对象存储OSS。在无需EMR集群的情况下,HDR for Big Data可以将Hadoop数据实时复制到阿里云OSS,实现接近0 RPO的云备份;同时这个机制也可以作为Hadoop数据迁移上云的理想方案。利用这个机制做Hadoop集群迁移上云,在迁移过程中无需启动EMR集群;同时迁移过程无需复杂定制化脚本开发或者复杂的业务停机规划。

HDR-BD的优势

  1. 极低RPO:数据的实时复制决定了每一个写操作都会实时复制到配对集群,RPO几乎为0
  2. 极高资源利用率:数据双向复制确保两个集群共享一份数据但运行不同应用,不会出现一个集群必须处于只读或备用状态的问题,计算资源可以充分利用
  3. 运维复杂度极低: HDR-BD实现了数据的全自动实时双向复制,无需特定复制时间窗口,也无需担心对业务的影响

阿里云此次推出的Hadoop双活容灾方案HDR-BD引入了业界领先的大数据双向复制技术,结合强大的公共云基础设施,可以满足极高要求的大数据灾备场景,为企业Hadoop集群数据保护提供了全新的选择。该服务现已开始邀测,您可以发邮件至hdr-service@alibabacloud.com , 列明您的姓名,公司名称,联系方式,大数据灾备要求,Hadoop集群版本和数据量,阿里云将在审核后联系您安排方案评估和测试。

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
2月前
|
自然语言处理 大数据 应用服务中间件
大数据-172 Elasticsearch 索引操作 与 IK 分词器 自定义停用词 Nginx 服务
大数据-172 Elasticsearch 索引操作 与 IK 分词器 自定义停用词 Nginx 服务
65 5
|
2月前
|
存储 数据采集 监控
大数据技术:开启智能决策与创新服务的新纪元
【10月更文挑战第5天】大数据技术:开启智能决策与创新服务的新纪元
|
2月前
|
消息中间件 监控 Ubuntu
大数据-54 Kafka 安装配置 环境变量配置 启动服务 Ubuntu配置 ZooKeeper
大数据-54 Kafka 安装配置 环境变量配置 启动服务 Ubuntu配置 ZooKeeper
91 3
大数据-54 Kafka 安装配置 环境变量配置 启动服务 Ubuntu配置 ZooKeeper
|
1月前
|
分布式计算 Java 开发工具
阿里云MaxCompute-XGBoost on Spark 极限梯度提升算法的分布式训练与模型持久化oss的实现与代码浅析
本文介绍了XGBoost在MaxCompute+OSS架构下模型持久化遇到的问题及其解决方案。首先简要介绍了XGBoost的特点和应用场景,随后详细描述了客户在将XGBoost on Spark任务从HDFS迁移到OSS时遇到的异常情况。通过分析异常堆栈和源代码,发现使用的`nativeBooster.saveModel`方法不支持OSS路径,而使用`write.overwrite().save`方法则能成功保存模型。最后提供了完整的Scala代码示例、Maven配置和提交命令,帮助用户顺利迁移模型存储路径。
|
2月前
|
存储 分布式计算 druid
大数据-155 Apache Druid 架构与原理详解 数据存储 索引服务 压缩机制
大数据-155 Apache Druid 架构与原理详解 数据存储 索引服务 压缩机制
62 3
|
3月前
|
人工智能 分布式计算 DataWorks
连续四年!阿里云领跑中国公有云大数据平台
近日,国际数据公司(IDC)发布《中国大数据平台市场份额,2023:数智融合时代的真正到来》报告——2023年中国大数据平台公有云服务市场规模达72.2亿元人民币,其中阿里巴巴市场份额保持领先,占比达40.2%,连续四年排名第一。
236 12
|
3月前
|
人工智能 Cloud Native 数据管理
重磅升级,阿里云发布首个“Data+AI”驱动的一站式多模数据平台
阿里云发布首个AI多模数据管理平台DMS,助力业务决策提效10倍
385 17
|
3月前
|
SQL 人工智能 大数据
阿里云牵头起草!首个大数据批流融合国家标准发布
近日,国家市场监督管理总局、国家标准化管理委员会正式发布大数据领域首个批流融合国家标准GB/T 44216-2024《信息技术 大数据 批流融合计算技术要求》,该标准由阿里云牵头起草,并将于2025年2月1日起正式实施。
94 7
|
3月前
|
数据采集 分布式计算 MaxCompute
MaxCompute 分布式计算框架 MaxFrame 服务正式商业化公告
MaxCompute 分布式计算框架 MaxFrame 服务于北京时间2024年09月27日正式商业化!
97 3
|
3月前
|
SQL 人工智能 大数据
首个大数据批流融合国家标准正式发布,阿里云为牵头起草单位!
近日,国家市场监督管理总局、国家标准化管理委员会正式发布大数据领域首个批流融合国家标准 GB/T 44216-2024《信息技术 大数据 批流融合计算技术要求》,该标准由阿里云牵头起草,并将于2025年2月1日起正式实施。