大数据迁移上云厂家 WANdisco 产品技术分析

本文涉及的产品
对象存储 OSS,20GB 3个月
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
对象存储 OSS,内容安全 1000次 1年
简介: 最近在做数据湖产品和客户项目,遇到要把客户线下大数据存储搬迁上云,特别是存储到数据湖存储 OSS 的场景。尽管OSS团队提供了闪电立方离线迁移设备、在线迁移服务,但是针对大数据场景的适配还是发现需要优化的地方。业界大数据迁移上云厂家 [WANdisco ](https://wandisco.com/),提供了线下 Hadoop 大数据迁移上云的产品,值得分析和学习。## 一、厂家介绍官网介绍

最近在做数据湖产品和客户项目,遇到要把客户线下大数据存储搬迁上云,特别是存储到数据湖存储 OSS 的场景。尽管OSS团队提供了闪电立方离线迁移设备、在线迁移服务,但是针对大数据场景的适配还是发现需要优化的地方。业界大数据迁移上云厂家 WANdisco ,提供了线下 Hadoop 大数据迁移上云的产品,值得分析和学习。

一、厂家介绍

官网介绍核心能力是 分钟级迁移任何规模数据到任意云(Start migrating your data lake in minutes, at any scale, to any cloud),典型特点:

  • 无中断的云迁移(Cloud Migration without disruption)。通过 LiveData Migrator 产品实现迁移上云,无需担心业务连续性。
  • 混合云统一体验(Hybrid Cloud without gaps)。将专有云和公共云拉通为统一的集成运维,易使用、性价比高。
  • 无缝的多云方案(Multi Cloud without compromise)。通过 LiveData Platform 产品实现可以实现跨云、跨地域的数据访问。

采用 Gartner 的总结,WANdisco 公司的 LiveData 产品系列,提供了PB级的数据迁移能力,并且保障生产业务无中断,也保证无数据丢失风险。

二、架构和平台

WANdisco 公司的核心是 LiveData Platform 软件平台,它支持数据全球分布,但不会因此降低数字传输速度。该平台的核心目的是 保护投资(Protect your investment,No downtime, no outages, and no risk with guaranteed near-zero RTO and RPO)、IT生态转型(Transform your IT economics,Create a bedrock for performance by fully utilizing hardware previously reserved for backup and recovery)、打破历史限制(Break through legacy constraints,Put all your data to work for the business and innovate without worrying that your IT investments will be left behind)。
LiveData 战略目标是让数据全球可访问并且跨地域一致,缓解数据孤岛的挑战,始终保证企业数据在全球IT环境下的准确性、访问性、一致性,支持用户和应用始终拥有可用的数据,而无需担心全球位置,数据平台架构,以及云供应商地层依赖。其核心架构,如下图所示。
WANdisco LiveData Platform

  • 核心引擎包含 5 个部件:连接Hadoop和对象存储(Hadoop & Object Storage Connectivity)、协调引擎(Coordination Engine)、安全(Security)、接口(Interfaces/APIs)、管理界面(Web UI)。
  • 大数据关键的 4 个插件:Hive Plugin、Ranger Plugin、Sentry Plugin、Backup Plugin。
  • 支持的 3 个产品:LiveData Migrator(迁移数据、元数据)、LiveData Plane(专有云、公共云的数据复制)、LiveData for MultiCloud(跨多云的数据一致性)。

三、产品文档分析

WANdisco 按产品维度提供了各版本的 文档,可以方便的了解技术内容。

3.1 LiveData Migrator 产品介绍

  • 支持数据迁移。数据源端包括:HDFS、S3、IBM COS and local storage,数据目标端包括:ADLS Gen2、Amazon S3、Google Cloud Storage、IBM Cloud Object Storage 和 HDFS。
  • 支持元数据迁移。元数据源端包括:Apache Hive、AWS Glue Data Catalog,数据目标端包括:Apache Hive、Azure SQL DB、AWS Glue Data Catalog、Databricks、Google Dataproc 和 Azure Snowflake。
  • 典型功能:数据迁移、备份和恢复(Back and Restore)、迁移验证(Migration Verifications)。

3.2 LiveData Plane (Fusion) 产品介绍

产品核心技术是 协调引擎,它使用 consensus 技术保证 Hadoop 和对象数据的访问性、准确性、一致性,其典型优势为统一协调数据变更(Coordinates changes to data)、降低时延(Minimizes latency)、容错能力(Eliminates points of failure)、自修复功能(Self-healing)、多向复制(Multi-directional replication)、支持 Hadoop 文件系统&对象存储&Hive&安全元数据、支持多种网络(LAN, WAN, public and private clouds)。
LiveData Plane 复制逻辑

3.3 LiveData Platform for Azure 产品介绍

为了更好的适配 Azure 环境,LiveData Platform for Azure 提供该支持。通过该公司的 Distributed Coordination Engine 支持所有环境到 Azure 的适配,包括专有云、混合云、多地域、多云等环境。
LiveData Platform for Azure

3.4 LiveData for MultiCloud 产品介绍

针对对象存储服务,提供跨云的数据复制。目前支持S3、Azure Blob的对象存储,并提供数据一致性监测、修复工作。
MultiCloud

LiveData for MultiCloud provides LiveData replication across different types of object storage services. It combines the functionality and, going forward, replaces the Plugins for Live S3 and Live Azure Blob Storage. It brings the added benefit of support for the coordination of activities between Fusion zones that reference underlying object storage services that do not use the same interface in each zone.

3.5 插件能力

Apache 开源组件 Sentry,该组件提供了策略管理能力。

3.6 Access Control Plus 产品介绍

该产品提供易用、图形化点击实现的源代码控制机制,它能够和 LDAP、AD 集成,帮助管理代码。同时,针对 Gerrit 提供了 Gerrit Multisite工具、针对 Git 提供了 Git Multisite、针对 SVN 提供了 SVN Multisite Plus

四、小结

通过对 WANdisco 的产品和技术分析,可见就数据迁移本身和阿里云的闪电立方、数据迁移并没有太多差异化的东西。其亮点是在大数据生态下和开源组建 Hive、Ranger、Sentry 的支持,从而能够平滑切入存量 Hadoop 业务。同时通过和 AWS S3、Azure Blob、Databricks Delta Lake 定的兼容适配,支撑了多云能力。最后,在用于 Gerrit、Git、SVN 场景下也给出了最佳实践。
特别是针对大数据生态的适配,对于 OSS 支持数据湖还是有不少的借鉴意义和行动指导。

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
5天前
|
存储 机器学习/深度学习 SQL
大数据处理与分析技术
大数据处理与分析技术
23 2
|
7天前
|
存储 分布式计算 NoSQL
【赵渝强老师】大数据技术的理论基础
本文介绍了大数据平台的核心思想,包括Google的三篇重要论文:Google文件系统(GFS)、MapReduce分布式计算模型和BigTable大表。这些论文奠定了大数据生态圈的技术基础,进而发展出了Hadoop、Spark和Flink等生态系统。文章详细解释了GFS的架构、MapReduce的计算过程以及BigTable的思想和HBase的实现。
|
8天前
|
存储 监控 数据挖掘
【Clikhouse 探秘】ClickHouse 物化视图:加速大数据分析的新利器
ClickHouse 的物化视图是一种特殊表,通过预先计算并存储查询结果,显著提高查询性能,减少资源消耗,适用于实时报表、日志分析、用户行为分析、金融数据分析和物联网数据分析等场景。物化视图的创建、数据插入、更新和一致性保证通过事务机制实现。
46 14
|
7天前
|
SQL 存储 算法
比 SQL 快出数量级的大数据计算技术
SQL 是大数据计算中最常用的工具,但在实际应用中,SQL 经常跑得很慢,浪费大量硬件资源。例如,某银行的反洗钱计算在 11 节点的 Vertica 集群上跑了 1.5 小时,而用 SPL 重写后,单机只需 26 秒。类似地,电商漏斗运算和时空碰撞任务在使用 SPL 后,性能也大幅提升。这是因为 SQL 无法写出低复杂度的算法,而 SPL 提供了更强大的数据类型和基础运算,能够实现高效计算。
|
10天前
|
存储 人工智能 分布式计算
大数据& AI 产品月刊【2024年10月】
大数据& AI 产品技术月刊【2024年10月】,涵盖本月技术速递、产品和功能发布、市场和客户应用实践等内容,帮助您快速了解阿里云大数据& AI 方面最新动态。
|
10天前
|
存储 大数据 定位技术
大数据 数据索引技术
【10月更文挑战第26天】
24 3
|
10天前
|
存储 大数据 OLAP
大数据数据分区技术
【10月更文挑战第26天】
38 2
|
13天前
|
消息中间件 分布式计算 大数据
数据为王:大数据处理与分析技术在企业决策中的力量
【10月更文挑战第29天】在信息爆炸的时代,大数据处理与分析技术为企业提供了前所未有的洞察力和决策支持。本文探讨了大数据技术在企业决策中的重要性和实际应用,包括数据的力量、实时分析、数据驱动的决策以及数据安全与隐私保护。通过这些技术,企业能够从海量数据中提取有价值的信息,预测市场趋势,优化业务流程,从而在竞争中占据优势。
45 2
|
14天前
|
数据采集 机器学习/深度学习 搜索推荐
大数据与社交媒体:用户行为分析
【10月更文挑战第31天】在数字化时代,社交媒体成为人们生活的重要部分,大数据技术的发展使其用户行为分析成为企业理解用户需求、优化产品设计和提升用户体验的关键手段。本文探讨了大数据在社交媒体用户行为分析中的应用,包括用户画像构建、情感分析、行为路径分析和社交网络分析,以及面临的挑战与机遇。
zdl
|
3天前
|
消息中间件 运维 大数据
大数据实时计算产品的对比测评:实时计算Flink版 VS 自建Flink集群
本文介绍了实时计算Flink版与自建Flink集群的对比,涵盖部署成本、性能表现、易用性和企业级能力等方面。实时计算Flink版作为全托管服务,显著降低了运维成本,提供了强大的集成能力和弹性扩展,特别适合中小型团队和业务波动大的场景。文中还提出了改进建议,并探讨了与其他产品的联动可能性。总结指出,实时计算Flink版在简化运维、降低成本和提升易用性方面表现出色,是大数据实时计算的优选方案。
zdl
17 0