【大数据新手上路】“零基础”系列课程--MySQL 数据整库迁移到 MaxCompute

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
简介: 本实验通过大数据开发套件的整库迁移功能,快速将 MySQL 数据整库迁移到 MaxCompute,从而提升工作效率、降低用户使用成本。

随着公司业务的增多,云数据库 RDS 下的 MySQL 数据库的表越来越多,想要把它全部迁移到 MaxCompute 中进行计算分析,但又愁要配置太多次同步任务。如何能将大量的数据表一次性上传到 MaxCompute 中呢?通过大数据开发套件的整库迁移功能,便可快速完成 MySQL 数据整库迁移到 MaxCompute,从而节省同步时间,提高工作效率。 **下面介绍一个适用于中小企业用户,高效率低成本的数据同步方案:** 对于自建或云数据库 RDS 的 MySQL 数据库中的数据,都可以通过整库迁移功能,快速同步到 MaxCompute 中进行存储与分析,流程图如下:  ![25](https://yqfile.alicdn.com/7a5368026bbfba5e6ba60bd19cbd19ef63501d8c.png) [云数据库 RDS ](https://help.aliyun.com/product/26090.html "云数据库 RDS 版"):RDS 是一种稳定可靠、可弹性伸缩的在线数据库服务,本实验主要使用 [云数据库 MySQL 版](https://help.aliyun.com/document_detail/26124.html)。 [MaxCompute](https://www.aliyun.com/product/odps?spm=5176.100239.blogcont81533.14.9738FG):原名 ODPS,是由阿里云自主研发的一款服务,提供针对TB/PB级数据、实时性要求不高的分布式处理能力,它适用于海量数据的存储、计算,商业智能等领域。 [大数据开发套件](https://data.aliyun.com/product/ide?spm=5176.8142029.388261.287.CyJbmt):大数据开发套件提供全面托管的工作流服务,一站式开发管理的界面,帮助企业快速搭建数据中心。 ## 实验目的和前期说明 ## 实验目的: 通过大数据开发套件的整库迁移功能,快速把云数据库中的数据同步到 MaxCompute 中。 前期说明: 用户拥有阿里云官网实名认证账号,并且创建好账号 Access Key。 ## 实验前的准备工作 ## ###开通并创建 MaxCompute 项目 1 . 阿里云实名认证账号访问 [https://www.aliyun.com/product/odps](https://www.aliyun.com/product/odps) ,根据自身需求进行购买,开通 MaxCompute;   2 . 点击开通成功页面的管理控制台,进入 MaxCompute 的 [控制台页面](https://workbench.data.aliyun.com/console?spm=5176.8205274.748138.10.EPOGqB#/); 3 . 创建项目。进入控制台页面后导航至 **大数据开发套件 — 项目列表**,点击 **创建项目**,如图所示:   4 . 在弹出框中选择区域和付费方式,输入项目名称:     ##准备同步数据 ###创建 RDS 实例 1 . 登录 [RDS 管理控制台](https://rds.console.aliyun.com/?spm=5176.doc26117.2.3.2e1IAl); 2 . 在 **实例列表** 页面,单击 **新建实例**,进入 **创建** 页面; 3 . 选择包年包月或按量付费,示例选择包年包月。关于计费方式的选择,请参见 [收费项目及价格说明](https://help.aliyun.com/document_detail/45020.html) 中的计费方式; 4 . 根据自身需求选择基本配置、网络类型、规格、存储空间、购买时长和购买量等实例配置,详情请参见:[创建实例中的选择实例配置](https://help.aliyun.com/document_detail/26117.html?spm=5176.doc26126.6.575.jWOdAe#h2-u64CDu4F5Cu6B65u9AA4); 5 . 单击立即购买,进入订单确认页面; 6 . 阅读关系型数据库 RDS 服务条款后,根据后续提示完成支付流程。 ###设置白名单 1 . 登录 [RDS 管理控制台](https://rds.console.aliyun.com/?spm=5176.doc26117.2.3.2e1IAl),选择目标实例; 2 . 在实例左侧菜单中选择 **数据安全性**; 3 . 在数据安全性页面的默认分组后单击 **修改**,如下图所示:         4 . 在修改白名单分组页面删除默认白名单 127.0.0.1,填写自定义白名单后,单击 **确定**,如下图所示:             组内白名单:填写可以访问数据库的 IP 地址或者 IP 段,IP 地址或者 IP 段间用英文逗号分隔。详情请参见:[设置白名单中的操作步骤](https://help.aliyun.com/document_detail/43185.html?spm=5176.doc26117.6.576.2e1IAl#h2-u64CDu4F5Cu6B65u9AA4)。 ### 创建账号和数据库 1 . 登录 [RDS 管理控制台](https://rds.console.aliyun.com/?spm=5176.doc26117.2.3.2e1IAl),选择目标实例; 2 . 选择左侧菜单中的 **账号管理**,单击 创建账号,如下图所示:       3 . 输入要创建的账号信息,单击 **确定**,如下图所示:         4 . 选择菜单中的 **数据库管理**,单击 **创建数据库**,如下图所示:     5 . 输入要创建的数据库信息,单击 **确定**,如下图所示:       ###登录数据库   进入数据库管理页面,点击上侧 **登录数据库**,在弹出页面填写数据库用户名和密码,如下图所示:          ###创建表并准备数据 1 . 成功登录数据库后,点击 SQL 操作下的 SQL 窗口,如下图所示:             2 . 输入建表语句,点击执行,示例如下:    ```sql  CREATE TABLE `a1`  ( `id` int(11) NULL, `col1` varchar(32) NULL, `col2` varchar(32) NULL, `col3` varchar(32) NULL, `col4` varchar(32) NULL )  ENGINE=InnoDB  DEFAULT CHARACTER SET=utf8 COLLATE=utf8_general_ci; ``` 3 . 根据自身需求写入数据即可,insert 语句如下:     `INSERT INTO table_name(col_name,...) values(expr,...)` ##整库迁移配置 ###新增数据源 1 . 登录到大数据开发套件 [数据集成产品页](https://di.shuju.aliyun.com/?spm=5176.doc53854.2.2.6oozun),单击左侧导航栏离线同步—数据源,进入数据源管理页面,如下图所示:   2 . 点击右上角的 **新增数据源**,添加一个面向整库迁移的 MySQL 数据源 mysql_demo,填写相关信息,如下图所示:   3 . 点击 **测试连通性** 验证数据源访问正确无误后,确认并保存此数据源。 ###整库迁移 1 . 进入数据源列表页面,找到新增的数据源,点击对应 MySQL 数据源后的 **整库迁移**,即可进入对应数据源的整库迁移功能界面,如下图所示:     2 . 点击右上角 **高级设置** 按钮,您可以根据自身需求选择转换规则。比如 MaxCompute 端建表时统一增加了 ods_ 这一前缀,如下图所示:   3 . 根据自身需求选择需要迁移的数据表、同步方式、日期字段、同步并发配置、开始时间和同步数量,如下图所示:       4 . 点击 a1 表后对应的查看任务,会跳转到数据集成的任务开发界面。如下图所示:     由上图可以看到:源头 a1 表对应的 MaxCompute 表 ods_a1 创建成功,列的名字和类型也符合之前映射转换配置。在左侧目录树 mysql_demo 目录下,会有对应的所有整库迁移任务,任务命名规则是: mysql2odps 源表名,如上图红框部分所示。  5 . 此时便成功将一个 MySQL 数据源 mysql_demo 整库迁移到 MaxCompute 的工作。这些任务会根据配置的调度周期(默认天调度)被调度执行,您也可以使用 DataWorks DataIde 调度补数据功能完成历史数据的传输。

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
2月前
|
存储 分布式计算 数据挖掘
数据架构 ODPS 是什么?
数据架构 ODPS 是什么?
426 7
|
2月前
|
存储 分布式计算 大数据
大数据 优化数据读取
【11月更文挑战第4天】
58 2
|
2月前
|
数据采集 监控 数据管理
数据治理之道:大数据平台的搭建与数据质量管理
【10月更文挑战第26天】随着信息技术的发展,数据成为企业核心资源。本文探讨大数据平台的搭建与数据质量管理,包括选择合适架构、数据处理与分析能力、数据质量标准与监控机制、数据清洗与校验及元数据管理,为企业数据治理提供参考。
98 1
|
20天前
|
存储 关系型数据库 MySQL
mysql怎么查询longblob类型数据的大小
通过本文的介绍,希望您能深入理解如何查询MySQL中 `LONG BLOB`类型数据的大小,并结合优化技术提升查询性能,以满足实际业务需求。
79 6
|
2月前
|
存储 Oracle 关系型数据库
【赵渝强老师】MySQL InnoDB的数据文件与重做日志文件
本文介绍了MySQL InnoDB存储引擎中的数据文件和重做日志文件。数据文件包括`.ibd`和`ibdata`文件,用于存放InnoDB数据和索引。重做日志文件(redo log)确保数据的可靠性和事务的持久性,其大小和路径可由相关参数配置。文章还提供了视频讲解和示例代码。
156 11
【赵渝强老师】MySQL InnoDB的数据文件与重做日志文件
|
1月前
|
SQL 关系型数据库 MySQL
mysql分页读取数据重复问题
在服务端开发中,与MySQL数据库进行数据交互时,常因数据量大、网络延迟等因素需分页读取数据。文章介绍了使用`limit`和`offset`参数实现分页的方法,并针对分页过程中可能出现的数据重复问题进行了详细分析,提出了利用时间戳或确保排序规则绝对性等解决方案。
|
2月前
|
机器学习/深度学习 存储 大数据
在大数据时代,高维数据处理成为难题,主成分分析(PCA)作为一种有效的数据降维技术,通过线性变换将数据投影到新的坐标系
在大数据时代,高维数据处理成为难题,主成分分析(PCA)作为一种有效的数据降维技术,通过线性变换将数据投影到新的坐标系,保留最大方差信息,实现数据压缩、去噪及可视化。本文详解PCA原理、步骤及其Python实现,探讨其在图像压缩、特征提取等领域的应用,并指出使用时的注意事项,旨在帮助读者掌握这一强大工具。
92 4
|
2月前
|
关系型数据库 MySQL 数据库
GBase 数据库如何像MYSQL一样存放多行数据
GBase 数据库如何像MYSQL一样存放多行数据
|
2月前
|
缓存 NoSQL 关系型数据库
Redis和Mysql如何保证数据⼀致?
在项目中,为了解决Redis与Mysql的数据一致性问题,我们采用了多种策略:对于低一致性要求的数据,不做特别处理;时效性数据通过设置缓存过期时间来减少不一致风险;高一致性但时效性要求不高的数据,利用MQ异步同步确保最终一致性;而对一致性和时效性都有高要求的数据,则采用分布式事务(如Seata TCC模式)来保障。
73 14
|
2月前
|
存储 大数据 数据管理
大数据分区简化数据维护
大数据分区简化数据维护
26 4

相关产品

  • 云原生大数据计算服务 MaxCompute