阿里云ADAM(亚当)体验记录

本文涉及的产品
云原生数据库 PolarDB MySQL 版,通用型 2核4GB 50GB
云原生数据库 PolarDB PostgreSQL 版,标准版 2核4GB 50GB
简介: 阿里云的亚当(ADAM)是Advanced Database & Application Migration的缩写,是一款把数据库和应用迁移到阿里云(公共云或专有云)的产品,主要面向的是正在使用Oracle数据库并希望将其替换为阿里云数据库服务的客户。

阿里云的亚当(ADAM)是Advanced Database & Application Migration的缩写,是一款把数据库和应用迁移到阿里云(公共云或专有云)的产品,主要面向的是正在使用Oracle数据库并希望将其替换为阿里云数据库服务的客户。
就在前一段时间,我获得POLARDB,阿里云一款Oracle替代产品的公测资格,我成功的以手工方式将一款CRM应用从Oracle数据库迁移到了POLARDB,这次我用ADAM再做一次自动化的迁移,看看会有什么不同。
ADAM同样需要申请公测资格,在获得批准后可以看到进入控制台的入口,在进入控制台之后是这样的。
1

操作流程清晰的标注在屏幕下方:

  • 下载数据采集器、主要采集目标Oracle数据库的结构和使用方式,数据采集器将相关数据打包到一个压缩文件中。
  • 新建画像、将压缩文件上传后ADAM将利用采集到的信息进行分析,给出目标数据库的画像。
  • 创建评估项目、根据画像创建项目项目,阿里云会根据Oracle数据库的规模、热点、复杂度、负载、会话情况生成迁移计划。
  • 导出计划、在迁移计划中,既包括技术方案、运行成本、灾备方案这样的面向管理人员的设计文件,也包括用于实际控制迁移过程的迁云计划。将迁云计划导出后可以用于指挥ADAM Studio的迁移过程。
  • 下载studio、ADAM studio是一组紧密合作的工具软件,安装在能够同时访问源Oracle数据库和目标数据库服务的Linux服务器上,该服务器可以是云服务器(ECS)也可以是线下IDC中的物理或虚拟服务器。
  • 导入计划、在studio的控制台上导入迁云计划,studio将根据迁移计划进行后续的结构和数据迁移。
  • 结构迁移/订正、迁移、根据迁移计划在目标数据库建立表、视图等结构对象。
  • 数据迁移/校验、进行数据的迁移,在迁移完成后再进行数据校验。

以下是一些我对关键步骤的记录,供大家参考。

数据采集

数据采集支持Windows或者Linux操作系统,数据采集程序无需安装在Oracle数据库所在的服务器,之需要能够访问Oracle数据库即可。我安装的是Linux版本,需要在Oracle数据库上新建一个临时账号,并给这个临时账号赋予必要的权限以进行信息收集。
程序执行完毕,会生成一个data.zip文件,将这个文件下载并上传到ADAM控制台用于创建画像。

新建画像

新建画像的必要条件就是上面步骤收集的data.zip文件。
2

建立好的数据库画像大概都包含这些内容
3

有了数据库的画像数据就可以据此创建迁移评估报告。

创建评估项目

ADAM目前支持将Oracle数据库迁移到如下4种阿里云数据库服务:

  • PPAS
  • MySQL
  • POLARDB for Oracle
  • PostgreSQL

4

创建评估项目就是选中源库画像和目标数据库类型。
评估完成后,就能生成四类输出:技术方案、运行成本、灾备方案、迁云计划。
5

其中迁云计划是为ADAM Studio准备,其余三项都是给管理人员提供的迁移决策依据。

ADAM Studio的部署和迁云计划导入

需要找一台Linux服务器部署ADAM Studio,服务器最低配置为8c16G,当数据库规模较大时推荐8c32G。该服务器要能够同时访问源Oracle数据库和目标阿里云数据库。ADAM Studio 还支持分布式部署,用于更大规模数据库的迁移。
在ADAM Studio控制台,首要任务是新建档案,就是输入源Oracle、目标阿里云数据库服务、OSS的账号信息,其中假如Oracle数据库中没有BLOB字段就不需要设置OSS,Oracle的BLOG字段数据未来要存储到OSS中。
大家不要小看这一步,迁移的成功很大程度上就是决定于档案中的账号是否拥有必要的权限。
我个人的经验是源Oracle数据库的权限可以尽量收窄,而目标阿里云数据库服务的权限可以尽量放宽,因为这个时候业务是运行在Oracle这一端的,且不需要写入权限,而阿里云一端是需要新建各种对象和写入数据。
有了源和目标的账号信息后就可以建立迁移项目,在建立迁移项目时需要提交上一步生成的迁移计划,一个json文件。

结构迁移、数据迁移、校验

只要上一步做对,迁移就是下一步,下一步,完成。
6

当然,这只是一个非常简单的项目,只有序列、表、视图这些基础对象。假如源数据库比较复杂可能就需要迁移人员具备一定的专业技能才能完成一次成功的迁移。但无论如何,有了ADAM这样的专业辅助工具,都会让迁移工作变得可视、有序、可靠、高效。

相关实践学习
使用PolarDB和ECS搭建门户网站
本场景主要介绍基于PolarDB和ECS实现搭建门户网站。
阿里云数据库产品家族及特性
阿里云智能数据库产品团队一直致力于不断健全产品体系,提升产品性能,打磨产品功能,从而帮助客户实现更加极致的弹性能力、具备更强的扩展能力、并利用云设施进一步降低企业成本。以云原生+分布式为核心技术抓手,打造以自研的在线事务型(OLTP)数据库Polar DB和在线分析型(OLAP)数据库Analytic DB为代表的新一代企业级云原生数据库产品体系, 结合NoSQL数据库、数据库生态工具、云原生智能化数据库管控平台,为阿里巴巴经济体以及各个行业的企业客户和开发者提供从公共云到混合云再到私有云的完整解决方案,提供基于云基础设施进行数据从处理、到存储、再到计算与分析的一体化解决方案。本节课带你了解阿里云数据库产品家族及特性。
目录
相关文章
|
5月前
|
算法 Python
LightGBM高级教程:自动调参与超参数优化
LightGBM高级教程:自动调参与超参数优化【2月更文挑战第5天】
448 2
|
2月前
|
机器学习/深度学习 人工智能 API
FaceChain-FACT:免训练的丝滑体验,秒级别的人像生成
FaceChain-FACT是一项创新技术,它通过免训练的方式,能在10秒内生成高质量的AI人像,为用户带来快速且逼真的肖像生成体验。
FaceChain-FACT:免训练的丝滑体验,秒级别的人像生成
|
2月前
|
算法 搜索推荐
支付宝商业化广告算法问题之基于pretrain—>finetune范式的知识迁移中,finetune阶段全参数训练与部分参数训练的效果如何比较
支付宝商业化广告算法问题之基于pretrain—>finetune范式的知识迁移中,finetune阶段全参数训练与部分参数训练的效果如何比较
|
4月前
|
机器学习/深度学习 人工智能 PyTorch
人工智能平台PAI产品使用合集之只进行训练(train)而不进行评估(eval)该如何配置
阿里云人工智能平台PAI是一个功能强大、易于使用的AI开发平台,旨在降低AI开发门槛,加速创新,助力企业和开发者高效构建、部署和管理人工智能应用。其中包含了一系列相互协同的产品与服务,共同构成一个完整的人工智能开发与应用生态系统。以下是对PAI产品使用合集的概述,涵盖数据处理、模型开发、训练加速、模型部署及管理等多个环节。
|
3月前
|
机器学习/深度学习 自然语言处理 算法
告别重复率烦恼:论文润色降重助手帮你搞定降重!
告别重复率烦恼:论文润色降重助手帮你搞定降重!
40 0
|
5月前
|
人工智能 自然语言处理
微软让MoE长出多个头,大幅提升专家激活率
【5月更文挑战第26天】微软研究团队为解决稀疏混合专家(SMoE)模型激活率低的问题,推出了多头混合专家(MH-MoE)模型。MH-MoE通过多头机制将输入数据划分并分配给多个专家,提高专家激活率,增强模型表达能力。实验显示,该模型在多项任务上性能显著提升,但复杂度增加可能影响训练和推理效率,且优化多头机制与专家分配仍是挑战。[链接](https://arxiv.org/pdf/2404.15045)
53 2
|
5月前
|
人工智能 自然语言处理 搜索推荐
阿里云推出企业级大模型RAG系统,几次点击即可连接PB级知识库
阿里云推出企业级大模型RAG系统,几次点击即可连接PB级知识库
1403 1
|
5月前
|
人工智能
AI批量写文章伪原创:基于ChatGPT长文本模型,实现批量改写文章、批量回答问题(长期更新)
AI批量写文章伪原创:基于ChatGPT长文本模型,实现批量改写文章、批量回答问题(长期更新)
218 1
|
机器学习/深度学习 传感器 数据采集
接入Llama 2等33个大模型,上线Prompt模板,百度智能云千帆大模型平台重磅升级
接入Llama 2等33个大模型,上线Prompt模板,百度智能云千帆大模型平台重磅升级
568 0
|
机器学习/深度学习 算法 vr&ar
DeepMind新作:无需权重更新、提示和微调,transformer在试错中自主改进
DeepMind新作:无需权重更新、提示和微调,transformer在试错中自主改进
129 0