大数据计算MaxCompute我的场景是这样的需要把公有云mc数据迁移到专有云mc,目前已经完成了专有云内部mma服务搭建,开通了跨region迁移copytask权限,但是发起迁移任务之后遇到上面的问题,专有云驻场的同事不太了解mma服务的运作方式,我看这个mma这个文档资料也是咱们公有云上的文档,想看看之前是否有这样的场景以及网络方面的问题怎么解决?
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
根据您的描述,您需要将公有云MaxCompute(MC)的数据迁移到专有云MaxCompute,并且已经完成了以下准备工作: 1. 在专有云内部搭建了MMA服务。 2. 开通了跨Region迁移的copytask
权限。 3. 发起了迁移任务,但遇到了问题。
以下是针对您场景的详细分析和解决方案:
从您的描述来看,这是一个跨Region数据迁移的场景。根据知识库中的文档,跨Region迁移需要特别注意以下几点: 1. 网络连通性:确保公有云和专有云之间的网络是连通的,尤其是MMA服务所在的服务器能够访问公有云MaxCompute的Endpoint和Tunnel Endpoint。 2. 权限配置:确保MMA服务使用的AccessKey ID和AccessKey Secret具有足够的权限,包括对源端和目标端MaxCompute项目的读写权限。 3. 并发配置:跨Region迁移时,instance number of one copyTask
参数会影响迁移性能,建议根据网络带宽和服务器性能进行合理配置。
ping
或telnet
命令测试连通性。mc.endpoint
、mc.data.endpoint
和mc.tunnel.endpoint
是否正确配置。table黑白名单
或分区过滤
配置错误。table黑白名单
和分区过滤
表达式符合实际需求。table黑白名单
,默认会迁移源库中的所有表。如果数据量较大,建议分批次创建迁移任务。增量更新
选项已开启,避免重复迁移已成功迁移的分区或表数据。instance number of one copyTask
参数,增加并发数以提高迁移效率。但需注意,过高的并发数可能导致网络拥塞或服务器资源耗尽。重要提醒:在迁移过程中,建议分批次创建迁移任务,尤其是数据量较大的场景,以降低单次任务失败的风险。
希望以上内容能够帮助您解决问题!如果仍有疑问,请随时联系阿里云技术支持团队。
MaxCompute(原ODPS)是一项面向分析的大数据计算服务,它以Serverless架构提供快速、全托管的在线数据仓库服务,消除传统数据平台在资源扩展性和弹性方面的限制,最小化用户运维投入,使您经济并高效的分析处理海量数据。