大数据开发套件-数据同步网络连通性总结及常见同步报错总结

本文涉及的产品
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
简介: #总则:数据同步会尽量走内网连接。 ##一、关于测试连通 1,目前vpc测试连通性支持的数据源是 rds数据源,其他数据源vpc网络正在排期,金融云网络暂时不支持测试连通性。 2,跨区域内网测试连通性支持的是 rds 数据源,其他数据源也在规划中;云mongo和redis数据源内网跨区域经典网络是可以连通的 3,ecs自建数据源,实际上不用关心自建数据源的类型。

总则:数据同步会尽量走内网连接。

一、关于测试连通

1,目前vpc测试连通性支持的数据源是 rds数据源,其他数据源vpc网络正在排期,金融云网络暂时不支持测试连通性。
2,跨区域内网测试连通性支持的是 rds 数据源,其他数据源也在规划中;云mongo和redis数据源内网跨区域经典网络是可以连通的
3,ecs自建数据源,实际上不用关心自建数据源的类型。这个和ecs所在区域和网络类型有关。参考上面vpc和跨区域的1,2两点描述。
用户ecs需要放行对应DataWorks服务的相关ip,DataWorks提供了相关安全组供添加,参考
https://help.aliyun.com/document_detail/62917.html?spm=a2c4g.11174283.6.600.afH9DZ
4,本地机房或者自己电脑的数据源,一律走公网jdbc格式。如果不通,检查用户本地网络的限制,或者数据库本身的限制
5,新加坡,香港区域也是适用于上述说法

关于跨区域、vpc的数据源(rds除外),金融云网络。现在统一的解决办法

一,走公网。也需要把相关白名单ip放行 https://help.aliyun.com/document_detail/60024.html?
二,配置自定义资源组(目前暂时支持华东2区添加自定义资源组)
步骤如下:
1,准一台和数据源同区域同网络的ecs作为调度资源https://help.aliyun.com/document_detail/52330.html?spm=5176.product30254.6.564.aCM3Th
并将这台ecs的ip加入数据源的白名单(没有白名单就不加)或者安全组
大的端口范围无法在ecs安全组界面添加的,请使用ecs的安全组api添加:
https://help.aliyun.com/document_detail/25554.html?|https://help.aliyun.com/document_detail/25554.html?spm=5176.doc25485.6.860.MEdQih
2,数据源测试连通的时候直接确定保存
3,使用脚本模式配置同步
4,在运维中心-任务管理-列表模式-修改资源组为自己调度资源,测试运行

三、关于rds-odps收费问题

目前在大数据开发套件配置关于odps的数据同步,都是不收费的。除非用户自己在脚本模式自己加参数配置odps的tunnel的公网地址,会收费(实际上我们在脚本模式生成的模板中没有提供这个参数)

四、总结排查思路

1,当遇到测试连通性这一步失败的时候,
*核实数据源区域,网络类型,rds白名单是否添加完整,实例id,数据库名称,用户名是否正确
***常见错误实例,这种是 密码,数据库错误
image

***网络不通示意图
image.png
2,同步过程中出现网络断开等
首先要完整日志,看下调度资源是哪个,是否是自定义资源
如果是自定义资源,核实自定义资源组的ip是否添加到数据源比如rds白名单(mongo也是有白名单限制的,也需要添加)
核实两端数据源连通性是否通过,核实rds,mongo白名单是否会添加完整(如果不完整,有的时候会成功有的时候会失败,如果任务下发到已添加的调度服务器上会成功,没添加的会失败)
3,任务显示成功,但是日志出现8000断开报错,是因为用户使用的自定义调度资源组,没有对10.116.134.123,访问 8000 端口在安全组内网入方向放行。添加后重新运行即可。
看下
4,其他日志报错,看下具体报错,
脏数据
字段类型不对应
odps分区找不到
字段类型长度不够等 可以参考这个文档的一些案例
https://yq.aliyun.com/articles/82428?spm=5176.8091938.0.0.vcOiqt
5,odps同步到ads,
https://help.aliyun.com/document_detail/26412.html?spm=5176.product26371.6.583.4FqlV9
一般是权限问题,没有授权。
odps中对garuda_buildaliyun.com以及garuda_dataaliyun.com授权,ads中当前账户对database的授权。

有对大数据技术感兴趣的,可以加笔者的微信 wx4085116.目前笔者已经从阿里离职,博客不代表阿里立场。笔者开了一个大数据培训班。有兴趣的加我。

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
6月前
|
SQL DataWorks 关系型数据库
DataWorks操作报错合集之如何处理数据同步时(mysql->hive)报:Render instance failed
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
110 0
|
5月前
|
分布式计算 DataWorks 调度
oss数据同步maxcompute报错
在使用阿里云DataWorks同步OSS数据至MaxCompute时,遇到“Input is not in the .gz format”的报错。问题源于目标目录中存在一个空文件,导致同步时识别错误。
|
7月前
|
运维 DataWorks 数据管理
数据管理DMS使用问题之正在使用“同步表”功能,如何设置数据同步的过期时间
阿里云数据管理DMS提供了全面的数据管理、数据库运维、数据安全、数据迁移与同步等功能,助力企业高效、安全地进行数据库管理和运维工作。以下是DMS产品使用合集的详细介绍。
数据管理DMS使用问题之正在使用“同步表”功能,如何设置数据同步的过期时间
|
3月前
|
安全 网络协议 网络安全
【Azure 环境】从网络包中分析出TLS加密套件信息
An TLS 1.2 connection request was received from a remote client application, but non of the cipher suites supported by the client application are supported by the server. The connection request has failed. 从远程客户端应用程序收到 TLS 1.2 连接请求,但服务器不支持客户端应用程序支持的任何密码套件。连接请求失败。
|
6月前
|
大数据 RDMA
神龙大数据加速引擎MRACC问题之MRACC-Spark利用eRDMA近网络优化插件来提升性能如何解决
神龙大数据加速引擎MRACC问题之MRACC-Spark利用eRDMA近网络优化插件来提升性能如何解决
60 0
|
6月前
|
canal 关系型数据库 MySQL
"揭秘阿里数据同步黑科技Canal:从原理到实战,手把手教你玩转MySQL数据秒级同步,让你的数据处理能力瞬间飙升,成为技术界的新晋网红!"
【8月更文挑战第18天】Canal是一款由阿里巴巴开源的高性能数据同步系统,它通过解析MySQL的增量日志(Binlog),提供低延迟、可靠的数据订阅和消费功能。Canal模拟MySQL Slave与Master间的交互协议来接收并解析Binary Log,支持数据的增量同步。配置简单直观,包括Server和Instance两层配置。在实战中,Canal可用于数据库镜像、实时备份等多种场景,通过集成Canal Client可实现数据的消费和处理,如更新缓存或写入消息队列。
1029 0
|
7月前
|
人工智能 运维 Cloud Native
|
7月前
|
监控 关系型数据库 MySQL
实时计算 Flink版产品使用问题之在进行数据同步时,重新创建了一个新的任务,但发现无法删除旧任务同步的历史数据,是什么导致的
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
4月前
|
监控 关系型数据库 MySQL
深入了解MySQL主从复制:构建高效稳定的数据同步架构
深入了解MySQL主从复制:构建高效稳定的数据同步架构
181 1
|
5月前
|
canal 消息中间件 关系型数据库
Canal作为一款高效、可靠的数据同步工具,凭借其基于MySQL binlog的增量同步机制,在数据同步领域展现了强大的应用价值
【9月更文挑战第1天】Canal作为一款高效、可靠的数据同步工具,凭借其基于MySQL binlog的增量同步机制,在数据同步领域展现了强大的应用价值
1000 4