大数据开发套件-数据同步网络连通性总结及常见同步报错总结

简介: #总则:数据同步会尽量走内网连接。 ##一、关于测试连通 1,目前vpc测试连通性支持的数据源是 rds数据源,其他数据源vpc网络正在排期,金融云网络暂时不支持测试连通性。 2,跨区域内网测试连通性支持的是 rds 数据源,其他数据源也在规划中;云mongo和redis数据源内网跨区域经典网络是可以连通的 3,ecs自建数据源,实际上不用关心自建数据源的类型。
+关注继续查看

总则:数据同步会尽量走内网连接。

一、关于测试连通

1,目前vpc测试连通性支持的数据源是 rds数据源,其他数据源vpc网络正在排期,金融云网络暂时不支持测试连通性。
2,跨区域内网测试连通性支持的是 rds 数据源,其他数据源也在规划中;云mongo和redis数据源内网跨区域经典网络是可以连通的
3,ecs自建数据源,实际上不用关心自建数据源的类型。这个和ecs所在区域和网络类型有关。参考上面vpc和跨区域的1,2两点描述。
用户ecs需要放行对应DataWorks服务的相关ip,DataWorks提供了相关安全组供添加,参考
https://help.aliyun.com/document_detail/62917.html?spm=a2c4g.11174283.6.600.afH9DZ
4,本地机房或者自己电脑的数据源,一律走公网jdbc格式。如果不通,检查用户本地网络的限制,或者数据库本身的限制
5,新加坡,香港区域也是适用于上述说法

关于跨区域、vpc的数据源(rds除外),金融云网络。现在统一的解决办法

一,走公网。也需要把相关白名单ip放行 https://help.aliyun.com/document_detail/60024.html?
二,配置自定义资源组(目前暂时支持华东2区添加自定义资源组)
步骤如下:
1,准一台和数据源同区域同网络的ecs作为调度资源https://help.aliyun.com/document_detail/52330.html?spm=5176.product30254.6.564.aCM3Th
并将这台ecs的ip加入数据源的白名单(没有白名单就不加)或者安全组
大的端口范围无法在ecs安全组界面添加的,请使用ecs的安全组api添加:
https://help.aliyun.com/document_detail/25554.html?|https://help.aliyun.com/document_detail/25554.html?spm=5176.doc25485.6.860.MEdQih
2,数据源测试连通的时候直接确定保存
3,使用脚本模式配置同步
4,在运维中心-任务管理-列表模式-修改资源组为自己调度资源,测试运行

三、关于rds-odps收费问题

目前在大数据开发套件配置关于odps的数据同步,都是不收费的。除非用户自己在脚本模式自己加参数配置odps的tunnel的公网地址,会收费(实际上我们在脚本模式生成的模板中没有提供这个参数)

四、总结排查思路

1,当遇到测试连通性这一步失败的时候,
*核实数据源区域,网络类型,rds白名单是否添加完整,实例id,数据库名称,用户名是否正确
***常见错误实例,这种是 密码,数据库错误
image

***网络不通示意图
image.png
2,同步过程中出现网络断开等
首先要完整日志,看下调度资源是哪个,是否是自定义资源
如果是自定义资源,核实自定义资源组的ip是否添加到数据源比如rds白名单(mongo也是有白名单限制的,也需要添加)
核实两端数据源连通性是否通过,核实rds,mongo白名单是否会添加完整(如果不完整,有的时候会成功有的时候会失败,如果任务下发到已添加的调度服务器上会成功,没添加的会失败)
3,任务显示成功,但是日志出现8000断开报错,是因为用户使用的自定义调度资源组,没有对10.116.134.123,访问 8000 端口在安全组内网入方向放行。添加后重新运行即可。
看下
4,其他日志报错,看下具体报错,
脏数据
字段类型不对应
odps分区找不到
字段类型长度不够等 可以参考这个文档的一些案例
https://yq.aliyun.com/articles/82428?spm=5176.8091938.0.0.vcOiqt
5,odps同步到ads,
https://help.aliyun.com/document_detail/26412.html?spm=5176.product26371.6.583.4FqlV9
一般是权限问题,没有授权。
odps中对garuda_buildaliyun.com以及garuda_dataaliyun.com授权,ads中当前账户对database的授权。

有对大数据技术感兴趣的,可以加笔者的微信 wx4085116.目前笔者已经从阿里离职,博客不代表阿里立场。笔者开了一个大数据培训班。有兴趣的加我。

相关实践学习
简单用户画像分析
本场景主要介绍基于海量日志数据进行简单用户画像分析为背景,如何通过使用DataWorks完成数据采集 、加工数据、配置数据质量监控和数据可视化展现等任务。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
1月前
|
SQL 消息中间件 JSON
4、离线数仓数据同步策略(全量表数据同步、增量表数据同步、首日同步、采集通道脚本)(二)
4、离线数仓数据同步策略(全量表数据同步、增量表数据同步、首日同步、采集通道脚本)(二)
|
1月前
|
消息中间件 canal SQL
4、离线数仓数据同步策略(全量表数据同步、增量表数据同步、首日同步、采集通道脚本)(一)
4、离线数仓数据同步策略(全量表数据同步、增量表数据同步、首日同步、采集通道脚本)(一)
|
4月前
|
分布式计算 DataWorks MaxCompute
带你读《全链路数据治理-全域数据集成》之2:2. 同步业务场景和技术方案选择对照表
带你读《全链路数据治理-全域数据集成》之2:2. 同步业务场景和技术方案选择对照表
124 0
|
10月前
|
安全 Windows
Windows 无法连接打印机,请检查打印机名并重试。如果这是网络打印机,请确保打印机已打开,并且打印机地址正确。报错代码:0x00000709
Windows 无法连接打印机,请检查打印机名并重试。如果这是网络打印机,请确保打印机已打开,并且打印机地址正确。报错代码:0x00000709
Windows 无法连接打印机,请检查打印机名并重试。如果这是网络打印机,请确保打印机已打开,并且打印机地址正确。报错代码:0x00000709
|
10月前
|
SQL canal JSON
Elastic实战:canal同步mysql到es之父子表数据同步|对象型数组同步|nested数组同步
最近在做mysql到es的数据同步,涉及到父子表数据同步,特此记录,以供后续参考
322 0
Elastic实战:canal同步mysql到es之父子表数据同步|对象型数组同步|nested数组同步
|
canal SQL Oracle
新的增量数据同步工具闪亮登场,完美支持Oracle增量同步
新的增量数据同步工具闪亮登场,完美支持Oracle增量同步
新的增量数据同步工具闪亮登场,完美支持Oracle增量同步
|
运维 监控
2021-07-22linux运维yum下载老报错,尝试其他镜像网络不可达
2021-07-22linux运维yum下载老报错,尝试其他镜像网络不可达
494 0
|
存储 SQL JSON
使用 DataX 实现数据同步(高效的同步工具)
DataX 是阿里云 DataWorks 数据集成 的开源版本,主要就是用于实现数据间的离线同步。 DataX 致力于实现包括关系型数据库(MySQL、Oracle 等)、HDFS、Hive、ODPS、HBase、FTP 等 各种异构数据源(即不同的数据库) 间稳定高效的数据同步功能。
2944 0
使用 DataX 实现数据同步(高效的同步工具)
|
关系型数据库 MySQL 数据库
数据集成同步到mysql~小数点后面数据同步不过来
数据集成同步任务时候,用会出现这样一种现象:odps 表里的数据是 11490877.44 ,mysql数据源目标表字段类型float(16,2) 同步过来是11490877小数点后面数据没有同步过来。
|
分布式计算 关系型数据库 DataX
离线数据同步神器:DataX,支持几乎所有异构数据源的离线同步到MaxCompute
概述 DataX 是阿里巴巴集团内被广泛使用的离线数据同步工具/平台,实现包括 MySQL、Oracle、SqlServer、Postgre、HDFS、Hive、ADS、HBase、TableStore(OTS)、MaxCompute(ODPS)、DRDS 等各种异构数据源之间高效的数据同步功能。
7049 0
热门文章
最新文章
推荐文章
更多