开发者社区 > 大数据与机器学习 > 大数据开发治理DataWorks > 正文

DataWorks数据源连通性没有问题,但是任务执行的时候数据源一致连接超时,请问是什么原因 ?

DataWorks数据源连通性没有问题,但是任务执行的时候数据源一致连接超时,请问是什么原因 ?

展开
收起
cuicuicuic 2023-05-13 10:22:30 111 0
1 条回答
写回答
取消 提交回答
  • 离线同步任务运维常见问题为什么数据源测试连通性成功,但是离线同步任务执行失败?如何切换数据集成任务执行资源组?脏数据如何排查和定位?非具体插件报错原因与解决方案如何处理编码格式设置/乱码问题导致的脏数据报错?数据同步时报错:[TASK_MAX_SLOT_EXCEED]:Unable to find a gateway that meets resource requirements. 20 slots are requested, but the maximum is 16 slots.任务存在SSRF攻击Task have SSRF attacts如何处理?离线同步报错:OutOfMemoryError: Java heap space离线同步任务执行偶尔成功偶尔失败如何处理表字段名是关键字导致同步任务失败的情况?离线同步报错Duplicate entry 'xxx' for key 'uk_uk_op'如何处理?离线同步报错plugin xx does not specify column如何处理?具体插件报错原因及解决方案添加MongDB数据源时,使用root用户时报错MongDB使用的authDB库为admin库,如何同步其他业务库数据?读取MongDB时,如何在query参数中使用timestamp实现增量同步?读取oss数据报错:AccessDenied The bucket you access does not belong to you.读取oss文件是否有文件数限制?写入redis使用hash模式存储数据时,报错如下:Code:[RedisWriter-04], Description:[Dirty data]. - source column number is in valid!写入/读取Mysql报错:Application was streaming results when the connection failed. Consider raising value of 'net_write_timeout/net_read_timeout、' on the server.读取Mysql数据库报错The last packet successfully received from the server was 902,138 milli https://help.aliyun.com/document_detail/154074.html,此回答整理自钉群“DataWorks交流群(答疑@机器人)”

    2023-05-13 10:34:04
    赞同 展开评论 打赏

DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。

相关产品

  • 大数据开发治理平台 DataWorks
  • 相关电子书

    更多
    DataWorks全链路数据质量解决方案-2020飞天大数据平台实战应用第一季 立即下载
    DataWorks数据集成实时同步最佳实践(含内测邀请)-2020飞天大数据平台实战应用第一季 立即下载
    DataWorks商业化资源组省钱秘籍-2020飞天大数据平台实战应用第一季 立即下载

    相关实验场景

    更多