DataWorks:数据集成问题排查

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
云原生数据库 PolarDB PostgreSQL 版,标准版 2核4GB 50GB
简介: 数据集成问题

测试连通性

以关系数据库jdbcUrl为例(其他数据源如hdfs、redis、mogodb对应连接地址约束等价),

本地IDC:

  • 有公网:支持测试连通性;需要jdbc url模式添加数据源;
  • 无公网:不支持测试连通性;需要jdbc url模式添加数据源;需要自定义资源组;

ECS自建数据源:

  • 有公网:支持测试连通性;需要jdbc url模式添加数据源;
  • 经典网络:

    • 如果是和dataworks同region则,支持测试连通性,需要jdbc url模式添加数据源;
    • 如果是和dataworks不同region则,不支持测试连通性,需要jdbc url模式添加数据源;需要自定义资源组;
  • 专有网络VPC内部地址:不支持测试连通性;需要jdbc url模式添加数据源;需要自定义资源组;

阿里云产品:

  • 实例模式添加数据源:
    rds(mysql、postgresql、sqlserver),polardb、drds、hybridb for mysql,hybridb for postgresql 支持反向vpc;redis,mongodb 支持实例模式添加数据源,还不支持反向vpc;
  • 有公网:支持测试连通性;支持jdbcUrl模式添加数据源;
  • 经典网络:如果是和dataworks同region则,支持测试连通性,需要jdbc url模式添加数据源;如果是和dataworks不同region则,不支持测试连通性,需要jdbc url模式添加数据源;需要自定义资源组;
  • 专有网络VPC内部地址:不支持测试连通性;需要jdbc url模式添加数据源;需要自定义资源组;其他Region中心化服务的产品,如MaxCompute、oss、loghub等,有3种类型的endpoint,按需选择可用的即可。

注意:

  • 数据源连接地址的选择,需要和任务配置模式(向导模式、脚本模式),任务实际执行资源组(默认资源组,自定义资源组)配合,让运行任务的资源组具备数据源的访问能力。
  • hbase hdfs数据源,由于数据存储特性,建议使用自定义资源组或独享资源组。
  • 金融云的数据源,网络打通或者实例模式添加数据源,如果出现不通,建议考虑自定义资源组。

支持运行数据集成任务的3中类型的机器,每种类型支持的网络环境不同

  • 默认资源组:经典网络同region,有公网,支持反向代理的数据源,支持反向vpc的数据源rds(mysql、postgresql、sqlserver),polardb、drds、hybridb for mysql,hybridb for postgresql 支持反向vpc;
  • 独享数据集成资源:vpc数据源
  • 数据集成自定义资源组,支持所有网络环境数据源,但需要dataworkszh专业版及以上功能才支持。

如何确认任务运行在什么类型的资源组上

  • 运行在默认的资源组上:
  1. in Pipeline[basecommon_ group_xxxxxxxxx]
  • 运行在数据集成自定义资源组上:
  1. in Pipeline[basecommon_xxxxxxxxx]
  • 运行在独享数据集成资源上:
  1. in Pipeline[basecommon_S_res_group_xxx]

购买独享资源组后如何切换任务运行资源组

绑定资源组所属项目:
绑定项目
更换独享调度资源:
更换独享调度资源
更换独享数据集成资源
脚本模式更换资源组
向导模式更换资源组

目录
相关文章
|
2月前
|
数据采集 DataWorks 数据管理
DataWorks不是Excel,它是一个数据集成和数据管理平台
【10月更文挑战第10天】随着大数据技术的发展,企业对数据处理的需求日益增长。阿里云推出的DataWorks是一款强大的数据集成和管理平台,提供从数据采集、清洗、加工到应用的一站式解决方案。本文通过电商平台案例,详细介绍了DataWorks的核心功能和优势,展示了如何高效处理大规模数据,帮助企业挖掘数据价值。
112 1
|
2月前
|
数据采集 SQL DataWorks
DataWorks不是Excel,它是一个数据集成和数据管理平台
【10月更文挑战第5天】本文通过一家电商平台的案例,详细介绍了阿里云DataWorks在数据处理全流程中的应用。从多源数据采集、清洗加工到分析可视化,DataWorks提供了强大的一站式解决方案,显著提升了数据分析效率和质量。通过具体SQL示例,展示了如何构建高效的数据处理流程,突显了DataWorks相较于传统工具如Excel的优势,为企业决策提供了有力支持。
104 3
|
3月前
|
存储 分布式计算 DataWorks
dataworks数据集成
dataworks数据集成
125 1
|
5月前
|
监控 druid Java
spring boot 集成配置阿里 Druid监控配置
spring boot 集成配置阿里 Druid监控配置
302 6
|
5月前
|
Java 关系型数据库 MySQL
如何实现Springboot+camunda+mysql的集成
【7月更文挑战第2天】集成Spring Boot、Camunda和MySQL的简要步骤: 1. 初始化Spring Boot项目,添加Camunda和MySQL驱动依赖。 2. 配置`application.properties`,包括数据库URL、用户名和密码。 3. 设置Camunda引擎属性,指定数据源。 4. 引入流程定义文件(如`.bpmn`)。 5. 创建服务处理流程操作,创建控制器接收请求。 6. Camunda自动在数据库创建表结构。 7. 启动应用,测试流程启动,如通过服务和控制器开始流程实例。 示例代码包括服务类启动流程实例及控制器接口。实际集成需按业务需求调整。
395 4
|
5月前
|
消息中间件 Java 测试技术
【RocketMQ系列八】SpringBoot集成RocketMQ-实现普通消息和事务消息
【RocketMQ系列八】SpringBoot集成RocketMQ-实现普通消息和事务消息
346 1
|
6月前
|
消息中间件 Java Kafka
springboot集成kafka
springboot集成kafka
178 2
|
6月前
|
消息中间件 Java Kafka
集成Kafka到Spring Boot项目中的步骤和配置
集成Kafka到Spring Boot项目中的步骤和配置
289 7
|
6月前
|
监控 前端开发 Java
五分钟后,你将学会在SpringBoot项目中如何集成CAT调用链
五分钟后,你将学会在SpringBoot项目中如何集成CAT调用链
|
5月前
|
消息中间件 Java Kafka
Spring Boot与Apache Kafka Streams的集成
Spring Boot与Apache Kafka Streams的集成

热门文章

最新文章