DataWorks中另外CEN打通两边的VPC之后也用ECS测试过网络连通性,是OK的,应该是DW数

DataWorks中另外CEN打通两边的VPC之后也用ECS测试过网络连通性,是OK的,应该是DW数据集成资源组或者MC的限制(MC的项目也加白了对端VPC的CIDR),RAM的AK是有DataWorks+MC的full access的,辛苦看看有没有其他办法可以排查到,这个是dataworks数据集成添加数据源时测试连通性控制台复制出来的报错 {"commonInfo":{"regionCode":"cn-shanghai","projectId":316302,"datasourceType":"odps","datasourceName":"odps_acc1_odps_shenzhen","resourceGroup":"S_res_group_512994035779840_1682401830711","resourceGroupName":"odps_shanghai_sh_sz"},"response":{"requestId":"0a98a42f16824944054578478edb1e","readableMessage":null}},连接MaxComputer失败, 项目:odps_acc1_odps_shenzhen, accessId:KwnycZvV********************lXP, 异常消息:Read timed out 数据源名: odps_acc1_odps_shenzhen 资源组: odps_shanghai_sh_sz

展开
收起
真的很搞笑 2023-04-29 17:01:12 166 分享 版权
阿里云 AI 助理回答

遇到DataWorks中数据集成添加MaxCompute数据源时测试连通性失败,报错为“Read timed out”的问题,可以尝试以下几个步骤进行排查和解决:

  1. 网络检查:虽然您已经通过ECS验证了CEN(云企业网)的网络连通性,但请确保MaxCompute所在VPC与DataWorks执行任务的VPC之间没有其他网络策略(如安全组规则、网络ACL)阻止通信。确认两边的VPC路由表设置正确,且没有遗漏任何必要的路由条目。

  2. 资源组配置:检查资源组S_res_group_512994035779840_1682401830711(odps_shanghai_sh_sz)的配置,确保它被正确地配置为能够访问目标MaxCompute项目。在DataWorks控制台中,进入资源管理页面,查看该资源组是否有足够的权限访问指定的MaxCompute实例,并且网络配置是否指向正确的VPC和交换机。

  3. RAM权限:尽管您提到RAM账号有DataWorks MC的full access,但请再次确认该账号对于目标MaxCompute项目确实拥有读写权限,特别是针对odps_acc1_odps_shenzhen这个具体项目的访问权限。有时候,即使有全局权限,特定资源或操作可能需要更细粒度的授权。

  4. MaxCompute服务状态:确认MaxCompute服务本身没有问题,可以通过阿里云控制台检查MaxCompute项目的服务状态和维护通知。

  5. 超时设置调整:如果是因为请求响应时间过长导致的超时,可以在DataWorks的数据集成任务配置中尝试增加连接超时时间和读取超时时间的设置,看是否能解决问题。

  6. 日志分析:在DataWorks控制台中查看任务执行的日志详情,可能会有更多的错误信息或线索帮助定位问题。同时,也可以考虑开启更详细的日志记录级别来获取更多信息。

  7. 技术支持协助:如果以上步骤都无法解决问题,建议联系阿里云的技术支持,提供具体的错误信息和已尝试的解决措施,他们能从后台进一步排查系统层面的问题。您可以复制页面截图提供更多信息,我可以进一步帮您分析问题原因。

有帮助
无帮助
AI 助理回答生成答案可能存在不准确,仅供参考
0 条回答
写回答
取消 提交回答

DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。

还有其他疑问?
咨询AI助理