问题一:DataWorks这个是第三方的Python依赖包这个要怎么使用?
DataWorks这个是第三方的Python依赖包这个要怎么使用?
参考答案:
第三方包建议使用官方的方案 在独享调度资源组上安装哈 独享调度资源组
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/591296?spm=a2c6h.12873639.article-detail.42.23bd4378Ya7Gg8
问题二:现在所有的 Maxcompute 和 dataworks 都在杭州区域,有快捷的方式吗?
现在所有的 Maxcompute 和 dataworks 都在杭州区域,我计划要把数据和相关任务都迁到上海区域,有快捷的方式吗, 任务和表都非常多?
参考答案:
元数据 数据源 任务等建议使用迁移助手 ;表数据同步的话 是使用同步任务进行跨工作空间同步 您也可以问一下mc同学看下有没有更便捷的方式同步表数据
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/591295?spm=a2c6h.12873639.article-detail.43.23bd4378Ya7Gg8
问题三:DataWorks提示以下错误消息,如何解决?
DataWorks提示以下错误消息,如何解决?[异常:尝试次数=1后失败,异常:1月18日星期四19:00:02 CST 2024,RpcRetryingCaller{globalStartTime=17055575592345,pause=100,retries=0},org.apache.hadoop.net.ConnectTimeoutException:等待通道准备连接时超时10000毫秒。ch:java.nio.channels.SocketChannel[挂起的连接远程=ld-uf6671dij4b5wkx8m-proxy-hbase-v2.hbaseue.rds.aliyuncs.com/10.0.0.1:16080],详细版本信息:hbase_lindorm]请求ID:a2a10f941b795ab05d7e9861d4c61647
参考答案:
网络打通
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/591294?spm=a2c6h.12873639.article-detail.44.23bd4378Ya7Gg8
问题四:DataWorks添加白名单需要什么样的权限?
DataWorks添加白名单需要什么样的权限?
参考答案:
有AliyunDataWorksfullaccess权限的账号 以及 空间管理员可以添加白名单
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/591293?spm=a2c6h.12873639.article-detail.45.23bd4378Ya7Gg8
问题五:DataWorks支持把odps的一张表拆分十库百表回流mysql吗?
DataWorks支持把odps的一张表拆分十库百表回流mysql吗?拆分条件就是按照某个字段随机的0~99值,回流到mysql对应十库百表
参考答案:
这样好像不支持;如果源端拆分条件是以日期为分区 a分区的数据写入 mysql 的table_a表 这样可以尝试实现
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/591292?spm=a2c6h.12873639.article-detail.46.23bd4378Ya7Gg8