暂无个人介绍
2022年08月
提交发布后 搜索一下业务流程名称(此答案整理自DataWorks交流群(答疑@机器人))
= null试试 不过服务编排功能正在改造中(此答案整理自DataWorks交流群(答疑@机器人))
嗯 支持的 https://help.aliyun.com/document_detail/138172.html(此答案整理自DataWorks交流群(答疑@机器人))
具体可以咨询下mc同学哈 (此答案整理自DataWorks交流群(答疑@机器人))
JdbcSink不支持多个sql语句,只提供了simpleExecutor。 方法的话,可以自定义sink,多个statment实现。 或者自定义executor,改下JdbcSink暴露个可传JdbcBatchStatementExecutor的方法出来(此答案整理自【③群】Apache Flink China社区)
你接入的时候,如果同步类型选 全量+增量,就会这样。如果纯增量就没有。看看接入参数(此答案整理自Flink CDC 社区)
跟m1没关系 还是依赖问题(此答案整理自【③群】Apache Flink China社区)
创建ODPS SQL节点可以吗 https://help.aliyun.com/document_detail/137510.html(此答案整理自MaxCompute开发者社区2群)
是的,1 CU=4 GB内存+1 CPU Core。(此答案整理自MaxCompute开发者社区2群)
是需要数据抽取吗 支持的 使用数据集成同步任务 具体是否支持选择字段等 可以看下对应插件的文档 https://help.aliyun.com/document_detail/137670.html(此答案整理自DataWorks交流群(答疑@机器人))
推荐用PyAlink来做,https://help.aliyun.com/document_detail/424831.html 标准化是可以产生一个模型的再预测新数据的(此答案整理自机器学习PAI交流群(答疑@值班))
看报错是操作了更改表结构 或者 删除记录之类的 这个非事务表是不支持的(此答案整理自DataWorks交流群(答疑@机器人))
同步的时候有其他任务并发操作了表导致 重跑一下应该就可以成功(此答案整理自DataWorks交流群(答疑@机器人))
某个CPU极度忙碌,一直在计算,看看具体的subtask处理的数据数量,是不是因为数据倾斜导致的(此答案整理自【③群】Apache Flink China社区)
dn节点里,rpm -qa | grep galaxy看一下(此答案整理自阿里云 PolarDB-X 开源交流群)
应该还是依赖上一周期。但小时调度和日调度需要区分开。可以学习一下这个文档 https://help.aliyun.com/document_detail/137551.html(此答案整理自MaxCompute开发者社区2群)
可以参考一下 https://help.aliyun.com/document_detail/27859.html https://help.aliyun.com/document_detail/73768.html(此答案整理自DataWorks交流群(答疑@机器人))
在数据集成的向导模式下,配置好MySQL的数据源后,在选择表的输入框里,可以不停的输入表名称的,凡是选中的表,都会被这个任务一次性的同步到目的端去。(此答案整理自DataWorks交流群(答疑@机器人))
https://help.aliyun.com/document_detail/424107.html(此答案整理自DataWorks交流群(答疑@机器人))
基于jdbc模式 hive reader可以配置querySql 比如select * ... 但是目的端的表字段需要是固定的 可以试试 https://help.aliyun.com/document_detail/143413.htm