问题一:DataWorks数据集成新增任务时为啥只能新增离线同步任务,没有实时同步任务?
DataWorks数据集成新增任务时为啥只能新增离线同步任务,没有实时同步任务?
参考回答:
支持新建实时任务的
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/490753?spm=5176.8068049.0.0.77566d19PXNmxo
问题二:如何使用dataworks数据集成的离线同步功能?
麻烦问下我们现在使用dataworks数据集成的离线同步功能,从mysql向maxcompute同步数据,使用id作为分片键,但是发现离线同步时拉取数据的batchsize过大,比如 "(1 <= id AND id < 52168)" 这种查询条件,会导致mysql出现慢查询日志,请问这个batchsize支持调整吗,或者有什么其他的解决方案?
参考回答:
id是主键么 看能不能多加一些并发 这样就会多拆分几个sql,mysql reader不支持fetchsize。最好是用分布均匀的整数索引字段作为切分键和过滤条件。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/489498?spm=5176.8068049.0.0.77566d19PXNmxo
问题三:DataWorks数据集成咋看一个JOB的读取速度?
DataWorks数据集成咋看一个JOB的读取速度?detail Link中只有写入速度,没有看到读取速度
参考回答:
二者是接近的,只需要看一个
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/488283?spm=5176.8068049.0.0.77566d19PXNmxo
问题四:DataWorks数据集成超过24个小时就会失败是嘛?
DataWorks数据集成超过24个小时就会失败是嘛?
参考回答:
odps tunnel session超过24小时会过期 所以odps 相关的离线任务 建议是提速或者拆分数据成两个任务在跑
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/488071?spm=5176.8068049.0.0.77566d19PXNmxo
问题五:请问一下 DataWorks数据集成时,参数“连接Url”信息如何填写?
请问一下 DataWorks数据集成时,创建新增AnalyticDB for SQL 2.0数据源时,参数“连接Url”信息如何填写?
参考回答:
集群这里打开进去看下呢
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/488029?spm=5176.8068049.0.0.77566d19PXNmxo