问题一:问下dataworks数据集成支持argodb的数据源吗?
问下dataworks数据集成支持argodb的数据源吗?
参考回答:
可以参考看下这些是已经支持的数据源列表 https://help.aliyun.com/document_detail/181656.html 目前应该还未支持
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/488021?spm=5176.8068049.0.0.77566d19PXNmxo
问题二:DataWorks数据集成任务可以同步视图吗?
DataWorks数据集成任务可以同步视图吗?
参考回答:
嗯 可以的 可以读取视图
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/484807?spm=5176.8068049.0.0.77566d19PXNmxo
问题三:dataworks数据集成实时同步任务是什么?
dataworks数据集成实时同步任务是什么?
参考回答:
DataWorks数据集成实时同步任务,目前对于Oracle主库支持订阅联机重做日志(Online Redo),对于Oracle备库仅支持订阅归档日志。因此,对于时效性要求比较高的实时同步任务,建议订阅主库的实时增量变更。订阅Oracle备库时,Oracle日志的产生到可以被获取的最短延迟时间取决于Oracle的自动切换归档日志的时间,不能保证时效性。Oracle数据库的归档日志建议保留3天。当写入大批量数据至Oracle数据库时,实时同步数据的速度可能会慢于日志生成的速度,方便在同步任务出现问题时,为追溯数据预留足够的时间。您可以通过分析归档日志排查问题并恢复数据。DataWorks数据集成实时同步任务,不支持对Oracle数据库中无主键的表进行truncate操作。对于无主键表进行日志分析(即logminer操作)是根据Rowid进行回查,当遇到truncate操作时会修改原表的Rowid,该操作会导致同步任务运行报错。 在规格为24 vCPU 192 GiB的DataWorks上运行实时同步任务时,如果非update等操作日志较多,并且速度达到约每秒记录3~5W条数据的极限速度,则Oracle服务器的单核CPU使用率最高可以达到25%~35%;如果处理update等操作日志,则处理实时同步消息的DataWorks机器可能会存在性能瓶颈,Oracle服务器的单核CPU使用率仅可以达到1%~5%。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/483811?spm=5176.8068049.0.0.77566d19PXNmxo
问题四:dataworks数据集成同步任务分区不支持 * 写法吗?
dataworks数据集成同步任务分区不支持 * 写法吗?
参考回答:
是maxcompute reader么 您可以参考一下这个链接,应该有您想要的回答:
https://help.aliyun.com/document_detail/137465.htm
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/483810?spm=5176.8068049.0.0.77566d19PXNmxo
问题五:DataWorks数据集成取的是什么时间?
DataWorks数据集成取的是什么时间?
参考回答:
数据集成取的是数据进入loghub的时间,请在Loghub控制台检查数据元数据字段receive_time是否在任务配置的时间区间内。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/483614?spm=5176.8068049.0.0.77566d19PXNmxo