问题一:DataWorks中py odps 3 打印 print问下有解决办法吗 ?
DataWorks中py odps 3 打印 print('${bdp.system.cyctime}' + '${bdp.system.bizdate}') 日期参数 结果还是 ${bdp.system.cyctime}${bdp.system.bizdate} 问下有解决办法吗 ?
参考回答:
控制台跑是没有的,你在流程中运行节点就有了
关于本问题的更多回答可点击原文查看:
https://developer.aliyun.com/ask/637014
问题二:DataWorks写得太小批次 导致starrocks里面得版本太多直接超出限制了怎么办 ?
DataWorks写得太小批次 导致starrocks里面得版本太多直接超出限制了 ?
参考回答:
试着检查下StarRocks的配置参数,特别是与版本管理和垃圾回收相关的参数,如tablet_max_versions,可能需要适当增大这个限制,但这也可能导致存储空间的浪费,所以要谨慎调整。
关于本问题的更多回答可点击原文查看:
https://developer.aliyun.com/ask/637013
问题三:DataWorks中odps小文件合并怎么办?
DataWorks中odps小文件合并?
参考回答:
分布式文件系统按块(Block)存放数据,文件大小比块大小(64MB)小的文件称为小文件。分布式系统不可避免会产生小文件,比如SQL或其他分布式引擎的计算结果、Tunnel数据采集。合并小文件可以达到优化系统性能的目的。本文为您介绍如何在MaxCompute中合并小文件。
参考文档https://help.aliyun.com/zh/maxcompute/use-cases/merge-small-files?spm=a2c4g.11186623.0.i51
关于本问题的更多回答可点击原文查看:
https://developer.aliyun.com/ask/637011
问题四:DataWorks不只是默认业务过程下的;当我删除数据域时会不会展示派生指标?
DataWorks不只是默认业务过程下的;当我删除数据域时会不会展示派生指标?虽然创建派生指标选择的是业务过程,但是这个业务过程是在该数据域下创建的。(目前是只有在删除业务过程时会展示派生指标)
参考回答:
当我删除数据域时会不会展示派生指标?-----应该要展示 当前未展示的也不只是默认业务过程下的吗
关于本问题的更多回答可点击原文查看:
https://developer.aliyun.com/ask/637010
问题五:DataWorks 从hive 同步数据到Starrcoks 这个写入端的参数文档嘛?
DataWorks 从hive 同步数据到Starrcoks 这个写入端的参数文档嘛?
我源端读取都很快 但是我写入这一段超级慢 每次只能写5mb文件进去
参考回答:
日志里搜索一下 concurrent 看下实际并发是1吗 ,然后看下splitPk等有没有配置主键https://help.aliyun.com/zh/dataworks/user-guide/starrocks-data-source?spm=a2c4g.11186623.0.i1#task-2314945
关于本问题的更多回答可点击原文查看: