问题一:公司现在大数据计算MaxCompute有北京和深圳两个区,往北京的kafka写吗?
公司现在大数据计算MaxCompute有北京和深圳两个区,往北京的kafka写吗?
参考回答:
用DataWorks数据同步吗 网络打通就可以
我理解原理一样。网络打通就可以。 具体的可以咨询Flink同学
https://help.aliyun.com/zh/flink/support/faq-about-network-connectivity?spm=a2c4g.11174283.0.i6 ,
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/609708
问题二:请教下大数据计算MaxCompute odps sql 底层计算框架是什么?MR吗?
请教下大数据计算MaxCompute odps sql 底层计算框架是什么?MR吗?
参考回答:
自研的SQL engine自研的SQL engine立即升级
SQL执行计划展现形式是mrSQL执行计划展现形式是mr立即升级
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/609707
问题三:这个在大数据计算maxcompute里面如何调用呢?
这个在大数据计算maxcompute里面如何调用呢?
参考回答:
可以写一个udf,申请udf访问外网。
https://help.aliyun.com/zh/maxcompute/user-guide/network-connection-process?spm=a2c4g.11174283.0.i3 ,
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/609705
问题四:大数据计算MaxCompute flink是16个并发,为什么回报slot超限?
大数据计算MaxCompute flink是16个并发,为什么回报slot超限?
参考回答:
2.23的数据我查不到了。3.23我看了一下早上8点和下午3点都达到了北京slot的上限。
我给你几个表,你调整一下这几个表的并发。
ods_veh_st_collect_data_protocol_21_p_1d
ods_veh_st_collect_data_protocol_20_p_1d
ods_veh_st_collect_data_protocol_23_p_1d
ods_veh_st_collect_data_protocol_8_p_1d
只能调整并发,把单任务的并发下调。 你是整体upload瞬间到了300slot的上限。 你不用全部调整,单独调几个表,一个表降一个就行。只要整体不超300就行 ,
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/609702
问题五:大数据计算MaxCompute任务卡在这里很久了 是什么情况?
大数据计算MaxCompute任务卡在这里很久了 是什么情况?
参考回答:
看下logview的join里面的stdout ,是不是数据膨胀了。看下logview的join里面的stdout ,是不是数据膨胀了。立即升级
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/609701