使用原生kafka+sparkstreaming生产的数据如何实现每六秒写入到maxcompute当中-问答-阿里云开发者社区-阿里云

开发者社区> 问答> 正文

使用原生kafka+sparkstreaming生产的数据如何实现每六秒写入到maxcompute当中

tinsonz 2019-01-09 15:19:11 1224

业务场景:使用kafka+sparkstreaming接入数据并处理数据,处理好的数据如何实现每六秒写入多条数据到maxcompute当中

分布式计算 MaxCompute
分享到
取消 提交回答
全部回答(1)
  • galaxystar
    2019-07-17 23:25:03

    直接基于maxcompute的datahub做数据导入,有kafka插件的。

    0 0
大数据
使用钉钉扫一扫加入圈子
+ 订阅

大数据计算实践乐园,近距离学习前沿技术

推荐文章
相似问题