看MaxCompute(原ODPS)说明文档说输入数据只能是表结构 1.是否可以跑用户自定义的原生的基于hdfs的Mapreduce任务,输入为hdfs文件,输出为hdfs文件,mapper的逻辑以及reducer的逻辑用户自定义实现 2.是否支持其他的数据工具,如何跑基于spark的任务-问答-阿里云开发者社区-阿里云

开发者社区> 问答> 正文

看MaxCompute(原ODPS)说明文档说输入数据只能是表结构 1.是否可以跑用户自定义的原生的基于hdfs的Mapreduce任务,输入为hdfs文件,输出为hdfs文件,mapper的逻辑以及reducer的逻辑用户自定义实现 2.是否支持其他的数据工具,如何跑基于spark的任务

祁同伟 2017-07-18 14:10:17 1915

看MaxCompute(原ODPS)说明文档说输入数据只能是表结构
1.是否可以跑用户自定义的原生的基于hdfs的Mapreduce任务,输入为hdfs文件,输出为hdfs文件,mapper的逻辑以及reducer的逻辑用户自定义实现
2.是否支持其他的数据工具,如何跑基于spark的任务

分布式计算 MaxCompute Spark
分享到
取消 提交回答
全部回答(1)
  • 琴瑟
    2019-07-17 21:24:28
    已采纳

    1、maxcompute产品不支持以为hdfs的数据作为数据源,不过您可以考虑把hdfs的数据同步到maxcompute来
    2、目前不支持spark

    1 0
大数据
使用钉钉扫一扫加入圈子
+ 订阅

大数据计算实践乐园,近距离学习前沿技术

推荐文章
相似问题