开发者社区> 问答> 正文

看MaxCompute(原ODPS)说明文档说输入数据只能是表结构 1.是否可以跑用户自定义的原生的基于hdfs的Mapreduce任务,输入为hdfs文件,输出为hdfs文件,mapper的逻辑以及reducer的逻辑用户自定义实现 2.是否支持其他的数据工具,如何跑基于spark的任务

已解决

看MaxCompute(原ODPS)说明文档说输入数据只能是表结构
1.是否可以跑用户自定义的原生的基于hdfs的Mapreduce任务,输入为hdfs文件,输出为hdfs文件,mapper的逻辑以及reducer的逻辑用户自定义实现
2.是否支持其他的数据工具,如何跑基于spark的任务

展开
收起
祁同伟 2017-07-18 14:10:17 5132 0
1 条回答
写回答
取消 提交回答
  • TA有点害羞,没有介绍自己...
    采纳回答

    1、maxcompute产品不支持以为hdfs的数据作为数据源,不过您可以考虑把hdfs的数据同步到maxcompute来
    2、目前不支持spark

    2019-07-17 21:24:28
    赞同 1 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载