下列代码中MapReduce怎样执行呢?
public static void main(Stringlargs)throws Exception{
Configuration conf=new Configuration();
confset("dfs.defaultFS""hdfs://hadoop:9000")
Job job=Job.getinstance(conf,"word count");
job.setJarByClass(WordCount.class);
job.setMapperClass(TokenizerMapper.class)
job.setCombinerClass(IntSumReducer.class)
job.setReducerClass(IntSumReducer.class;
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(IntWritable.class);
FilelnputFormataddinputPath(job,newPath(args[0]);
FileOutputFormat.setOutputPath(job,new Path(args[1]))
System.exit(jobwaitForCompletion(true)?0:1);
}
main函数前面做准备工作,创建Configuration对象,里面设置分布式文件系统在什么位置上,针对conf产生作业,作业起名为word count,把输入输出的文件在运行Java虚拟机时传递的参数表示,对指定目录下的文件进行操作输出到目录里,job正常完成系统退出,非正常完成以结束码为1的方式结束。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。