1.前言
刚接触mapreduce的人肯定为碰到这样的问题,就是我们在程序中如下类似的命令
- System.out.println(year+" "+airTemperature);//无效,控制台没有输出。
2.给出测试程序的代码
NewMaxTemperature.java
- package hadoop.chapter2;
- // cc NewMaxTemperature Application to find the maximum temperature in the weather dataset using the new context objects MapReduce API
- import java.io.IOException;
- import org.apache.hadoop.fs.Path;
- import org.apache.hadoop.io.*;
- import org.apache.hadoop.mapreduce.*;
- import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
- import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
- // vv NewMaxTemperature
- public class NewMaxTemperature {
- static class NewMaxTemperatureMapper
- extends Mapper<LongWritable, Text, Text, IntWritable> {
- private static final int MISSING = 9999;
- public void map(LongWritable key, Text value, Context context)
- throws IOException, InterruptedException {
- String line = value.toString();
- String year = line.substring(15, 19);
- int airTemperature;
- if (line.charAt(87) == '+') { // parseInt doesn't like leading plus signs
- airTemperature = Integer.parseInt(line.substring(88, 92));
- } else {
- airTemperature = Integer.parseInt(line.substring(87, 92));
- }
- String quality = line.substring(92, 93);
- if (airTemperature != MISSING && quality.matches("[01459]")) {
- context.write(new Text(year), new IntWritable(airTemperature));
- System.out.println(year+" "+airTemperature);//无效,控制台没有输出。
- /*
- * stdout logs
- * 1950 0
- * 1950 22
- * 1950 -11
- * 1949 111
- * 1949 78
- * */
- }
- }
- }
- static class NewMaxTemperatureReducer
- extends Reducer<Text, IntWritable, Text, IntWritable> {
- public void reduce(Text key, Iterable<IntWritable> values,
- Context context)
- throws IOException, InterruptedException {
- int maxValue = Integer.MIN_VALUE;
- for (IntWritable value : values) {
- maxValue = Math.max(maxValue, value.get());
- System.out.println(key+" "+value.get());//无效,控制台没有输出。
- /*
- * stdout logs
- * 1949 111
- * 1949 78
- * 1950 0
- * 1950 22
- * 1950 -11
- * */
- }
- context.write(key, new IntWritable(maxValue));
- }
- }
- public static void main(String[] args) throws Exception {
- if (args.length != 2) {
- System.err.println("Usage: NewMaxTemperature <input path> <output path>");
- System.exit(-1);
- }
- // /home/hadoop/input/sample.txt /home/hadoop/output/tmp1
- Job job = new Job();
- job.setJarByClass(NewMaxTemperature.class);
- FileInputFormat.addInputPath(job, new Path(args[0]));
- FileOutputFormat.setOutputPath(job, new Path(args[1]));
- job.setMapperClass(NewMaxTemperatureMapper.class);
- job.setReducerClass(NewMaxTemperatureReducer.class);
- job.setOutputKeyClass(Text.class);
- job.setOutputValueClass(IntWritable.class);
- System.exit(job.waitForCompletion(true) ? 0 : 1);
- }
- }
- // ^^ NewMaxTemperature
3.然后给出用于测试该程序的数据
sample.txt
- 0067011990999991950051507004+68750+023550FM-12+038299999V0203301N00671220001CN9999999N9+00001+99999999999
- 0043011990999991950051512004+68750+023550FM-12+038299999V0203201N00671220001CN9999999N9+00221+99999999999
- 0043011990999991950051518004+68750+023550FM-12+038299999V0203201N00261220001CN9999999N9-00111+99999999999
- 0043012650999991949032412004+62300+010750FM-12+048599999V0202701N00461220001CN0500001N9+01111+99999999999
- 0043012650999991949032418004+62300+010750FM-12+048599999V0202701N00461220001CN0500001N9+00781+99999999999
4.最后给出该程序的输入参数
我们在eclipse上运行该程序,不通过命令行来执行。
- /home/hadoop/input/sample.txt /home/hadoop/output/tmp1
5.查找System.out的内容
这是文章的主题,就是在console中我们没有找到我们想要打印的输出,那么我们应该如何查找。
首先我们登录web控制台,网址是:http://localhost:50030/ 。这里顺便给出相关的web控制界面的一些网址:
- http://localhost:50030/ - Hadoop 管理介面
- http://localhost:50060/ - Hadoop Task Tracker 状态
- http://localhost:50070/ - Hadoop DFS 状态
我们进入:job_201110230923_0002这个作业,会看到如下界面:
在这里就可以看到map任务于reduce人物的详情,我们首先点击map,进入如下界面:
再点击相应的task:task_201110230923_0002_m_000000,进入如下界面:
我们点击Task Logs列中的ALL,会出现如下界面:
上面的stdout logs就是我们System.out的内容。reduce任务也可以通过同样的方法得到System.out的内容。其实web管理界面访问的内容都写在本地,我们可以从本地的用户日志文件中找到。比如上述例子中的stdout logs可以在目录:hadoop_home/logs/userlogs/attempt_201110230923_0002_m_000000_0目录下找到。该目录下有以下几个文件:log.index stderr stdout syslog。其中stderr中的内容是通过System.err.println输出的。
6.总结
文中提到很多作业job,任务task等相关的内容,具体这些关系可以参考《hadoop权威指南第二版》p147的内容。
本文转自xwdreamer博客园博客,原文链接:http://www.cnblogs.com/xwdreamer/archive/2011/10/23/2296953.html,如需转载请自行联系原作者