mapreduce作业单元测试

简介:

用官方提供的MRunit包进行对MapReducer作业进行测试

http://mrunit.apache.org/

先要下载对应的测试包,分为1.0和2.0的hadoop版本

 

来自:

https://cwiki.apache.org/confluence/display/MRUNIT/MRUnit+Tutorial

 

Mapper

 

Java代码  复制代码  收藏代码
  1. import org.apache.hadoop.io.IntWritable;   
  2. import org.apache.hadoop.io.LongWritable;   
  3. import org.apache.hadoop.io.Text;   
  4. import org.apache.hadoop.mapreduce.Mapper;   
  5.   
  6. public class SMSCDRMapper extends Mapper<LongWritable, Text, Text, IntWritable>   
  7. {   
  8.   
  9.     private Text status = new Text();   
  10.   
  11.     private final static IntWritable addOne = new IntWritable(1);   
  12.   
  13.     @Override  
  14.     protected void map(LongWritable key, Text value, Context context) throws java.io.IOException, InterruptedException   
  15.     {   
  16.   
  17.         //655209;1;796764372490213;804422938115889;6 is the Sample record format   
  18.         String[] line = value.toString().split(";");   
  19.         // If record is of SMS CDR   
  20.         if (Integer.parseInt(line[1]) == 1)   
  21.         {   
  22.             status.set(line[4]);   
  23.             context.write(status, addOne);   
  24.         }   
  25.     }   
  26.   
  27. }  
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;

public class SMSCDRMapper extends Mapper<LongWritable, Text, Text, IntWritable>
{

    private Text status = new Text();

    private final static IntWritable addOne = new IntWritable(1);

    @Override
    protected void map(LongWritable key, Text value, Context context) throws java.io.IOException, InterruptedException
    {

        //655209;1;796764372490213;804422938115889;6 is the Sample record format
        String[] line = value.toString().split(";");
        // If record is of SMS CDR
        if (Integer.parseInt(line[1]) == 1)
        {
            status.set(line[4]);
            context.write(status, addOne);
        }
    }

}

 

 

Reducer:

 

 

Java代码  复制代码  收藏代码
  1. import java.util.List;   
  2.   
  3. import org.apache.hadoop.io.IntWritable;   
  4. import org.apache.hadoop.io.LongWritable;   
  5. import org.apache.hadoop.io.Text;   
  6. import org.apache.hadoop.mrunit.mapreduce.MapDriver;   
  7. import org.apache.hadoop.mrunit.mapreduce.MapReduceDriver;   
  8. import org.apache.hadoop.mrunit.mapreduce.ReduceDriver;   
  9. import org.junit.Before;   
  10. import org.junit.Test;   
  11.   
  12. import flex.messaging.io.ArrayList;   
  13.   
  14. public class SMSCDRMapperReducerTest   
  15. {   
  16.     MapDriver<LongWritable, Text, Text, IntWritable> mapDriver;   
  17.     ReduceDriver<Text, IntWritable, Text, IntWritable> reduceDriver;   
  18.     MapReduceDriver<LongWritable, Text, Text, IntWritable, Text, IntWritable> mapReduceDriver;   
  19.     @Before  
  20.     public void setup()   
  21.     {   
  22.         SMSCDRMapper mapper = new SMSCDRMapper();   
  23.         SMSCDRReducer reducer = new SMSCDRReducer();   
  24.         mapDriver = MapDriver.newMapDriver(mapper);   
  25.            
  26.         reduceDriver = ReduceDriver.newReduceDriver(reducer);   
  27.         mapReduceDriver = MapReduceDriver.newMapReduceDriver(mapper, reducer);   
  28.     }   
  29.        
  30.     @Test  
  31.     public void testMapper()   
  32.     {   
  33.         mapDriver.withInput(new LongWritable(), new Text(   
  34.         "655209;1;796764372490213;804422938115889;6"));   
  35.         mapDriver.withOutput(new Text("6"), new IntWritable(1));   
  36.         mapDriver.runTest();   
  37.     }   
  38.        
  39.     @Test  
  40.     public void testReducer()   
  41.     {   
  42.         List<IntWritable> values = new ArrayList();   
  43.         values.add(new IntWritable(1));   
  44.         values.add(new IntWritable(1));   
  45.         reduceDriver.withInput(new Text("6"), values);   
  46.         reduceDriver.withOutput(new Text("6"), new IntWritable(2));   
  47.         reduceDriver.runTest();   
  48.     }   
  49. }  
import java.util.List;

import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mrunit.mapreduce.MapDriver;
import org.apache.hadoop.mrunit.mapreduce.MapReduceDriver;
import org.apache.hadoop.mrunit.mapreduce.ReduceDriver;
import org.junit.Before;
import org.junit.Test;

import flex.messaging.io.ArrayList;

public class SMSCDRMapperReducerTest
{
    MapDriver<LongWritable, Text, Text, IntWritable> mapDriver;
    ReduceDriver<Text, IntWritable, Text, IntWritable> reduceDriver;
    MapReduceDriver<LongWritable, Text, Text, IntWritable, Text, IntWritable> mapReduceDriver;
    @Before
    public void setup()
    {
        SMSCDRMapper mapper = new SMSCDRMapper();
        SMSCDRReducer reducer = new SMSCDRReducer();
        mapDriver = MapDriver.newMapDriver(mapper);
        
        reduceDriver = ReduceDriver.newReduceDriver(reducer);
        mapReduceDriver = MapReduceDriver.newMapReduceDriver(mapper, reducer);
    }
    
    @Test
    public void testMapper()
    {
        mapDriver.withInput(new LongWritable(), new Text(
        "655209;1;796764372490213;804422938115889;6"));
        mapDriver.withOutput(new Text("6"), new IntWritable(1));
        mapDriver.runTest();
    }
    
    @Test
    public void testReducer()
    {
        List<IntWritable> values = new ArrayList();
        values.add(new IntWritable(1));
        values.add(new IntWritable(1));
        reduceDriver.withInput(new Text("6"), values);
        reduceDriver.withOutput(new Text("6"), new IntWritable(2));
        reduceDriver.runTest();
    }
}

 

Test测试类

 

 

Java代码  复制代码  收藏代码
  1. import java.util.List;   
  2.   
  3. import org.apache.hadoop.io.IntWritable;   
  4. import org.apache.hadoop.io.LongWritable;   
  5. import org.apache.hadoop.io.Text;   
  6. import org.apache.hadoop.mrunit.mapreduce.MapDriver;   
  7. import org.apache.hadoop.mrunit.mapreduce.MapReduceDriver;   
  8. import org.apache.hadoop.mrunit.mapreduce.ReduceDriver;   
  9. import org.junit.Before;   
  10. import org.junit.Test;   
  11.   
  12. import flex.messaging.io.ArrayList;   
  13.   
  14. public class SMSCDRMapperReducerTest   
  15. {   
  16.     MapDriver<LongWritable, Text, Text, IntWritable> mapDriver;   
  17.     ReduceDriver<Text, IntWritable, Text, IntWritable> reduceDriver;   
  18.     MapReduceDriver<LongWritable, Text, Text, IntWritable, Text, IntWritable> mapReduceDriver;   
  19.     @Before  
  20.     public void setup()   
  21.     {   
  22.         SMSCDRMapper mapper = new SMSCDRMapper();   
  23.         SMSCDRReducer reducer = new SMSCDRReducer();   
  24.         mapDriver = MapDriver.newMapDriver(mapper);   
  25.            
  26.         reduceDriver = ReduceDriver.newReduceDriver(reducer);   
  27.         mapReduceDriver = MapReduceDriver.newMapReduceDriver(mapper, reducer);   
  28.     }   
  29.        
  30.     @Test  
  31.     public void testMapper()   
  32.     {   
  33.         mapDriver.withInput(new LongWritable(), new Text(   
  34.         "655209;1;796764372490213;804422938115889;6"));   
  35.         mapDriver.withOutput(new Text("6"), new IntWritable(1));   
  36.         mapDriver.runTest();   
  37.     }   
  38.        
  39.     @Test  
  40.     public void testReducer()   
  41.     {   
  42.         List<IntWritable> values = new ArrayList();   
  43.         values.add(new IntWritable(1));   
  44.         values.add(new IntWritable(1));   
  45.         reduceDriver.withInput(new Text("6"), values);   
  46.         reduceDriver.withOutput(new Text("6"), new IntWritable(2));   
  47.         reduceDriver.runTest();   
  48.     }   
  49. }  
import java.util.List;

import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mrunit.mapreduce.MapDriver;
import org.apache.hadoop.mrunit.mapreduce.MapReduceDriver;
import org.apache.hadoop.mrunit.mapreduce.ReduceDriver;
import org.junit.Before;
import org.junit.Test;

import flex.messaging.io.ArrayList;

public class SMSCDRMapperReducerTest
{
    MapDriver<LongWritable, Text, Text, IntWritable> mapDriver;
    ReduceDriver<Text, IntWritable, Text, IntWritable> reduceDriver;
    MapReduceDriver<LongWritable, Text, Text, IntWritable, Text, IntWritable> mapReduceDriver;
    @Before
    public void setup()
    {
        SMSCDRMapper mapper = new SMSCDRMapper();
        SMSCDRReducer reducer = new SMSCDRReducer();
        mapDriver = MapDriver.newMapDriver(mapper);
        
        reduceDriver = ReduceDriver.newReduceDriver(reducer);
        mapReduceDriver = MapReduceDriver.newMapReduceDriver(mapper, reducer);
    }
    
    @Test
    public void testMapper()
    {
        mapDriver.withInput(new LongWritable(), new Text(
        "655209;1;796764372490213;804422938115889;6"));
        mapDriver.withOutput(new Text("6"), new IntWritable(1));
        mapDriver.runTest();
    }
    
    @Test
    public void testReducer()
    {
        List<IntWritable> values = new ArrayList();
        values.add(new IntWritable(1));
        values.add(new IntWritable(1));
        reduceDriver.withInput(new Text("6"), values);
        reduceDriver.withOutput(new Text("6"), new IntWritable(2));
        reduceDriver.runTest();
    }
}

 

转自http://piaoling.iteye.com/blog/1672683




本文转自茄子_2008博客园博客,原文链接:http://www.cnblogs.com/xd502djj/archive/2013/04/09/3011240.html,如需转载请自行联系原作者。


目录
相关文章
|
4月前
|
存储 分布式计算 监控
Hadoop【基础知识 01+02】【分布式文件系统HDFS设计原理+特点+存储原理】(部分图片来源于网络)【分布式计算框架MapReduce核心概念+编程模型+combiner&partitioner+词频统计案例解析与进阶+作业的生命周期】(图片来源于网络)
【4月更文挑战第3天】【分布式文件系统HDFS设计原理+特点+存储原理】(部分图片来源于网络)【分布式计算框架MapReduce核心概念+编程模型+combiner&partitioner+词频统计案例解析与进阶+作业的生命周期】(图片来源于网络)
272 2
|
3月前
|
分布式计算 Java Hadoop
实现多文件合并和去重的MapReduce作业
实现多文件合并和去重的MapReduce作业
|
3月前
|
分布式计算 大数据
mapreduce 实现带有ex前缀的词频统计wordcount 大作业
mapreduce 实现带有ex前缀的词频统计wordcount 大作业
|
4月前
|
数据采集 分布式计算 DataWorks
DataWorks产品使用合集之在DataWorks中,在MapReduce作业中指定两个表的所有分区如何解决
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
60 0
|
4月前
|
分布式计算 监控 Hadoop
Hadoop【基础知识 02】【分布式计算框架MapReduce核心概念+编程模型+combiner&partitioner+词频统计案例解析与进阶+作业的生命周期】(图片来源于网络)
【4月更文挑战第3天】Hadoop【基础知识 02】【分布式计算框架MapReduce核心概念+编程模型+combiner&partitioner+词频统计案例解析与进阶+作业的生命周期】(图片来源于网络)
225 0
|
4月前
|
自然语言处理 数据可视化 测试技术
软件测试作业(三)
软件测试作业(三)
44 1
|
存储 缓存 网络协议
[计算机网络(第八版)]第一章 概述(章节测试 + 章节作业 + 答案解析)
[计算机网络(第八版)]第一章 概述(章节测试 + 章节作业 + 答案解析)
|
SQL Java 数据库连接
【Spring】作业记录:spring项目从创建、配置到功能实现、测试
【Spring】作业记录:spring项目从创建、配置到功能实现、测试
100 0
【Spring】作业记录:spring项目从创建、配置到功能实现、测试
|
分布式计算 资源调度 Java
Hadoop中的MapReduce概述、优缺点、核心思想、编程规范、进程、官方WordCount源码、提交到集群测试、常用数据序列化类型、WordCount案例实操
Hadoop中的MapReduce概述、优缺点、核心思想、编程规范、进程、官方WordCount源码、提交到集群测试、常用数据序列化类型、WordCount案例实操
Hadoop中的MapReduce概述、优缺点、核心思想、编程规范、进程、官方WordCount源码、提交到集群测试、常用数据序列化类型、WordCount案例实操
|
资源调度 分布式计算 Java
MapReduce作业在YARN的内存分配设置
MapReduce作业在YARN的内存分配设置
361 0
MapReduce作业在YARN的内存分配设置