通过Loadrunner连接操作Hadoop HDFS

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介: 本文以Loadrunner的Java_Vuser脚本为例,来做一次HDFS的文件操作测试,由于LoadRunner 11只支持JDK1.6,所以Hadoop选择的Jar包也只能用Hadoop2.6.0,但是这不影响连接高版本的hadoop-HDFS(本次测试就实现了连接操作hadoop2.7下HDFS)。
版权声明:本文为博主原创文章,未经博主允许不得转载。欢迎访问我的博客 https://blog.csdn.net/smooth00/article/details/73793678

本文以Loadrunner的Java_Vuser脚本为例,来做一次HDFS的文件操作测试,由于LoadRunner 11只支持JDK1.6,所以Hadoop选择的Jar包也只能用Hadoop2.6.0,但是这不影响连接高版本的hadoop-HDFS(本次测试就实现了连接操作hadoop2.7下HDFS)。

1、在loadrunner中新建脚本(本文以LoadRunner11为例),要求选择协议类型为Java->Java Vuser

2、在Run-time Settings设置JDK路径,由于LoadRunner11不支持jdk1.8,本次测试是拷贝了一份低版本的JDK1.6,所以路径选择固定路径模式,如下所示:


3、可以上网下载一份Hadoop2.6.0的JAR包(官网和网上都能搜到),我专门准备了一份供大家下载(做了精简,去掉了一些与本次测试无关的Jar包):http://download.csdn.net/detail/smooth00/9881769,将JAR包放到Loadrunner的include目录下或其它指定目录下,并在Run-time Settings中配置Classpath:


4、在Loadrunner中以java Vuser协议创建脚本,脚本样例如下:

/*
 * LoadRunner Java script. (Build: _build_number_)
 * 
 * Script Description: 
 *                     
 */
import java.io.FileInputStream;  
import java.io.FileNotFoundException;  
import java.io.FileOutputStream;  
import java.io.InputStream;  
import java.io.IOException;  
import java.io.OutputStream;  
import java.net.URI;  
import java.net.URISyntaxException;  

import org.apache.hadoop.conf.Configuration;  
import org.apache.hadoop.fs.BlockLocation;  
import org.apache.hadoop.fs.FileStatus;  
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.FSDataOutputStream;  
import org.apache.hadoop.fs.Path;  
import org.apache.hadoop.io.IOUtils;  
import org.apache.log4j.Logger;
import org.apache.log4j.PropertyConfigurator;
import org.apache.log4j.xml.DOMConfigurator;
import java.io.File;

import lrapi.lr;

public class Actions
{
    FileSystem fs = null;
    private Configuration configuration =null;
    private String keyFS ="fs.defaultFS";
    private String keyUser ="hadoop.user";   

    //上传文件  测试成功
    // @uploadFile 要上传的本地文件
    // @intputFile 输入到HDFS的文件
    public void testUpload(String uploadFile,String intputFile) throws Exception{  
        InputStream in = new FileInputStream(uploadFile);  
        OutputStream out = fs.create(new Path(intputFile));
        IOUtils.copyBytes(in, out, 1024, true);//in输入源, out输出源头, 1024缓冲区大小 ,true 是否关闭数据流。如果是false,就在finally里关掉  
    } 
       
    //创建文件夹  测试成功  
    public void testMkdir(String dirs) throws IllegalArgumentException, IOException{  
        boolean  flag = fs.mkdirs(new Path(dirs));
        System.out.println(flag);//如果创建目录成功会返回true  
    }
       
    //下载文件  测试成功
    // @outputFile 要下载的HDFS文件
    // @downloadFile 要下载到本地的文件
    public void testDownload(String outputFile,String downloadFile) throws IllegalArgumentException, IOException{  
	InputStream in = fs.open(new Path(outputFile));//intput.txt
        OutputStream out = new FileOutputStream(downloadFile);//下载到本地路径 以及重命名后的名字  
        IOUtils.copyBytes(in, out, 4096, true);  
    }
       
    //删除文件   测试成功  
    public void testDelFile(String delFile) throws IllegalArgumentException, IOException{  
        boolean flag = fs.delete(new Path(delFile),true);//如果是删除路径  把参数换成路径即可"/a/test4"  inpufile
        //第二个参数true表示递归删除,如果该文件夹下还有文件夹或者内容 ,会变递归删除,若为false则路径下有文件则会删除不成功  
        System.out.println("删除文件 or 路径");  
        System.out.println("delete?"+flag);//删除成功打印true  
    }
      
    //重命名文件   测试成功 
    // @oldFile 要下载的HDFS文件
    // @newFile 要下载到本地的文件
    public void testRename(String oldFile,String newFile) throws IllegalArgumentException, IOException{  
        boolean flag = fs.rename(new Path(oldFile),new Path(newFile));//第一个参数改名为第二个参数  
        String result=flag?"成功":"失败";  
        System.out.println("result of rename?"+result);//删除成功打印true  
    }
       
    //查看文件是否存在     测试成功  
    public void CheckFile(String existFile) throws IllegalArgumentException, IOException{  
        boolean  flag = fs.exists(new Path(existFile));  
        System.out.println("Exist?"+flag);//如果创建目录成功会返回true  
    }
      
    //寻找文件在文件集中位置  测试成功  
    public void FileLoc(String searchFile) throws IllegalArgumentException, IOException{  
        FileStatus  filestatus = fs.getFileStatus(new Path(searchFile));  
        //System.out.println("filestatus?"+filestatus);//如果创建目录成功会返回true  
        BlockLocation[] blkLocations=fs.getFileBlockLocations(filestatus, 0, filestatus.getLen());//文件开始与结束  
          
        int blockLen=blkLocations.length;//块的个数 
	System.out.println("块数:"+blockLen);
        System.out.println("---------分割线--------");  
        for(int i=0;i<blockLen;i++){  
            String[] hosts=blkLocations[i].getHosts();  
            System.out.println("block_"+i+"location:"+hosts[0]);  
        }  
        System.out.println("---------分割线---------");  
      
    }
      
    //直接在hdfs上创建文件并在其中输入文字   测试成功 
    // @content 要写入文件的文字内容
    // @outputFile 写入的HDFS文件
    public void testCreateTextFile(String content,String outputFile) throws IllegalArgumentException, IOException{  
          
        byte[] buff=content.getBytes();//想要输入内容
        Path path=new Path(outputFile);//文件存放路径及文件名称  /a/test4/javawrite.txt
        FSDataOutputStream outputStream=fs.create(path);  
        outputStream.write(buff, 0, buff.length);  
        System.out.println("输出文件成功");  
      
    }

	public int init() throws Throwable {
	    //System.setProperty("hadoop.home.dir", "D:\\Program Files\\HP\\LoadRunner\\include\\hadoop\\hadoop-common-2.2.0-bin-master");
	    //加载日志输出方式
	    File directory = new File(".");
	    DOMConfigurator.configure(directory.getCanonicalPath()+"\\log4j.xml");//加载log4j.xml文件
	    //PropertyConfigurator.configure("E:/study/log4j/log4j.properties");//加载.properties文件
	    Logger log=Logger.getLogger("org.zblog.test");
	    System.setProperty("hadoop.home.dir", directory.getCanonicalPath()+"\\hadoop-common-2.2.0-bin-master");
            //初始化 
	    configuration=new Configuration();
	    //configuration.set(keyFS,"hdfs://172.17.2.12:8020");
            configuration.set("fs.hdfs.impl", "org.apache.hadoop.hdfs.DistributedFileSystem");
	    configuration.set("fs.file.impl", "org.apache.hadoop.fs.LocalFileSystem");
            //configuration.set("fs.hdfs.impl",org.apache.hadoop.hdfs.DistributedFileSystem.class.getName());
	    fs = FileSystem.get(new URI("hdfs://172.16.1.80:8020"), configuration,"hdfs");//hdfs为用户名
	    //fs = FileSystem.get(URI.create(fsname), configuration, user);
		return 0;
	}//end of init


	public int action() throws Throwable {
	    testMkdir("/a//test4");
	    testCreateTextFile("hello hadoop world!\n","/a/test4/intput.txt");
	    testUpload("d://textdownload.txt","/a/test4/intput.txt");
	    testDownload("/a/test4/intput.txt","d://textdownload2.txt");
	    testRename("/a/test4/intput.txt","/a/test4/intput");
	    FileLoc("/a/test4/intput");
	    testDelFile("/a/test4/intput");
	    
		return 0;
	}//end of action


	public int end() throws Throwable {
		return 0;
	}//end of end
}
需要说明的,本次样例脚本中,还引用了hadoop-common-2.2.0-bin-master(主要是因为在windows下开发Hadoop需要用到winutils.exe,本次的目的是为了在Windows下运行以上脚本后,能同时输出hadoop-HDFS运行日志),下载地址为(免积分): http://download.csdn.net/detail/nma_123456/8663763

5、将下载的hadoop-common-2.2.0-bin-master解压到Loadrnner脚本目录下(hadoop-common-2.2.0-bin-master下一层是bin目录)

6、同样在Loadrnner脚本目录下创建hadoop的日志配置文件log4j.xml,配置内容如下:

<?xml version="1.0" encoding="GB2312" ?>
<!DOCTYPE log4j:configuration SYSTEM "log4j.dtd">
<log4j:configuration xmlns:log4j="http://jakarta.apache.org/log4j/">
<appender name="org.zblog.all" class="org.apache.log4j.RollingFileAppender">
<!-- 设置通道ID:org.zblog.all和输出方式:org.apache.log4j.RollingFileAppender -->
<param name="File" value="./all.output.log" /> <!-- 设置File参数:日志输出文件名 -->
<param name="Append" value="false" /> <!-- 设置是否在重新启动服务时,在原有日志的基础添加新日志 -->
<param name="MaxBackupIndex" value="10" />
<layout class="org.apache.log4j.PatternLayout">
<param name="ConversionPattern" value="%p (%c:%L)- %m%n" /> <!-- 设置输出文件项目和格式 -->
</layout>
</appender>
<appender name="org.zblog.zcw" class="org.apache.log4j.RollingFileAppender">
<param name="File" value="E:/study/log4j/zhuwei.output.log" />
<param name="Append" value="true" />
<param name="MaxFileSize" value="10240" /> <!-- 设置文件大小 -->
<param name="MaxBackupIndex" value="10" />
<layout class="org.apache.log4j.PatternLayout">
<param name="ConversionPattern" value="%p (%c:%L)- %m%n" />
</layout>
</appender>
<logger name="zcw.log"> <!-- 设置域名限制,即zcw.log域及以下的日志均输出到下面对应的通道中 -->
<level value="debug" /> <!-- 设置级别 -->
<appender-ref ref="org.zblog.zcw" /> <!-- 与前面的通道id相对应 -->
</logger>
<root> <!-- 设置接收所有输出的通道 -->
<appender-ref ref="org.zblog.all" /> <!-- 与前面的通道id相对应 -->
</root>
</log4j:configuration>
7、一切就绪后,就可以运行脚本了(记住HDFS的连接地址,如hdfs://172.17.2.12:8020和用户要配置正确),运行成功如下所示:




相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
目录
相关文章
|
2月前
|
分布式计算 Kubernetes Hadoop
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
191 6
|
2月前
|
SQL 分布式计算 监控
Hadoop-20 Flume 采集数据双写至本地+HDFS中 监控目录变化 3个Agent MemoryChannel Source对比
Hadoop-20 Flume 采集数据双写至本地+HDFS中 监控目录变化 3个Agent MemoryChannel Source对比
72 3
|
2月前
|
SQL 分布式计算 Hadoop
Hadoop-14-Hive HQL学习与测试 表连接查询 HDFS数据导入导出等操作 逻辑运算 函数查询 全表查询 WHERE GROUP BY ORDER BY(一)
Hadoop-14-Hive HQL学习与测试 表连接查询 HDFS数据导入导出等操作 逻辑运算 函数查询 全表查询 WHERE GROUP BY ORDER BY(一)
57 4
|
2月前
|
SQL 分布式计算 Hadoop
Hadoop-19 Flume Agent批量采集数据到HDFS集群 监听Hive的日志 操作则把记录写入到HDFS 方便后续分析
Hadoop-19 Flume Agent批量采集数据到HDFS集群 监听Hive的日志 操作则把记录写入到HDFS 方便后续分析
53 2
|
2月前
|
SQL 分布式计算 关系型数据库
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
110 0
|
2月前
|
SQL 分布式计算 关系型数据库
Hadoop-23 Sqoop 数据MySQL到HDFS(部分) SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-23 Sqoop 数据MySQL到HDFS(部分) SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
51 0
|
2月前
|
SQL 分布式计算 关系型数据库
Hadoop-22 Sqoop 数据MySQL到HDFS(全量) SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-22 Sqoop 数据MySQL到HDFS(全量) SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
59 0
|
分布式计算 应用服务中间件 Docker
Hadoop HDFS分布式文件系统Docker版
一、Hadoop文件系统HDFS 构建单节点的伪分布式HDFS 构建4个节点的HDFS分布式系统 nameNode secondnameNode datanode1 datanode2 其中 datanode2动态节点,在HDFS系统运行时,==动态加入==。
2654 0
|
2月前
|
分布式计算 资源调度 Hadoop
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
82 2
|
5天前
|
存储 分布式计算 大数据
Flume+Hadoop:打造你的大数据处理流水线
本文介绍了如何使用Apache Flume采集日志数据并上传至Hadoop分布式文件系统(HDFS)。Flume是一个高可用、可靠的分布式系统,适用于大规模日志数据的采集和传输。文章详细描述了Flume的安装、配置及启动过程,并通过具体示例展示了如何将本地日志数据实时传输到HDFS中。同时,还提供了验证步骤,确保数据成功上传。最后,补充说明了使用文件模式作为channel以避免数据丢失的方法。
32 4

热门文章

最新文章

相关实验场景

更多