版权声明:本文为博主原创文章,未经博主允许不得转载。欢迎访问我的博客 https://blog.csdn.net/smooth00/article/details/73793678
本文以Loadrunner的Java_Vuser脚本为例,来做一次HDFS的文件操作测试,由于LoadRunner 11只支持JDK1.6,所以Hadoop选择的Jar包也只能用Hadoop2.6.0,但是这不影响连接高版本的hadoop-HDFS(本次测试就实现了连接操作hadoop2.7下HDFS)。
1、在loadrunner中新建脚本(本文以LoadRunner11为例),要求选择协议类型为Java->Java Vuser2、在Run-time Settings设置JDK路径,由于LoadRunner11不支持jdk1.8,本次测试是拷贝了一份低版本的JDK1.6,所以路径选择固定路径模式,如下所示:
3、可以上网下载一份Hadoop2.6.0的JAR包(官网和网上都能搜到),我专门准备了一份供大家下载(做了精简,去掉了一些与本次测试无关的Jar包):http://download.csdn.net/detail/smooth00/9881769,将JAR包放到Loadrunner的include目录下或其它指定目录下,并在Run-time Settings中配置Classpath:
4、在Loadrunner中以java Vuser协议创建脚本,脚本样例如下:
/*
* LoadRunner Java script. (Build: _build_number_)
*
* Script Description:
*
*/
import java.io.FileInputStream;
import java.io.FileNotFoundException;
import java.io.FileOutputStream;
import java.io.InputStream;
import java.io.IOException;
import java.io.OutputStream;
import java.net.URI;
import java.net.URISyntaxException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.BlockLocation;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;
import org.apache.log4j.Logger;
import org.apache.log4j.PropertyConfigurator;
import org.apache.log4j.xml.DOMConfigurator;
import java.io.File;
import lrapi.lr;
public class Actions
{
FileSystem fs = null;
private Configuration configuration =null;
private String keyFS ="fs.defaultFS";
private String keyUser ="hadoop.user";
//上传文件 测试成功
// @uploadFile 要上传的本地文件
// @intputFile 输入到HDFS的文件
public void testUpload(String uploadFile,String intputFile) throws Exception{
InputStream in = new FileInputStream(uploadFile);
OutputStream out = fs.create(new Path(intputFile));
IOUtils.copyBytes(in, out, 1024, true);//in输入源, out输出源头, 1024缓冲区大小 ,true 是否关闭数据流。如果是false,就在finally里关掉
}
//创建文件夹 测试成功
public void testMkdir(String dirs) throws IllegalArgumentException, IOException{
boolean flag = fs.mkdirs(new Path(dirs));
System.out.println(flag);//如果创建目录成功会返回true
}
//下载文件 测试成功
// @outputFile 要下载的HDFS文件
// @downloadFile 要下载到本地的文件
public void testDownload(String outputFile,String downloadFile) throws IllegalArgumentException, IOException{
InputStream in = fs.open(new Path(outputFile));//intput.txt
OutputStream out = new FileOutputStream(downloadFile);//下载到本地路径 以及重命名后的名字
IOUtils.copyBytes(in, out, 4096, true);
}
//删除文件 测试成功
public void testDelFile(String delFile) throws IllegalArgumentException, IOException{
boolean flag = fs.delete(new Path(delFile),true);//如果是删除路径 把参数换成路径即可"/a/test4" inpufile
//第二个参数true表示递归删除,如果该文件夹下还有文件夹或者内容 ,会变递归删除,若为false则路径下有文件则会删除不成功
System.out.println("删除文件 or 路径");
System.out.println("delete?"+flag);//删除成功打印true
}
//重命名文件 测试成功
// @oldFile 要下载的HDFS文件
// @newFile 要下载到本地的文件
public void testRename(String oldFile,String newFile) throws IllegalArgumentException, IOException{
boolean flag = fs.rename(new Path(oldFile),new Path(newFile));//第一个参数改名为第二个参数
String result=flag?"成功":"失败";
System.out.println("result of rename?"+result);//删除成功打印true
}
//查看文件是否存在 测试成功
public void CheckFile(String existFile) throws IllegalArgumentException, IOException{
boolean flag = fs.exists(new Path(existFile));
System.out.println("Exist?"+flag);//如果创建目录成功会返回true
}
//寻找文件在文件集中位置 测试成功
public void FileLoc(String searchFile) throws IllegalArgumentException, IOException{
FileStatus filestatus = fs.getFileStatus(new Path(searchFile));
//System.out.println("filestatus?"+filestatus);//如果创建目录成功会返回true
BlockLocation[] blkLocations=fs.getFileBlockLocations(filestatus, 0, filestatus.getLen());//文件开始与结束
int blockLen=blkLocations.length;//块的个数
System.out.println("块数:"+blockLen);
System.out.println("---------分割线--------");
for(int i=0;i<blockLen;i++){
String[] hosts=blkLocations[i].getHosts();
System.out.println("block_"+i+"location:"+hosts[0]);
}
System.out.println("---------分割线---------");
}
//直接在hdfs上创建文件并在其中输入文字 测试成功
// @content 要写入文件的文字内容
// @outputFile 写入的HDFS文件
public void testCreateTextFile(String content,String outputFile) throws IllegalArgumentException, IOException{
byte[] buff=content.getBytes();//想要输入内容
Path path=new Path(outputFile);//文件存放路径及文件名称 /a/test4/javawrite.txt
FSDataOutputStream outputStream=fs.create(path);
outputStream.write(buff, 0, buff.length);
System.out.println("输出文件成功");
}
public int init() throws Throwable {
//System.setProperty("hadoop.home.dir", "D:\\Program Files\\HP\\LoadRunner\\include\\hadoop\\hadoop-common-2.2.0-bin-master");
//加载日志输出方式
File directory = new File(".");
DOMConfigurator.configure(directory.getCanonicalPath()+"\\log4j.xml");//加载log4j.xml文件
//PropertyConfigurator.configure("E:/study/log4j/log4j.properties");//加载.properties文件
Logger log=Logger.getLogger("org.zblog.test");
System.setProperty("hadoop.home.dir", directory.getCanonicalPath()+"\\hadoop-common-2.2.0-bin-master");
//初始化
configuration=new Configuration();
//configuration.set(keyFS,"hdfs://172.17.2.12:8020");
configuration.set("fs.hdfs.impl", "org.apache.hadoop.hdfs.DistributedFileSystem");
configuration.set("fs.file.impl", "org.apache.hadoop.fs.LocalFileSystem");
//configuration.set("fs.hdfs.impl",org.apache.hadoop.hdfs.DistributedFileSystem.class.getName());
fs = FileSystem.get(new URI("hdfs://172.16.1.80:8020"), configuration,"hdfs");//hdfs为用户名
//fs = FileSystem.get(URI.create(fsname), configuration, user);
return 0;
}//end of init
public int action() throws Throwable {
testMkdir("/a//test4");
testCreateTextFile("hello hadoop world!\n","/a/test4/intput.txt");
testUpload("d://textdownload.txt","/a/test4/intput.txt");
testDownload("/a/test4/intput.txt","d://textdownload2.txt");
testRename("/a/test4/intput.txt","/a/test4/intput");
FileLoc("/a/test4/intput");
testDelFile("/a/test4/intput");
return 0;
}//end of action
public int end() throws Throwable {
return 0;
}//end of end
}
需要说明的,本次样例脚本中,还引用了hadoop-common-2.2.0-bin-master(主要是因为在windows下开发Hadoop需要用到winutils.exe,本次的目的是为了在Windows下运行以上脚本后,能同时输出hadoop-HDFS运行日志),下载地址为(免积分):
http://download.csdn.net/detail/nma_123456/8663763
5、将下载的hadoop-common-2.2.0-bin-master解压到Loadrnner脚本目录下(hadoop-common-2.2.0-bin-master下一层是bin目录)
6、同样在Loadrnner脚本目录下创建hadoop的日志配置文件log4j.xml,配置内容如下:
<?xml version="1.0" encoding="GB2312" ?>
<!DOCTYPE log4j:configuration SYSTEM "log4j.dtd">
<log4j:configuration xmlns:log4j="http://jakarta.apache.org/log4j/">
<appender name="org.zblog.all" class="org.apache.log4j.RollingFileAppender">
<!-- 设置通道ID:org.zblog.all和输出方式:org.apache.log4j.RollingFileAppender -->
<param name="File" value="./all.output.log" /> <!-- 设置File参数:日志输出文件名 -->
<param name="Append" value="false" /> <!-- 设置是否在重新启动服务时,在原有日志的基础添加新日志 -->
<param name="MaxBackupIndex" value="10" />
<layout class="org.apache.log4j.PatternLayout">
<param name="ConversionPattern" value="%p (%c:%L)- %m%n" /> <!-- 设置输出文件项目和格式 -->
</layout>
</appender>
<appender name="org.zblog.zcw" class="org.apache.log4j.RollingFileAppender">
<param name="File" value="E:/study/log4j/zhuwei.output.log" />
<param name="Append" value="true" />
<param name="MaxFileSize" value="10240" /> <!-- 设置文件大小 -->
<param name="MaxBackupIndex" value="10" />
<layout class="org.apache.log4j.PatternLayout">
<param name="ConversionPattern" value="%p (%c:%L)- %m%n" />
</layout>
</appender>
<logger name="zcw.log"> <!-- 设置域名限制,即zcw.log域及以下的日志均输出到下面对应的通道中 -->
<level value="debug" /> <!-- 设置级别 -->
<appender-ref ref="org.zblog.zcw" /> <!-- 与前面的通道id相对应 -->
</logger>
<root> <!-- 设置接收所有输出的通道 -->
<appender-ref ref="org.zblog.all" /> <!-- 与前面的通道id相对应 -->
</root>
</log4j:configuration>
7、一切就绪后,就可以运行脚本了(记住HDFS的连接地址,如hdfs://172.17.2.12:8020和用户要配置正确),运行成功如下所示: