软件测试|Junit5 实现参数化和数据驱动

简介: 软件测试|Junit5 实现参数化和数据驱动

登录:不同的用户名,不同的密码,不同的组合都需要做登录场景的测试,正常的排列组合下可能会产生多个用例

搜索:不同的搜索条件产生不同的搜索结果,搜索也是常见的测试项,单个搜索参数或者多种搜索参数的组合;同样也会产生多个用例。

参数化:我们在写自动化用例的时候会有很多方法,一般我们都会把数据通过参数来传递给方法,而不会直接在方法中写“死”,所以方法之间的数据传递都是通过参数化来进行,利用参数化进行数据与变量的对应;比如我们的登录账号密码设置在参数中,再将参数传递到方法中。

public MainPage login(String username, String password) {
        sendKeys(inputUsername,username);
        sendKeys(inputPassword,password);
        click(loginBtn);
        return new MainPage();
}

数据驱动:将参数化中的数据来源变成从外部读取,参数有一个存放数据的地方,在用例执行的时候去去数据;这个数据存储的地方可以是我们定义的数组、hashmap,也可以是从外部文件中(excel、csv、xml、yaml等)读取。

例如上述的搜索案例,我们可以将搜索条件放入外部文件中,每次执行搜索用例时,去文件中获取数据,根据获取到的数据执行不同的搜索测试即可。

-
 - 洗衣液
-
 - 帽子
-
 - 手套

总结下来:

在执行测试工作过程中,有很多过程是需要动态变化的,如果每一次的变化都需要编码部署,那么整个执行的流程就会边长;

对于业务测试工程师来说,维护自动化代码有一定的门槛,需要熟悉编程语言和测试框架的结构;

定义好了数据驱动,将变化的数据放入配置文件中进行维护,既便捷(无需找到对应代码修改部署),也降低了维护的门槛(业务测试只需要在配置文件中修改数据即可)

与测试数据的数据驱动大致相同,主要也是方便业务测试维护,降低维护门槛和代码修改部署出错的风险;修改配置文件,整个业务行为和抽象是不用改变的,当然,在UI自动化中配合PO一起使用会“风味更佳”。

手工录制测试步骤,直接生成代码比较困难,可以生成步骤的配置文件,让代码去读配置文件,完成自动化的回放;(此方面本人暂时仅了解过,还未实践落地,理论上是可以实现的。)

不要在测试用例内完成大量的数据驱动:
用例通过PO的调用是能够非常清晰展现出业务执行场景的,业务才是用例的核心;一旦在用例里使用了大量数据驱动,如调用各种yaml、csv等数据文件,会造成用例可读性变差,维护复杂度变高;

  1. 测试数据的数据驱动
  2. 测试步骤的数据驱动
  • 定位符
  • 行为流
  1. 断言的数据驱动
  • 不同数据格式文件的对比

从上述对比结果中,Json 和 YAML 对于数据结构的支持和书写程度是较好的;但是, YAML 的写法更简洁,并且还可以注释,因此最推荐使用的就是(从表格中的所处都位置也可猜到~)…位于C位的YAML!
那么到底什么是YAML,又如何使用,下面简单来了解一下

yaml 的语法

  • 大小写敏感
  • 使用缩进表示层级关系
  • 缩进时不允许使用Tab键,只允许使用空格。
  • 缩进的空格数目不重要,只要相同层级的元素左侧对齐即可
  • 表示注释

yaml 支持的三种数据结构

  • 纯量(scalars):单个的、不可再分的值,例如数字、字符串、布尔值等
  • 对象:键值对的集合,又称为映射(mapping)/ 哈希(hashes) / 字典(dictionary)
#键值对形式
key: value
#行内对象
person: { name: allen, age: 25 }
#以-开头表示为一个数组里的值
- A
- B
- C
#数组内嵌套子数组,用一个空格缩进表示
- 
- a
 - aa
- 
- b
 - bb
  • 对象和数组可以结合使用,形成复合结构
languages:
 - Ruby
 - Perl
 - Python 
websites:
 YAML: yaml.org 
 Ruby: ruby-lang.org 
 Python: python.org 
 Perl: use.perl.org

把一个文件数据通过类型建立关联,并创建出一个类的实例,反之也可以把一个对象写入文件中。
先来看jackson-databind对json文件的操作
添加 maven 依赖

<dependency>
    <groupId>com.fasterxml.jackson.core</groupId>
    <artifactId>jackson-databind</artifactId>
    <version>2.9.9.3</version>
</dependency>

  • 写 json 文件

1)先创建一个类,包含变量name,age

public class TestFileSource {
    public String name;
    public int age;
    }

2)创建单元测试,创建ObjectMapper对象,调用writeValue对json文件进行写操作

@Test
void writeJson() throws IOException {
    ObjectMapper mapper = new ObjectMapper();
    TestFileSource testFileSource = new TestFileSource();
    mapper.writeValue(new File("..\\demo.json"),testFileSource);
}

3)得到demo.json文件的结果,从结果可以看到TestFileSource类中的变量已经被写入的json文件中

{"name":null,"age":0}
  • 读 json 文件

1)创建单元测试,创建ObjectMapper对象,调用readValue方法对json文件进行数据读取

@Test
void readJson() throws IOException {
    ObjectMapper mapper = new ObjectMapper();
    TestFileSource testFileSource = mapper.readValue(TestFileSource.class.getResourceAsStream("/demo.json"), TestFileSource.class);
    System.out.println(testFileSource);
    System.out.println(testFileSource.age);
}

2)读取结果

  ApiDemos.testcase.TestFileSource@4562e04d
  0
  • 输出漂亮的 json 格式

1)创建单元测试,创建ObjectMapper对象,调用writerWithDefaultPrettyPrinter().writeValueAsString方法可对指定对象进行json数据格式的输出

@Test
void prettyPrintJson() throws JsonProcessingException {
    ObjectMapper mapper = new ObjectMapper();
    // pretty print
    String json = mapper.writerWithDefaultPrettyPrinter().writeValueAsString(new TestFileSource());
    System.out.println(json);
}

2)打印结果

{
  "name" : null,
  "age" : 0
}

参考链接
jackson-databind GitHub地址:
https://github.com/FasterXML/jackson-databind

再来看jackson-dataformats-text,这是一个可以对YAML、CSV、Properties和XML文件进行操作的库,也是目前最常用的,不过这里我们只重点关注其对YAML文件的操作

  • 添加maven依赖
<dependency>
    <groupId>com.fasterxml.jackson.dataformat</groupId>
    <artifactId>jackson-dataformat-yaml</artifactId>
    <version>2.9.8</version>
</dependency>
  • 读 YAML 文件

想要读取 YAML 文件,最主要的是在new ObjectMapper对象的时候加入new YAMLFactory(),这样就成功切换至 yaml 操作的状态,然后利用readValue方法就可以完成对yaml文件的数据读取了
1)创建 YAML 文件

name: allen
age: 11

2)创建ObjectMapper对象,设置new YAMLFactory()

@Test
void readYaml() throws IOException {
        ObjectMapper mapper = new ObjectMapper(new YAMLFactory());
        TestFileSource testFileSource = mapper.readValue(TestFileSource.class.getResourceAsStream("/demo2.yaml"), TestFileSource.class);
        System.out.println(testFileSource);
        System.out.println(testFileSource.age);
}

打印结果

ApiDemos.testcase.TestFileSource@ba2f4ec
11

在readValue的方法中可以看到,第一个参数填的是文件地址,第二个参数就是精髓所在!我们可以给定一个对象类型,或者一个二维数组等,用来产生映射关系,将文件数据和我们的对象绑定,方便数据的读取。
如上述例子中我们通过TestFileSource的实例化对象来调用age变量。

  • 输出漂亮的 YAML 格式

与json输出的方式基本一致,只需要在new ObjectMapper对象的时候加入new YAMLFactory()即可
1)创建类和类的成员变量,包含纯量、数组和哈希

public class TestFileSource {

    public String name = "tester";
    public int age = 2;
    public Object[][] arr= {{1,2,3,},{"a","b","c"}};
    public HashMap<String,Object> map = new HashMap<String, Object>(){
        {
        put("name","tester");
        put("sex","男");
        }
    };
}

2)创建单元测试,创建ObjectMapper对象,加入new YAMLFactory() 参数,调用writerWithDefaultPrettyPrinter().writeValueAsString方法可对指定对象进行yaml数据格式的输出

@Test
void prettyPrintYaml() throws JsonProcessingException {
    ObjectMapper mapper = new ObjectMapper(new YAMLFactory());
    // pretty print
    String json = mapper.writerWithDefaultPrettyPrinter().writeValueAsString(new TestFileSource());
    System.out.println(json);
}

3)打印结果

---
name: "tester"
age: 2
arr:
- - 1
  - 2
  - 3
- - "a"
  - "b"
  - "c"
map:
  sex: "男"
  name: "tester"

参考链接jackson-dataformats-text GitHub地址:
https://github.com/FasterXML/jackson-dataformats-text

相关文章
|
30天前
|
存储 测试技术 数据库
数据驱动测试和关键词驱动测试的区别
数据驱动测试 数据驱动测试或 DDT 也被称为参数化测试。
|
15天前
参数化测试
参数化测试
22 0
|
1月前
|
SQL 分布式计算 Hadoop
Hadoop-14-Hive HQL学习与测试 表连接查询 HDFS数据导入导出等操作 逻辑运算 函数查询 全表查询 WHERE GROUP BY ORDER BY(一)
Hadoop-14-Hive HQL学习与测试 表连接查询 HDFS数据导入导出等操作 逻辑运算 函数查询 全表查询 WHERE GROUP BY ORDER BY(一)
40 4
|
1月前
|
SQL 消息中间件 大数据
大数据-159 Apache Kylin 构建Cube 准备和测试数据(一)
大数据-159 Apache Kylin 构建Cube 准备和测试数据(一)
50 1
|
1月前
|
SQL 大数据 Apache
大数据-159 Apache Kylin 构建Cube 准备和测试数据(二)
大数据-159 Apache Kylin 构建Cube 准备和测试数据(二)
77 1
|
1月前
|
SQL
Hadoop-14-Hive HQL学习与测试 表连接查询 HDFS数据导入导出等操作 逻辑运算 函数查询 全表查询 WHERE GROUP BY ORDER BY(二)
Hadoop-14-Hive HQL学习与测试 表连接查询 HDFS数据导入导出等操作 逻辑运算 函数查询 全表查询 WHERE GROUP BY ORDER BY(二)
34 2
|
1月前
|
存储 监控 网络安全
内网渗透测试基础——敏感数据的防护
内网渗透测试基础——敏感数据的防护
|
1月前
|
SQL 关系型数据库 MySQL
SQL批量插入测试数据的几种方法?
SQL批量插入测试数据的几种方法?
89 1
|
1月前
|
存储 SQL 分布式计算
大数据-135 - ClickHouse 集群 - 数据类型 实际测试
大数据-135 - ClickHouse 集群 - 数据类型 实际测试
35 0
|
2月前
|
SQL JavaScript 前端开发
基于Java访问Hive的JUnit5测试代码实现
根据《用Java、Python来开发Hive应用》一文,建立了使用Java、来开发Hive应用的方法,产生的代码如下
71 6