测试平台系列(69) 数据构造器支持sql语句

简介: 数据构造器支持sql语句

大家好~我是米洛


我在从0到1打造一个开源平台, 也在编写一套完整的接口测试平台系列教程,希望大家能够多多支持。


回顾


上节内容我们编写了非常恶心的数据驱动部分,而且有些东西笔者还讲的不清不楚的。接下来我们就来让数据构造器支持sql。

先看看之前的数据构造器:

1.jpg

画了许多饼,要支持的大概是这么多


  • 测试用例
  • sql
  • redis
  • http
  • python方法

目前我们还只支持一种呢~所以我们要尽快支持起来,保证造数的丰富性

SQL构造器


其实sql构造器比较简单,我们之前的文章也已经写好了sql构造器的核心方法,详情可以看在线执行sql的文章。

那我们今天只需要稍微来点改造即可。

编写获取sql配置的方法

之前我们编写的获取sql配置的方法,都是根据id来获取的,但因为我们存在多环境的情况。举个例子:

fat uat
id 1 2
数据库名 blog blog

这样的数据,名称都是blog,但环境不同导致会有多条数据。我们的用例要支持多环境运行, 如果指定了id为1,那么就不能访问到uat下的blog了。

所以我们打算用环境+数据库名确定一个配置,这样当env发生变化的时候,我们的配置也会跟着变化。

2.jpg

所以我们编写通过环境和名字查询数据库配置的方法

编写执行sql的方法

这里和在线执行有所不同,主要体现在获取配置那块。并且把查询结果序列化为json字符串,方便进行变量替换。

3.jpg

image

改造执行前置条件方法

执行前置条件的时候会判断前置条件类型,如果现在类型为1,说明是sql类型。

4.jpg

image

我们先反序列化数据,拿到对应的数据库名称配置信息。

注意,这里的反序列化是因为我们的前置条件表是用了一个TEXT字段存放所有类型的数据,由于用例和sql数据格式都不一致,所以我们需要反序列化为字典进一步取值。

拿到database(数据库名)和sql(sql语句),接着执行sql,把变量放入变量池


前端部分

至此,我们后端的改动就完成了。来看看前端的变化:

5.jpg

数据编写页面

6.jpg

左侧菜单可以切换编辑和调试模式,调试模式则是引入了在线执行sql的页面

7.jpg

可以看到明显的类型区分

怎么使用呢

自从改写了数据驱动以后,我们还没有跑过一个完整的例子。接着我们来看看:

前置用例

8.jpg

先看看前置用例

前置用例是一个登录的case,里面的username和password都已经抽离出来,这个值要怎么传给它呢?这个依赖于我们数据驱动里面的数据。

前置SQL语句

9.jpg

前置sql里面查询了昵称like name(这个是个变量)的数据

为什么要做这步,是为了后面断言的考虑。

主体用例

10.jpg

image

主体用例的逻辑一目了然:

  1. 替换全局变量,把blog_url变为真实请求地址
  2. 执行前置用例->登录case,并把username和password传入
  3. 取到前置用例的SESSIONID
  4. 执行测试SQL,取到nickname like name的用户信息
  5. 请求查询用户接口
  6. 断言,看结果是不是和数据库查出来的数量一致

断言部分

11.jpg

image

断言里面把sql_data的count(数量)取出来,和response(提前知道返回一个json数组)的数量进行长度对比

总结一下需要传入的变量

  • username 登录用户名
  • password 登录密码
  • name 查询的用户

看看数据管理

12.jpg

可以看到这些数据都已经在数据驱动配置好了

执行用例

由于执行这块我们还没彻底修复,只修复了批量执行的,我们去批量执行一下。

13.jpg

这里执行的是指定的fat环境,后续会提供选项选择执行什么环境的case

看下报告:

14.jpg

都报错了,看看日志

15.jpg

看看断言信息

看了下,断言里面预期结果应该是0,但实际结果有9条。

16.jpg

image

可以看到返回了很多数据,其实我查询的的name是一个我瞎编的,但这个接口还是返回了9条数据,也就是说测试失败了。

我们再看看数据库的执行记录:

17.jpg

image

可以看到变量已经灵活转变了。

再看看脑图部分:

18.jpg

image

总体来说,完整的流程已经走完了。在参数替换部分,确实出现了一些性能损耗,但没有关系,总体来说还是不算慢的。


今天的内容就分享到这里了,下一节介绍我们刚才没有提到的断言部分: 长度等于




相关文章
|
13天前
|
测试技术 API C#
C#使用Bogus生成测试数据
C#使用Bogus生成测试数据
21 1
|
5天前
|
SQL 存储 分布式计算
|
6天前
|
运维 Kubernetes 监控
|
10天前
|
SQL 物联网 数据处理
"颠覆传统,Hive SQL与Flink激情碰撞!解锁流批一体数据处理新纪元,让数据决策力瞬间爆表,你准备好了吗?"
【8月更文挑战第9天】数据时代,实时性和准确性至关重要。传统上,批处理与流处理各司其职,但Apache Flink打破了这一界限,尤其Flink与Hive SQL的结合,开创了流批一体的数据处理新时代。这不仅简化了数据处理流程,还极大提升了效率和灵活性。例如,通过Flink SQL,可以轻松实现流数据与批数据的融合分析,无需在两者间切换。这种融合不仅降低了技术门槛,还为企业提供了更强大的数据支持,无论是在金融、电商还是物联网领域,都将发挥巨大作用。
30 6
|
10天前
|
SQL 安全 数据处理
揭秘数据脱敏神器:Flink SQL的神秘力量,守护你的数据宝藏!
【8月更文挑战第9天】在大数据时代,Apache Flink以其强大的流处理能力脱颖而出,而Flink SQL则为数据处理带来了灵活性。本文介绍如何运用Flink SQL实现数据脱敏——一项关键的隐私保护技术。通过内置函数与表达式,在SQL查询中加入脱敏逻辑,可有效处理敏感信息,如个人身份与财务数据,以符合GDPR等数据保护法规。示例展示了如何对信用卡号进行脱敏,采用`CASE`语句检查并替换敏感数据。此外,Flink SQL支持自定义函数,适用于更复杂的脱敏需求。掌握此技能对于保障数据安全至关重要。
29 5
|
12天前
|
关系型数据库 MySQL Python
[python]使用faker库生成测试数据
[python]使用faker库生成测试数据
|
12天前
|
SQL 关系型数据库 MySQL
“震撼揭秘!Flink CDC如何轻松实现SQL Server到MySQL的实时数据同步?一招在手,数据无忧!”
【8月更文挑战第7天】随着大数据技术的发展,实时数据同步变得至关重要。Apache Flink作为高性能流处理框架,在实时数据处理领域扮演着核心角色。Flink CDC(Change Data Capture)组件的加入,使得数据同步更为高效。本文介绍如何使用Flink CDC实现从SQL Server到MySQL的实时数据同步,并提供示例代码。首先确保SQL Server启用了CDC功能,接着在Flink环境中引入相关连接器。通过定义源表与目标表,并执行简单的`INSERT INTO SELECT`语句,即可完成数据同步。
34 1
|
1天前
|
SQL 移动开发 Oracle
SQL查询连续六天数据记录的技巧与方法
在数据库查询中,实现针对连续几天(如连续六天)的数据筛选是一个常见且稍具挑战性的任务
|
1天前
|
SQL 数据库 索引
SQL语言入门:如何表达你的数据需求
在数据库的世界里,SQL(Structured Query Language)是一种至关重要的语言,它允许用户与数据库进行交互,执行数据的查询、更新、插入和删除等操作
|
4天前
|
SQL 存储 数据管理
解锁 SQL Server 2022的时间序列数据功能
【8月更文挑战第14天】解锁SQL Server 2022的时间序列数据功能需先确认版本支持;接着创建数据库与含时间列的表,如`TimeSeriesData`;然后插入时间序列数据;利用内置函数如窗口函数计算移动平均等统计;最后针对大数据量配置索引及分区以优化性能。这流程助力高效处理时间序列数据。