测试平台系列(70) 丰富断言类型

简介: 丰富断言类型

大家好~我是米洛


我正在从0到1打造一个开源的接口测试平台, 也在编写一套与之对应的完整教程,希望大家多多支持。


回顾


上一节我们支持了SQL类型的构造方法。

接下来我们要讲的是如何丰富我们的断言类型。

基础断言


我们之前的断言部分还是比较残缺的,就好像辟邪剑谱一样。今天我们就来尽量完善下断言的内容。

先看看之前的断言类型:

  • 等于
  • 不等于
  • 属于

但这些往往还不够,我们还需要新增一些。还记得我们之前写的如何比对2个JSON对象吗?我们今天也要把它运用到实战里面。

编写utils/json_compare.py


由于之前已经讲过json对比的思路,所以这边贴一下源码,并把JsonCompare类进行单例包装。


import json
from app.utils.decorator import SingletonDecorator
@SingletonDecorator
class JsonCompare(object):
    def compare(self, exp, act):
        ans = []
        self._compare(exp, act, ans, '')
        return ans
    def _compare(self, a, b, ans, path):
        a = self._to_json(a)
        b = self._to_json(b)
        if type(a) != type(b):
            ans.append(f"{path} 类型不一致, 分别为{type(a)} {type(b)}")
            return
        if isinstance(a, dict):
            keys = []
            for key in a.keys():
                pt = path + "/" + key
                if key in b.keys():
                    self._compare(a[key], b[key], ans, pt)
                    keys.append(key)
                else:
                    ans.append(f"{pt} 在实际结果中不存在")
            for key in b.keys():
                if key not in keys:
                    pt = path + "/" + key
                    ans.append(f"{pt} 在实际结果中多出")
        elif isinstance(a, list):
            i = j = 0
            while i < len(a):
                pt = path + "/" + str(i)
                if j >= len(b):
                    ans.append(f"{pt} 在实际结果中不存在")
                    i += 1
                    j += 1
                    continue
                self._compare(a[i], b[j], ans, pt)
                i += 1
                j += 1
            while j < len(b):
                pt = path + "/" + str(j)
                ans.append(f"{pt} 在预期结果中不存在")
                j += 1
        else:
            if a != b:
                ans.append(
                    f"{path} 数据不一致: {a} "
                    f"!= {b}" if path != "" else
                    f"数据不一致: {a} != {b}")
    def _color(self, text, _type=0):
        if _type == 0:
            # 说明是绿色
            return """<span style="color: #13CE66">{}</span>""".format(text)
        return """<span style="color: #FF4949">{}</span>""".format(text)
    def _weight(self, text):
        return """<span style="font-weight: 700">{}</span>""".format(text)
    def _to_json(self, string):
        try:
            float(string)
            return string
        except:
            try:
                if isinstance(string, str):
                    return json.loads(string)
                return string
            except:
                return string

改写断言方式


看看之前的断言方式:

27.jpg

方式有点少,需要补充

因为我们也不可能补充很多内容,所以我们只添加一些常见的

28.jpg

image

29.jpg

image

我们新增一些,包含/不包含/包含于/不包含于/长度等于/长度大于/长度小于/JSON等于这样的校验方式。并且用emoji区分了是否成功。

来看看效果吧~

30.jpg

image

这样就稍微丰富了咱们的断言手段,但我们还有一些JSON包含等,以及文本比对相似度断言的方式还没派上用场,之后有机会再给大家展示。

今天的内容就分享到这儿了,有兴趣的朋友们可以一起动手写起来呀!~

(本期内容比较少,下期带来重磅的Python的定时任务系列)




相关文章
|
14天前
|
Kubernetes 测试技术 Perl
混沌测试平台 Chaos Mesh
混沌测试平台 Chaos Mesh
34 1
|
1月前
|
传感器 数据采集 监控
LabVIEW电池管理系统测试平台
LabVIEW电池管理系统测试平台
28 4
|
6天前
|
运维 Kubernetes 监控
|
2月前
|
人工智能 分布式计算 DataWorks
首批!阿里云 MaxCompute 完成中国信通院数据智能平台专项测试
2024年5月31日,在中国信通院组织的首批数据智能平台专项测试中,阿里云数据智能平台解决方案(MaxCompute、DataWorks、PAI)顺利完成测试。
166 5
首批!阿里云 MaxCompute 完成中国信通院数据智能平台专项测试
|
2月前
|
IDE 测试技术 持续交付
Python作为一种简洁、易读且功能强大的编程语言,其自动化测试和单元测试框架的丰富性和易用性为开发者提供了极大的便利
【6月更文挑战第10天】本文探讨了Python自动化测试与单元测试框架在提升代码质量和效率中的作用。Selenium、Appium和pytest是常用的自动化测试框架,分别支持Web和移动应用的测试。unittest是Python的标准单元测试框架,提供断言方法和测试组织结构。通过制定测试计划、编写高质量测试用例、持续集成与测试、以及有效利用测试报告,开发者能提高代码质量和开发效率。
45 1
|
1月前
|
传感器 存储 数据采集
LabVIEW阀性能测试平台
LabVIEW阀性能测试平台
24 0
|
2月前
|
消息中间件 Kubernetes Kafka
AutoMQ 自动化持续测试平台技术内幕
Marathon 是一个针对流系统 AutoMQ 的自动化持续测试平台,旨在在模拟生产环境和各种故障场景中验证 SLA 的可靠性。设计原则包括易拓展、可观测和低成本。平台采用分布式架构,Controller 负责资源管理和任务编排,动态调整 Worker 数量和配置,而 Worker 是无状态的,用于生成负载和上报数据。系统基于 K8S,利用服务发现、事件总线和 Spot 实例降低成本并提高弹性。测试场景以代码形式描述,支持不同流量模型和断言,提供丰富的可观测性和告警功能。未来,Marathon 有望泛化为适用于各种分布式系统的测试平台。
38 0
AutoMQ 自动化持续测试平台技术内幕
|
2月前
|
jenkins Java 测试技术
电商返利平台的测试与持续集成
电商返利平台的测试与持续集成
|
3月前
|
数据挖掘 测试技术 网络安全
LabVIEW开发卫星测试平台
LabVIEW开发卫星测试平台
39 3
|
3月前
|
消息中间件 测试技术 Linux
linux实时操作系统xenomai x86平台基准测试(benchmark)
本文是关于Xenomai实时操作系统的基准测试,旨在评估其在低端x86平台上的性能。测试模仿了VxWorks的方法,关注CPU结构、指令集等因素对系统服务耗时的影响。测试项目包括信号量、互斥量、消息队列、任务切换等,通过比较操作前后的时戳来测量耗时,并排除中断和上下文切换的干扰。测试结果显示了各项操作的最小、平均和最大耗时,为程序优化提供参考。注意,所有数据基于特定硬件环境,测试用例使用Alchemy API编写。
900 0
linux实时操作系统xenomai x86平台基准测试(benchmark)

热门文章

最新文章