目标检测笔记(五):查看通过COCOEvaluator生成的coco_instances_results.json文件的详细检测信息,包含AP、AR、MR和DR等

简介: 本文介绍了如何使用COCO评估器通过Detectron2库对目标检测模型进行性能评估,生成coco_instances_results.json文件,并利用pycocotools解析该文件以计算AP、AR、MR和DR等关键指标。

COCO评估器

COCO(Common Objects in Context)是一个被广泛使用的计算机视觉领域的数据集,其中包含了多个场景、多种对象以及不同光照和背景下的图像。COCO数据集中的每一张图片都标注了物体的类别、位置和大小等信息,这些信息可以用于训练和评估目标检测、语义分割等计算机视觉任务的模型。

COCO数据集中的图片和标注信息可以被用于训练和评估机器学习算法,但是为了保证算法的准确性,我们需要一个评估指标来量化算法的性能。COCO评估器(COCOEvaluator)就是一个用于计算目标检测和语义分割等算法性能的工具。它工作原理是将机器生成的结果与真实的标注信息进行比较,从而计算出各种指标,如精确度(precision)、召回率(recall)等,以评估算法的性能表现。

COCOEvaluator不仅可以计算单个类别的指标,还可以计算多个类别的指标,为算法的优化提供方向。此外,COCOEvaluator还可以根据不同的评估要求,如IoU(Intersection over Union)匹配、边框等,灵活地评估算法的性能。

验证集测试

首先注册数据集
mydata.py

from detectron2.data.datasets import register_coco_instances
register_coco_instances("MY_train", {}, "./dataSet/train.json", "./dataSet/images/train")
register_coco_instances("MY_test", {}, "./dataSet/test.json", "./dataSet/images/test")

然后通过import mydata导入注册的数据集,通过指定cfg和weights的文件,然后运行这个验证集测试代码即可生成对应的coco_instances_results.json


import mydata
from detectron2.config import get_cfg
import os
from detectron2.engine.defaults import DefaultPredictor
from detectron2.evaluation import COCOEvaluator, inference_on_dataset
from detectron2.data import build_detection_test_loader


DATASET_STR = "MY_test"

def get_max_path(output_dir_base):
    # 获取文件夹的文件数
    file_count = len(os.listdir(output_dir_base))
    return file_count+1

if __name__ == "__main__":
    save_path_root = "../output/val"
    os.makedirs(save_path_root, exist_ok=True)
    max_dir_num = get_max_path(save_path_root)

    cfg = get_cfg()
    # cfg.merge_from_file(
    #     r"../cfg/mask_rcnn_R_50_FPN_3x.yaml"
    # )
    # cfg.MODEL.WEIGHTS = "../output/train/1/model_final.pth"
    cfg.merge_from_file(
        r"../cfg/faster_rcnn_R_101_FPN_3x.yaml"
    )
    cfg.MODEL.WEIGHTS = "../weights/model_final.pth"

    print('loading from: {}'.format(cfg.MODEL.WEIGHTS))
    cfg.MODEL.ROI_HEADS.SCORE_THRESH_TEST = 0.7   # set the testing threshold for this model
    cfg.MODEL.ROI_HEADS.NUM_CLASSES = 4
    cfg.DATASETS.TEST = (DATASET_STR, )
    predictor = DefaultPredictor(cfg)
    cfg.OUTPUT_DIR = os.path.join(save_path_root, str(max_dir_num)) # 将output放在主目录下,每次验证都会往后创建新的文件夹来保存训练好的信息。
    print("保存文件的路径:{}".format(cfg.OUTPUT_DIR))
    evaluator = COCOEvaluator(DATASET_STR, cfg, False, output_dir=cfg.OUTPUT_DIR)
    val_loader = build_detection_test_loader(cfg, DATASET_STR)
    print(inference_on_dataset(predictor.model, val_loader, evaluator))

这时候我们若想要通过这个json文件来得到我们的检测指标,各类AP和AR指标以及MR(错误率)和DR(检测率),就可以通过下面这个代码(只需要指定COCO数据集的标签json文件(和验证的代码一样的json文件),然后再指定coco_instances_results.json的路径即可。

from pycocotools.coco import COCO
from pycocotools.cocoeval import COCOeval
import json, os

# 加载coco_instances_results.json文件中的预测结果
root = "../output/val/8/" # 这里修改为你得到的val文件路径
ins_path = os.path.join(root, 'coco_instances_results.json') # 对应的coco_instance的名称
ins_path_S = ins_path.split("/")
print(ins_path)
with open(ins_path, 'r') as f:
    results = json.load(f)

# 加载COCO数据集的注释文件
annFile = 'dataSet/test.json' # 这里加载你的验证集的json数据集
cocoGt = COCO(annFile)

# 加载预测结果到COCO格式中
cocoDt = cocoGt.loadRes(results)

# 初始化COCO评估器
cocoEval = COCOeval(cocoGt, cocoDt, 'bbox')

# 运行评估计算AP
cocoEval.evaluate()
cocoEval.accumulate()
cocoEval.summarize()

# 输出平均精度(AP)
print("Average Precision (AP): {:.2f}".format(cocoEval.stats[0]))
# 输出漏检率和检测率指标
print("Miss Rate (MR): {:.2f}".format(1 - cocoEval.stats[8]/cocoEval.stats[2]))
print("Detection Rate (DR): {:.2f}".format(cocoEval.stats[8]/cocoEval.stats[2]))
# 将输出结果保存到txt文件中
with open('{}/COCO_AP_MR_DR_AR.txt'.format(root), 'w') as f:
    f.write("Average Precision  (AP) @[ IoU=0.50:0.95 | area=   all | maxDets=100 ] = {:.3f}\n".format(cocoEval.stats[0]))
    f.write("Average Precision  (AP) @[ IoU=0.50      | area=   all | maxDets=100 ] = {:.3f}\n".format(cocoEval.stats[1]))
    f.write("Average Precision  (AP) @[ IoU=0.75      | area=   all | maxDets=100 ] = {:.3f}\n".format(cocoEval.stats[2]))
    f.write("Average Precision  (AP) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = {:.3f}\n".format(cocoEval.stats[3]))
    f.write("Average Precision  (AP) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = {:.3f}\n".format(cocoEval.stats[4]))
    f.write("Average Precision  (AP) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = {:.3f}\n".format(cocoEval.stats[5]))
    f.write("\n")
    f.write("Average Recall     (AR) @[ IoU=0.50:0.95 | area=   all | maxDets=  1 ] = {:.3f}\n".format(cocoEval.stats[6]))
    f.write("Average Recall     (AR) @[ IoU=0.50:0.95 | area=   all | maxDets= 10 ] = {:.3f}\n".format(cocoEval.stats[7]))
    f.write("Average Recall     (AR) @[ IoU=0.50:0.95 | area=   all | maxDets=100 ] = {:.3f}\n".format(cocoEval.stats[8]))
    f.write("Average Recall     (AR) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = {:.3f}\n".format(cocoEval.stats[9]))
    f.write("Average Recall     (AR) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = {:.3f}\n".format(cocoEval.stats[10]))
    f.write("Average Recall     (AR) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = {:.3f}\n".format(cocoEval.stats[11]))
    f.write("\n")
    f.write("Miss Rate (MR): {:.2f}\n".format(1 - cocoEval.stats[8]/cocoEval.stats[2]))
    f.write("Detection Rate (DR): {:.2f}\n".format(cocoEval.stats[8]/cocoEval.stats[2]))

print("AP、MR、DR和AR指标已保存到{}/COCO_AP_MR_DR_AR.txt文件中。".format(root))

运行之后即可在coco_instances_results.json的当前路径生成对应的txt文件。
在这里插入图片描述

目录
相关文章
|
2月前
|
JSON 数据格式 Python
Python实用记录(十四):python统计某个单词在TXT/JSON文件中出现的次数
这篇文章介绍了一个Python脚本,用于统计TXT或JSON文件中特定单词的出现次数。它包含两个函数,分别处理文本和JSON文件,并通过命令行参数接收文件路径、目标单词和文件格式。文章还提供了代码逻辑的解释和示例用法。
54 0
Python实用记录(十四):python统计某个单词在TXT/JSON文件中出现的次数
|
1月前
|
存储 JSON 监控
公司用什么软件监控电脑:JSON 在监控信息交互中的应用探索
在现代企业管理中,电脑监控软件广泛应用于保障信息安全和提升工作效率。JSON(JavaScript Object Notation)因其简洁和易读性,在监控信息的收集、传输和处理中扮演着关键角色。本文介绍了 JSON 在监控数据结构、信息传输及服务器端处理中的具体应用,展示了其在高效监控系统中的重要性。
38 0
|
2月前
|
JSON 数据格式
LangChain-20 Document Loader 文件加载 加载MD DOCX EXCEL PPT PDF HTML JSON 等多种文件格式 后续可通过FAISS向量化 增强检索
LangChain-20 Document Loader 文件加载 加载MD DOCX EXCEL PPT PDF HTML JSON 等多种文件格式 后续可通过FAISS向量化 增强检索
145 2
|
2月前
|
JSON 数据格式 计算机视觉
Opencv实用笔记(一): 获取并绘制JSON标注文件目标区域(可单独保存目标小图)
本文介绍了如何使用OpenCV和Python根据JSON标注文件获取并绘制目标区域,同时可将裁剪的图像单独保存。通过示例代码,展示了如何读取图片路径、解析JSON标注、绘制标注框并保存裁剪图像的过程。此外,还提供了相关的博客链接,供读者进一步学习。
58 0
|
3月前
|
XML 存储 JSON
Twaver-HTML5基础学习(19)数据容器(2)_数据序列化_XML、Json
本文介绍了Twaver HTML5中的数据序列化,包括XML和JSON格式的序列化与反序列化方法。文章通过示例代码展示了如何将DataBox中的数据序列化为XML和JSON字符串,以及如何从这些字符串中反序列化数据,重建DataBox中的对象。此外,还提到了用户自定义属性的序列化注册方法。
51 1
|
2月前
|
数据采集 JSON 数据处理
抓取和分析JSON数据:使用Python构建数据处理管道
在大数据时代,电商网站如亚马逊、京东等成为数据采集的重要来源。本文介绍如何使用Python结合代理IP、多线程等技术,高效、隐秘地抓取并处理电商网站的JSON数据。通过爬虫代理服务,模拟真实用户行为,提升抓取效率和稳定性。示例代码展示了如何抓取亚马逊商品信息并进行解析。
抓取和分析JSON数据:使用Python构建数据处理管道
|
1月前
|
JSON 数据格式 索引
Python中序列化/反序列化JSON格式的数据
【11月更文挑战第4天】本文介绍了 Python 中使用 `json` 模块进行序列化和反序列化的操作。序列化是指将 Python 对象(如字典、列表)转换为 JSON 字符串,主要使用 `json.dumps` 方法。示例包括基本的字典和列表序列化,以及自定义类的序列化。反序列化则是将 JSON 字符串转换回 Python 对象,使用 `json.loads` 方法。文中还提供了具体的代码示例,展示了如何处理不同类型的 Python 对象。
|
1月前
|
JSON 缓存 前端开发
PHP如何高效地处理JSON数据:从编码到解码
在现代Web开发中,JSON已成为数据交换的标准格式。本文探讨了PHP如何高效处理JSON数据,包括编码和解码的过程。通过简化数据结构、使用优化选项、缓存机制及合理设置解码参数等方法,可以显著提升JSON处理的性能,确保系统快速稳定运行。
|
2月前
|
JSON JavaScript Java
在Java中处理JSON数据:Jackson与Gson库比较
本文介绍了JSON数据交换格式及其在Java中的应用,重点探讨了两个强大的JSON处理库——Jackson和Gson。文章详细讲解了Jackson库的核心功能,包括数据绑定、流式API和树模型,并通过示例演示了如何使用Jackson进行JSON解析和生成。最后,作者分享了一些实用的代码片段和使用技巧,帮助读者更好地理解和应用这些工具。
183 0
在Java中处理JSON数据:Jackson与Gson库比较
|
1月前
|
JSON API 数据安全/隐私保护
拍立淘按图搜索API接口返回数据的JSON格式示例
拍立淘按图搜索API接口允许用户通过上传图片来搜索相似的商品,该接口返回的通常是一个JSON格式的响应,其中包含了与上传图片相似的商品信息。以下是一个基于淘宝平台的拍立淘按图搜索API接口返回数据的JSON格式示例,同时提供对其关键字段的解释