目标检测的发展与现状

简介: 目标检测领域发展至今已有二十余载,从早期的传统方法到如今的深度学习方法,精度越来越高的同时速度也越来越快,这得益于深度学习等相关技术的不断发展。

     目标检测作为计算机视觉领域中最根本也是最具有挑战性的问题之一,近年来受到社会各界的广泛研究与探索。作为计算机视觉领域的一项重要任务,目标检测通常需要完成的是:提供数字图像中某类视觉对象(如人类、动物或汽车)的具体位置。此外,目标检测也是许多其他任务(例如:实例分割、图像描述生成、目标追踪等)的重要环节。

     从应用的角度来看,目标检测可以分为两个研究主题:一般场景下的目标检测和特定类别的目标检测。两者的区别是:前者类似于模拟人类的视觉和认知,主要意图是探索在统一框架下检测出不同类别物体的方法;而后者是指在特定的应用场景下的检测,如人脸检测、行人检测、车辆检测等任务。近年来,深度学习技术的飞速发展给目标检测带来了显著的突破。目标检测目前已经被广泛地应用于许多现实世界的场景中,如自动驾驶、机器人视觉、视频监控等。

     过去的 20 年,目标检测的发展历程大致经历了两个历史时期:传统的目标检测时期(2014 年以前)和基于深度学习的检测时期(2014 年以后)。传统的目标检测算法可以概括为以下几个步骤:首先,采取滑动窗口的方式遍历整张图像,产生一定数量的候选框;其次,提取候选框的特征;最后,利用支持向量机(SVM)等分类方法对提取到的特征进行分类,进而得到结果。由于当时缺乏有效的图像表示,人们只能设计复杂的特征表示,并通过各种加速技能来充分利用有限的计算资源。该时期主要的检测方法有:

(1)Viola Jones 检测器:Viola Jones 检测器由三个核心步骤组成,即 Haar特征和积分图、Adaboost 分类器以及级联分类器。

(2)HOG 检测器:HOG 检测器利用了方向梯度直方图(HOG)特征描述子,通过计算和统计局部区域的梯度方向直方图来构建特征。HOG 特征与 SVM 分类器算法的结合,在行人检测任务中应用广泛且效果显著。然而,HOG 检测器的缺点是始终需要保持检测窗口的大小不变,如果待检测目标的大小不一,那么 HOG检测器需要多次缩放输入图像。

(3)基于部件的可变形模型(DPM):DPM 所遵循的思想是“分而治之”,训练过程中学习的是如何将目标物体进行正确地分解,而推理时则是将不同的部件组合到一起。比如说,检测“汽车”问题可以分解为检测“车窗”、“车身”和“车轮”等。

     早期的目标检测任务提取特征时,主要的方式是人工提取,具有一定的局限性,手工特征的性能也趋于饱和。2012 年起,卷积神经网络的广泛应用使得目标检测也开启了新的征程。2014 年 R. Girshick 等人提出的 R-CNN算法横空出世,目标检测开始以前所未有的速度快速发展。深度学习时代,目标检测算法根据检测思想的不同通常可以分为两大类别:两阶段(two-stage)检测和一阶段(one-stage)检测。

     两阶段检测算法基于提议的候选框,是一个“由粗到细”的过程。首先产生区域候选框,其次提取每个候选框的特征,最后产生位置框并预测对应的类别,特点是精度高但速度慢。最早期的 R-CNN 算法利用“选择性搜索”方法产生候选框、卷积神经网络提取特征、支持向量机分类器进行分类和预测。虽然 R-CNN 算法具有一定的开创性,但生成的候选框大量重叠,存在计算冗余的问题。2014 年,He 等人提出 SPPNet算法,利用空间金字塔池化层对不同尺度的特征图进行池化并生成固定长度的特征表示,减少反复缩放图像对检测结果造成的影响。然而,SPPNet的缺点是:模型的训练仍然是分多步的;SPPNet 很难对 SPP 层之前的网络进行参数微调,导致效率降低。2015 年,R. Girshick 等人提出 Fast R-CNN算法,对 R-CNN 与 SPPNet 算法做出进一步改进,提出感兴趣区域池化层(ROI),使得检测的速度和精度大大提升。不久后,Ren 等人提出 Faster R-CNN算法,实现了端到端地训练,用 RPN 网络代替选择性搜索,大大减少了训练和测试的时间。

    一阶段检测算法基于边界框的回归,是一个“一步到位”的过程。一阶段检测网络在产生候选框的同时进行分类和边界框回归,特点是速度快但精度稍逊。2016年,Redmon 等人提出了 YOLOv1[9]算法,该算法将图像分割成 S×S 个网格,基于每个网格对应的包围框直接预测类别概率和回归位置信息。同年,Liu 等人提出SSD 算法,该算法借鉴 YOLO 算法的思想,并利用多尺度特征图进行预测。2017年,Redmon 等人提出 YOLOv2算法,用 DarkNet-19 对 YOLOv1 的网络结构进行了修改。2018 年,Redmon 等人提出 YOLOv3[11]算法,改进之处是:YOLOv3 借鉴 FPN 结构,进行了多尺度预测;借鉴 ResNet网络结构,将 DarkNet-19 改进为DarkNet-53。研究者们对算法不断地改进,使得检测的性能不断提高。

     此外,基于关键点(anchor-free)进行的目标检测是近期一个比较新颖的研究方向。主流的目标检测算法,比如两阶段的 R-CNN 算法和一阶段的 SSD 算法,基本上都是基于边界框(anchor-based)完成的。基于边界框的设计思想存在一些问题:许多目标的形状是不规则的,边界框可能会包含一些非目标的区域,对检测造成干扰;边界框的数量、大小和宽高比等超参数的设置需要根据数据集的不同而调整;边界框的庞大数量可能导致正、负样本的不平衡问题,导致检测的性能不佳。2018 年,Law  H 等人提出 CornerNet,将目标检测问题转换为关键点检测问题。CornerNet 使用单个卷积神经网络,预测目标的左上角和右下角两个关键点,进而得到预测框。CornerNet 关注的是目标的边缘,而对于目标来说,最具有辨识度的信息应该在目标的内部。因此,2019 年 Duan K 等人提出 CenterNet,增加了对中心点的检测,通过中心点的位置再回归目标的其他属性。

相关文章
|
机器学习/深度学习 人工智能 算法
目标检测的国内外研究现状
作为计算机领域的一个重要的研究成果,深度卷积神经网络已经广泛用于图像分类问题。随着图像分类的准确度提高,基于卷积神经网络的图像目标检测算法已逐渐成为当前的研究热点。
5923 0
|
1月前
|
机器学习/深度学习 人工智能 人机交互
图形学领域的研究热点会给人工智能带来哪些挑战和机遇?
图形学中的一些研究热点,如 3D 模型生成与重建,需要大量的 3D 数据来训练模型,但 3D 数据的获取往往比 2D 图像数据更困难、成本更高。而且,3D 数据的多样性和复杂性也使得数据的标注和预处理工作更加繁琐,这对人工智能的数据处理能力提出了更高要求。例如,在训练一个能够生成高精度 3D 人体模型的人工智能模型时,需要大量不同姿态、不同体型的 3D 人体扫描数据,而这些数据的采集和整理是一项艰巨的任务.
105 50
|
1月前
|
人工智能 自然语言处理 安全
调研219篇文献,全面了解GenAI在自适应系统中的现状与研究路线图
【10月更文挑战第22天】生成式人工智能(GenAI)在自适应系统(SASs)中展现出巨大潜力,尤其是在数据理解、逻辑推理和自主性增强方面。GenAI可以提升SASs的自主性和人机交互效率,但也面临技术多样性、数据需求、隐私问题及模型可解释性和鲁棒性的挑战。研究路线图包括解决关键挑战、模型评估优化、改善人机交互和探索实际应用。论文链接:https://dl.acm.org/doi/10.1145/3686803
43 7
|
5月前
|
机器学习/深度学习 人工智能 自然语言处理
未来深度学习技术的发展趋势与挑战
随着人工智能的快速发展,深度学习作为其核心技术之一,正面临着多样化和复杂化的挑战。本文探讨了未来深度学习技术的发展趋势,分析了当前面临的技术挑战,并提出了应对策略。 【7月更文挑战第10天】
136 0
|
4月前
|
机器学习/深度学习 人工智能 自然语言处理
深度学习的伦理困境与未来发展方向
【8月更文挑战第5天】随着深度学习技术在多个领域的广泛应用,其带来的伦理问题也日益受到关注。本文将探讨深度学习中存在的伦理挑战,包括数据隐私、算法偏见和自动化失业等问题,并提出相应的解决策略。同时,文章还将展望深度学习的未来发展趋势,探讨其在技术创新和社会应用中的潜力与挑战。
68 3
|
4月前
|
机器学习/深度学习 数据可视化 算法
如何对某个研究方向的领域论文进行分析?如何快速了解某个研究方向的发展现状?如何利用VOSviewer分析研究领域的发展现状?
本文介绍了如何使用VOSviewer软件对特定研究方向的领域论文进行可视化分析,以ESN(Echo State Network)网络研究为例,展示了从安装软件、检索文献、导入数据到进行关键词分析、作者分析和引用量分析的完整流程,帮助用户快速了解并深入研究某个学术领域的发展趋势和现状。
114 0
如何对某个研究方向的领域论文进行分析?如何快速了解某个研究方向的发展现状?如何利用VOSviewer分析研究领域的发展现状?
|
4月前
|
机器学习/深度学习 人工智能 算法
深度学习的伦理困境与未来展望
【8月更文挑战第20天】在探索人工智能的无限可能时,深度学习技术已展现出其强大的能力与广泛的应用前景。然而,随着这股科技浪潮的涌动,一系列的伦理问题也浮出水面,从数据偏见到隐私侵犯,再到算法透明度的缺失,这些问题不仅挑战着技术的发展,更触及了社会的道德底线。本文将深入探讨深度学习领域所面临的主要伦理挑战,并展望未来可能的发展方向,旨在引发读者对于科技进步背后的伦理思考。
|
5月前
|
机器学习/深度学习 人工智能 自然语言处理
大模型技术的发展与实践
一、大模型的概念 大型语言模型,也称大语言模型、大模型(Large Language Model,LLM;Large Language Models,LLMs) 。 大语言模型是一种深度学习模型,特别是属于自然语言处理(NLP)的领域,一般是指包含数干亿(或更多)参数的语言模型,这些参数是在大量文本数据上训练的,例如模型GPT-3,PaLM,LLaMA等,大语言模型的目的是理解和生成自然语言,通过学习大量的文本数据来预测下一个词或生成与给定文本相关的内容。 参数可以被理解为模型学习任务所需要记住的信息,参数的数量通常与模型的复杂性和学习能力直接相关,更多的参数意味着模型可能具有更强的学习
|
机器学习/深度学习 传感器 自动驾驶
未来之路:大模型技术在自动驾驶的应用与影响
本文深入分析了大模型技术在自动驾驶领域的应用和影响,万字长文,慢慢观看~ 文中首先概述了大模型技术的发展历程,自动驾驶模型的迭代路径,以及大模型在自动驾驶行业中的作用。 接着,详细介绍了大模型的基本定义、基础功能和关键技术,特别是Transformer注意力机制和预训练-微调范式。 文章还介绍了大模型在任务适配性、模型变革和应用前景方面的潜力。 在自动驾驶技术的部分,详细回顾了从CNN到RNN、GAN,再到BEV和Transformer结合的技术迭代路径,以及占用网络模型的应用。 最后,文章重点讨论了大模型如何在自动驾驶的感知、预测和决策层面提供赋能,突出了其在该领域的重要性和影响力。
1498 0
|
7月前
|
机器学习/深度学习 算法 自动驾驶
深度强化学习在大模型中的应用:现状、问题和发展
强化学习在大模型中的应用具有广泛的潜力和机会。通过使用强化学习算法,如DQN、PPO和TRPO,可以训练具有复杂决策能力的智能体,在自动驾驶、机器人控制和游戏玩家等领域取得显著成果。然而,仍然存在一些挑战,如样本效率、探索与利用平衡以及可解释性问题。未来的研究方向包括提高样本效率、改进探索策略和探索可解释的强化学习算法,以进一步推动强化学习在大模型中的应用。
1906 3

热门文章

最新文章