基于多目标视频图像边缘特征的核相关滤波跟踪算法

简介: 基于多目标视频图像边缘特征的核相关滤波跟踪算法

基于多目标视频图像边缘特征的核相关滤波跟踪算法


1、算法原理


多目标捕获视频图像中全部视场内均包括捕获目标,捕获过程中应去除已稳定跟踪的目标,且视频图像内目标的运动存在规律性,视频图像中的随机噪声无规律,根据目标的运动轨迹可判断目标是否为真正的待跟踪目标[6-8]。将目标运动轨迹的3帧图像时间(40ms)作为线性段,利用线性判断捕获目标的方

20210419112027273.png

法可表示为:


式中,Z 0、V 0分别为目标初始运动位置、目标初始运动速度,Z、t分别为目标运动位置、运动时间。通过(1)式可确定3帧图像内目标特性是否呈线性变化,当目标呈线性变化时,表示该目标为待跟踪目标,可对该目标实施跟踪,从而完成视频图像内全部目标的捕获。


1.2 图像特征提取


1.2.1 图像边缘特征提取


为提升视频图像内多目标在复杂背景下的跟踪精度,利用动态边缘演化技术提取视频图像的多目标边缘特征。动态边缘演化技术是将某个存在边界轮廓曲线的自变量即能量泛函通过图像中目标与背景的灰度分布信息体现,并通过Euler-Lagrange方程的动态格式获取能量泛函对应的曲线演化方程,从而获取最佳边缘轮廓曲线。该技术利用图像主动轮廓的全部光强信息提取特征,可以有效消除噪声对图像的影响。动态边缘演化技术的能量泛函可表示为:


20210419111930828.png


![在这里插入图片描述](https://ucc.alicdn.com/images/user-upload-01/20210419111905528.png



式中,(x,y)为待消除噪声图像的坐标,s 为噪声因子,C 为灰度分布信息,p 为能量泛函,E 为提取的光强信息特征,C§为图像直方图曲线,c 1与c2分别为图像I(x,y)中由内轮廓Ω in及外轮廓Ωout确定的目标内部及背景区域均值, ∮ C ds为图像边缘曲线的长度,α、β、μ 均为权重因子。利用水平集函数φ(x,y,t)的零水平集呈现曲线C(t),再利用Heaviside的H (φ)函数将水平集函数代入(2)式,利用边界的单一积分体现区域与边界的混合积分,通过Euler-Lagrange方程求解函数的最小值,可表示为:


202104191121160.png


式中,∇φ 为一阶函数导数,为范数,div为整除函数,δ s (φ)为H (φ)函数的一阶导数即Dirac度量的正则化函数,κ 为Dirac度量系数。


1.2.2 图像颜色特征的提取


将视频图像梯度角度直方图与颜色信息相结合,获得梯度角度-色度饱和度直方图的颜色特征,并将提取的特征应用于核相关滤波跟踪算法中。为避免提取颜色特征过程中对冗余信息的提取,仅分析与提取视频图像液晶显示器行同步信号(HS)通道的信息,利用色调(H)通道以及饱和度(S)通道的像素值建立颜色空间极坐标系,利用极坐标内角度和梯度体现视频图像的色度、饱和度,得到:


20210419111832796.png


式中,H 、θ、G、B 分别为H 通道的像素值、极坐标外角度、内角度聚类系数、外角度聚类系数,极坐标的内角度可表示为:


20210419111816409.png


式中,R 为特征点聚类系数。饱和度可表示为:


20210419112257136.png


依据特征点聚类器创建各个特征点的时空特征向量并对创建的时空特征向量进行聚类,得到与各个分类相应的构成区域,并基于此将视频图像划分为n 块区域,统计不同区域的梯度角度直方图和色度饱和度直方图,将全部区域直方图串联,利用OpenCV 工具获取视频图像色度饱和度直方图以及梯度角度直方图,即图像的梯度角度-色度饱和度直方图,该直方图可以有效表征图像的颜色特征。


1.3 核相关滤波跟踪算法


在循环移位编码密集采样过程中,结合循环矩阵训练分类器即核相关滤波跟踪算法,通过核方法获取视频图像与分类器间的相关系数[9-14] ,更新后的目标位置即为最大相关系数所处的位置,该算法利用频域实现,跟踪速度较快。


1.3.1 循环移位以及循环矩阵


将视频图像内的感兴趣目标块用大小为n×1的向量x 表示,将该区域作为基础样本。通过循环移位操作获取正样本以及负样本训练分类器,循环移位操作的变换矩阵可表示为:


20210419112440745.png


设每次移动位数为1,移动次数为n 时即可得到x,全部样本的集合可表示为:

P u x u=0,1,…,n-1

循环矩阵可表示为:


20210419112545515.png


式中,X 为循环矩阵。循环矩阵在x 为随机向量时可表示为:

**X =Fdiag(^x)F H **

式中,diag为对角矩阵函数,F 为傅里叶矩阵,^x 为x的离散傅里叶变换,上标H 为共轭转置操作。

1.3.2 岭回归模型学习分类器

岭回归是有偏数据估计回归方法,可用封闭方程表示为:


20210419112720147.png


式中,x i样本目标,y i为回归目标,w为分类器参数,f(x i )为封闭函数,i为有偏数据对应的序号,ξ为可调节过拟合的参数,对(13)式求极值得到

w=(X H X +ξI) -1 X H y

式中,I为单位矩阵,X为行向量x i组成的矩阵,y为向量y i组成的矩阵。

用多项式∑ Mi=1τ i x i表示映射至高维空间的w,其中,M为高维空间总维数,τ i为x i的线性组合系数,则:

τ=(K +ξI) -1 y

式中,K 为核矩阵,如果核矩阵具有循环特性,则20210419113020159.png

20210419113020159.png


式中,K xx’为高斯核循环特性,x’为训练样本,上标*为复数共轭,F -1为傅里叶逆变换,η为核函数参数,频域内的非线性分类器参数为:


20210419113020159.png


式中,^y 为频域内的目标期望,δ 为高斯核函数的空间带宽。


1.3.3 分类器快速跟踪


利用w 检测新输入视频图像z 中的目标时,依据响应函数得到的视频图像检测公式为:

f(z)=w T z

样本利用核函数的映射过程即通过非线性分类器检测目标的过程,分类器的响应可表示为:


20210419113225459.png


式中,n 为非线性分类器检测的目标数量,K(,)为循环矩阵函数。通过式可得到新输入视频图像与全部滑动子窗口的相关性,用循环矩阵简化后可表示为:


2021041911333840.png


式中,^f(z)和☉分别为循环矩阵的简化结果和逻辑运算符。


1.4 视频图像的多目标跟踪


训练分类器时,利用连续标签标记样本,依据待跟踪目标与样本中心距离ϑ得到相关滤波响应值,范围为[0,1],相关滤波响应值在接近跟踪目标时趋于1,远离跟踪目标时趋于0。利用不同特征的最大响应值分配跟踪权重,跟踪目标特征权重可表示为:


20210419113829398.png


式中,f(Z b )与f(Z s )分别为边缘特征Z b以及梯度角度-色度饱和度直方图颜色特征Z s的响应输出。根据不同特征响应大小分配跟踪权重,得到目标的最终跟踪位置为:


20210419113829398.png


式中,p Zb为对边缘特征的跟踪位置,p Zs为对颜色特征的跟踪位置。


实例分析


选取Benchmark数据集中的视频验证本算法跟踪目标的有效性,数据集内的视频图像均为户外环境,包括不同尺度变换、光照变换、遮挡等复杂环境的视频图像,通过定性以及定量分析评价本算法的跟踪性能。


2.1 定性评价


本算法对交通视频图像内第100、500、1000帧图像的多目标跟踪结果如图1所示。可以发现,本算法可在存在相似物干扰的情况下成功跟踪视频图像中的多目标,且未存在漏跟踪情况。在目标被其他目标遮挡的情况下仍可准确跟踪目标,这表明本算法具有较高的跟踪性能。在跟踪过程中视频图像存在抖动情况,本算法仍可准确跟踪目标并快速恢复正常跟踪,这表明本算法具有较强的跟踪鲁棒性


2.2 定量评价


采用跟踪成功率、跟踪精确度、跟踪重叠率、平均跟踪速度定量评价本算法的跟踪性能,选取文献[1]中的自适应算法、文献[1]中的高斯尺度空间算法、文献1]中的特征融合算法、文献[1]中的多通道算法、文献[1]中的金字塔特征算法、文献[1中的卷积特征算法作为对比,评价本算法的跟踪性能。

2.2.1 跟踪成功率7种算法在不同帧数下的跟踪成功率如表1所示,可以发现,本算法在不同帧数下的跟踪成功率均大于99%,明显高于其他算法,这表明本算法具有较高的跟踪有效性。


2.2.2 跟踪精确度


用中心误差评价不同算法对视频图像多目标的跟踪精度,中心误差可表示为E = (a’ m -a m ) 2 + (b’ m -b m ) 2 ,方式中,(a m ,b m )与(a’ m ,b’ m )分别为根据算法得到的视频内第m帧图像的目标中心坐标及手动标记的


20210419114400135.png


目标中心坐标,中心误差值越小,表明跟踪算法的精确度越高。7种跟踪算法的中心误差如表2所示,可以发现,本算法跟踪多目标的中心误差在不同帧数下均最小,趋近于0,这表明本算法具有较高的跟踪精度。高斯尺度空间算法及多通道算法在300帧之前的中心误差与本算法相差较小,300帧之后跟踪精度急剧下降,原因是高斯尺度空间算法及多通道算法的波动幅度过大,鲁棒性较差。


20210419114643829.png


7种跟踪算法在轻微遮挡、严重遮挡等复杂环境下的中心误差如表3 所示,可以发现,本算法在不同复杂环境下均具有最低的中心误差,这表明本算法可适应视频图像内的复杂环境,具有较高的跟踪精准性及跟踪鲁棒性。原因是本算法将提取的图像边缘特征与梯度角度-色度饱和度直方图颜色特征相结合,提升了多目标的跟踪性能。


20210419114712685.png


2.2.3 跟踪重叠率


重叠率是评价目标跟踪性能的重要指标,视频图像的多目标跟踪重叠率可表示为O =X area (R m ∩R’ m )X area (R m ∪R’ m ),方式中,R m与R’ m为根据算法得到的视频内第m帧图像的目标框及手动标记的目标框,X area为区域面积。7种跟踪算法的跟踪重叠率如表4所示,可以发现,本算法跟踪视频图像的多目标时,跟踪重叠率明显高于其他算法,这表明本算法具有优越的跟踪性能。


20210419114816116.png


2.2.4 平均跟踪速度


为检测本算法跟踪的实时性,统计不同算法的跟踪速度,结果如表5所示。可以发现,用本算法跟踪不同复杂环境视频图像内的多目标时,跟踪速度明显高于其他算法,有效验证了本算法的实时性。


20210419131032412.png


综上所述,相比其他算法,本算法具有更优的跟踪成功率、跟踪精确度、跟踪重叠率、平均跟踪速度,原因是本算法将视频图像目标运动轨迹的3帧图像时间作为线性段,利用线性判断方法捕获目标,利用动态边缘演化技术准确提取捕获目标的边缘特征,解决了视频图像多目标处于运动状态时边缘特征模糊导致的目标跟踪难度大问题。

相关文章
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
【MM2024】阿里云 PAI 团队图像编辑算法论文入选 MM2024
阿里云人工智能平台 PAI 团队发表的图像编辑算法论文在 MM2024 上正式亮相发表。ACM MM(ACM国际多媒体会议)是国际多媒体领域的顶级会议,旨在为研究人员、工程师和行业专家提供一个交流平台,以展示在多媒体领域的最新研究成果、技术进展和应用案例。其主题涵盖了图像处理、视频分析、音频处理、社交媒体和多媒体系统等广泛领域。此次入选标志着阿里云人工智能平台 PAI 在图像编辑算法方面的研究获得了学术界的充分认可。
【MM2024】阿里云 PAI 团队图像编辑算法论文入选 MM2024
|
1月前
|
机器学习/深度学习 人工智能 算法
【MM2024】面向 StableDiffusion 的多目标图像编辑算法 VICTORIA
阿里云人工智能平台 PAI 团队与华南理工大学合作在国际多媒体顶级会议 ACM MM2024 上发表 VICTORIA 算法,这是一种面向 StableDiffusion 的多目标图像编辑算法。VICTORIA 通过文本依存关系来修正图像编辑过程中的交叉注意力图,从而确保关系对象的一致性,支持用户通过修改描述性提示一次性编辑多个目标。
|
1月前
|
移动开发 算法 前端开发
前端常用算法全解:特征梳理、复杂度比较、分类解读与示例展示
前端常用算法全解:特征梳理、复杂度比较、分类解读与示例展示
22 0
|
1月前
|
算法 数据安全/隐私保护
织物图像的配准和拼接算法的MATLAB仿真,对比SIFT,SURF以及KAZE
本项目展示了织物瑕疵检测中的图像拼接技术,使用SIFT、SURF和KAZE三种算法。通过MATLAB2022a实现图像匹配、配准和拼接,最终检测并分类织物瑕疵。SIFT算法在不同尺度和旋转下保持不变性;SURF算法提高速度并保持鲁棒性;KAZE算法使用非线性扩散滤波器构建尺度空间,提供更先进的特征描述。展示视频无水印,代码含注释及操作步骤。
|
2月前
|
算法 数据可视化 数据安全/隐私保护
基于LK光流提取算法的图像序列晃动程度计算matlab仿真
该算法基于Lucas-Kanade光流方法,用于计算图像序列的晃动程度。通过计算相邻帧间的光流场并定义晃动程度指标(如RMS),可量化图像晃动。此版本适用于Matlab 2022a,提供详细中文注释与操作视频。完整代码无水印。
|
3月前
|
算法 JavaScript 前端开发
国标非对称加密:RSA算法、非对称特征、js还原、jsencrypt和rsa模块解析
国标非对称加密:RSA算法、非对称特征、js还原、jsencrypt和rsa模块解析
280 1
|
2月前
|
机器学习/深度学习 算法
基于心电信号时空特征的QRS波检测算法matlab仿真
本课题旨在通过提取ECG信号的时空特征并应用QRS波检测算法识别心电信号中的峰值。使用MATLAB 2022a版本实现系统仿真,涵盖信号预处理、特征提取、特征选择、阈值设定及QRS波检测等关键步骤,以提高心脏疾病诊断准确性。预处理阶段采用滤波技术去除噪声,检测算法则结合了一阶导数和二阶导数计算确定QRS波峰值。
|
4月前
|
算法
基于kalman滤波的UAV三维轨迹跟踪算法matlab仿真
本文介绍了一种使用卡尔曼滤波(Kalman Filter)对无人飞行器(UAV)在三维空间中的运动轨迹进行预测和估计的方法。该方法通过状态预测和观测更新两个关键步骤,实时估计UAV的位置和速度,进而生成三维轨迹。在MATLAB 2022a环境下验证了算法的有效性(参见附图)。核心程序实现了状态估计和误差协方差矩阵的更新,并通过调整参数优化滤波效果。该算法有助于提高轨迹跟踪精度和稳定性,适用于多种应用场景,例如航拍和物流运输等领域。
235 12
|
3月前
|
机器学习/深度学习 算法 搜索推荐
支付宝商业化广告算法问题之在DNN模型中,特征的重要性如何评估
支付宝商业化广告算法问题之在DNN模型中,特征的重要性如何评估
|
3月前
|
机器学习/深度学习 监控 算法
R-CNN系列目标算法
8月更文挑战第12天
下一篇
无影云桌面