Kernelized Correlation Filters KCF算法原理详解(阅读笔记)(待补充)

KCF

目录

  • KCF
    • 预备知识
      • 1. 岭回归
      • 2. 循环移位和循环矩阵
      • 3. 傅里叶对角化
      • 4. 方向梯度直方图(HOG)
    • 正文
      • 1. 线性回归
        • 1.1. 岭回归
        • 1.2. 基于循环矩阵获取正负样本
        • 1.3. 基于傅里叶对角化的求解
      • 2. 使用非线性回归对模型进行训练
        • 2.1. 应用kernel-trick的非线性模型的求解结果
        • 2.2. 快速核方法
        • 2.3. 快速检测
      • 3. 快速核相关
      • 4. KCF算法流程
      • 5. 总结

参考博文:

  • 【KCF算法解析】High-Speed Tracking with Kernelized Correlation Filters笔记
  • KCF论文理解与源码解析
  • KCF算法公式推导
  • KCF(High-Speed Tracking with Kernelized Correlation Filters)论文详解
  • KCF目标跟踪方法分析与总结

预备知识

1. 岭回归

首先温习一下最小二乘法.

在矩阵形式下,最小二乘法的解 w = ( X T X ) − 1 X T Y w = (X^TX)^{-1}X^TY w=(XTX)1XTY X X X是一个 m × n m×n m×n的矩阵,其中每一行代表样本,列代表样本的某一个属性。为了求得 w w w,则必须要求矩阵 ( X T X ) (X^TX) (XTX)满秩(满秩是可逆的充要条件)。然而在解决现实问题时,当 X X X中的某些属性相关性较大时, X X X不一定满秩(线性相关 ⇔ \Leftrightarrow 行列式为0 ⇔ \Leftrightarrow 矩阵不满秩)。除此之外,当 n n n的数量大于 m m m即样本矩阵的列数大于行数时, X X X也不满秩,因为:
在这里插入图片描述
此时,由于 X T X X^TX XTX不满秩,则不可求其逆,因此无法算出最优解。那是否可以求一个近似最优解出来呢?

一个比较直观的想法是,在 X T X X^TX XTX中加上一个单位阵(即只有对角线有元素,其它处全为0的矩阵),该对角阵值的大小由一个参数 λ \lambda λ控制。

这样做的好处是,使得 X T X X^TX XTX变成满秩矩阵,这样是不是就可以求解了?而由于这个满秩矩阵是在原矩阵的基础上添加了扰动项(对角阵)得来的,所以最后求得的 w w w一般不是最优解,但是也是比较接近最优解了。(当最优解很难很难求解出时,可以较为简单地求出接近最优解的解一般是一种更好的选择)

最优解 w = ( X T X ) − 1 X T Y w = (X^TX)^{-1}X^TY w=(XTX)1XTY,在加上由参数 λ \lambda λ控制的对角阵后,求得的次优解为 w = ( X T X + λ I n ) − 1 X T Y w = (X^TX+\lambda I_n)^{-1}X^TY w=(XTX+λIn)1XTY ,其中:

  • I n I _n In是单位矩阵,对角线全是1,类似于“山岭”。

  • λ \lambda λ是岭系数,改变其数值可以改变单位矩阵对角线的值。

再反推目标函数,可以得到目标函数为:

arg ⁡ min ⁡ w ∣ ∣ X ⋅ w − Y ∣ ∣ 2 + λ ∣ ∣ w ∣ ∣ 2 \mathop{\arg\min}\limits_{w}||X \cdot w-Y||^2+\lambda||w||^2 wargmin∣∣XwY2+λ∣∣w2

也就是说,岭回归其实就是在最小二乘法的基础上,加入了对 w w w的惩罚项,当 λ \lambda λ值越大时,惩罚强度就越大,生成的模型就越简单, ∣ ∣ w ∣ ∣ 2 ||w||^2 ∣∣w2也被称为L2范数。从整体上来看,岭回归是对最小二乘回归的一种补充,其损失了无偏性,但是获得了较高计算精度和数值稳定性

这篇岭回归详解 从零开始 从理论到实践讲得可以,还有这篇岭回归原理简单分析与理解。

2. 循环移位和循环矩阵

参考【KCF算法解析】High-Speed Tracking with Kernelized Correlation Filters笔记 理解即可,注意生成循环矩阵的过程用 X = C ( x ) X=C(x) X=C(x)表示,其中 x x x是原向量, X X X是生成的循环矩阵。

3. 傅里叶对角化

All circulant matrices are made diagonal by the Discrete Fourier Transform (DFT), regardless of the generating vector x.
任意循环矩阵可以被傅里叶变换矩阵对角化。

参照这篇博客循环矩阵傅里叶对角化理解即可,我也没太懂。

4. 方向梯度直方图(HOG)

图像特征:方向梯度直方图 HOG

正文

全文内容概览参考这篇目标跟踪算法——KCF入门详解即可。

公式推导参考这篇KCF算法公式推导即可。

1. 线性回归

1.1. 岭回归

KCF的基本模型是岭回归器。

线性分类器:
f ( x ) = w T x (1) f(x)=w^Tx \tag 1 f(x)=wTx(1)
岭回归的目标函数:
arg ⁡ min ⁡ w ∣ ∣ X ⋅ w − Y ∣ ∣ 2 + λ ∣ ∣ w ∣ ∣ 2 (2) \mathop{\arg\min}\limits_{w}||X \cdot w-Y||^2+\lambda||w||^2 \tag 2 wargmin∣∣XwY2+λ∣∣w2(2)
基于岭回归求得的闭式解(到底什么是“闭合解(Closed-form Solution)”):
w = ( X T X + λ I n ) − 1 X T Y (3) w=(X^TX+\lambda I_n)^{-1}X^TY \tag 3 w=(XTX+λIn)1XTY(3)
变换到复数域的闭式解:
w = ( X H X + λ I n ) − 1 X H Y (4) w=(X^HX+\lambda I_n)^{-1}X^HY \tag 4 w=(XHX+λIn)1XHY(4)
其中, X X X表示样本矩阵,其中每一行代表每一个样本,每一列代表所有样本的某个特征值, X H X^H XH表示其复数的共轭转置。

1.2. 基于循环矩阵获取正负样本

假设感兴趣区域的图像patch由一个长度为 n n n的向量 x x x表示, x x x也被称作基样本。这个很好理解吧,目标跟踪一般是给定一组连续帧,以及需要跟踪的目标在起始帧的位置信息,然后在接下来的连续帧中执行跟踪。那么我们最开始能够获得的目标特征,就用 x x x表示。

之后,原文中的一句话提到:

Our goal is to train a classifier with both the base sample (a positive example) and several virtual samples obtained by translating it (which serve as negative examples).

即,**作者计划通过基样本来生成正负样本,然后送给分类器来训练,以获得区分目标区域和其它区域的能力。**这句话也很好理解吧,就是基于初始帧以及给定的目标信息,获得目标的特征,然后在此基础上生成正负样本,正样本代表需要跟踪的目标,负样本代表背景或者其它干扰信息。这是目标跟踪领域的一个常见思路,典型的如TLD、MOOSE都采用了这种方法。

如何基于基样本生成正负样本呢?这里得用前面提到的循环矩阵。

对于基样本 x x x,生成的循环矩阵 X = C ( x ) X=C(x) X=C(x),文中给了个示意图:

image-20240203203337441

OK,此时,基于循环矩阵得到的正负样本,采用岭回归训练线性模型,得到在复数域下的解析解和前面的公式相同,但是公式中字母的意义不同:
w = ( X H X + λ I n ) − 1 X H Y (5) w=(X^HX+\lambda I_n)^{-1}X^HY \tag 5 w=(XHX+λIn)1XHY(5)
此时, X X X表示由初始向量 x x x(基样本)生成的循环矩阵, X H X^H XH表示其复数的共轭转置,即 X H = ( X ∗ ) T X^H=(X^*)^T XH=(X)T X ∗ X^* X X X X的复数共轭形式。

1.3. 基于傅里叶对角化的求解

还记得前面提到的任意循环矩阵可以被傅里叶变换矩阵对角化吧,那么,用傅里叶对角化,我们就可以更快速地求解。

对于循环矩阵 X X X,其可以被傅里叶对角化:
X = C ( x ) = F d i a g ( x ^ ) F H (6) X=C(x)=F \mathrm{diag}(\hat{x})F^H \tag 6 X=C(x)=Fdiag(x^)FH(6)
其中, x ^ \hat{x} x^ x x x的离散傅里叶变换,即 x ^ = F ( x ⃗ ) \hat{x}=\mathcal{F}(\vec{x}) x^=F(x ) F F F是离散傅里叶变换矩阵,是一个不依赖于 x x x的常数矩阵。注意,离散傅里叶变换矩阵是一个酉矩阵,即其满足 F H F = F F H = I F^HF=FF^H=I FHF=FFH=I

之后,经过公式推导,参考KCF算法公式推导,可以得到线性模型参数 w w w的求解结果:
w ^ = x ^ ∗ ⊙ y ^ x ^ ∗ ⊙ x ^ + λ (7) \hat{w}=\frac{\hat{x}^*\odot \hat{y}}{\hat{x}^*\odot \hat{x}+\lambda} \tag 7 w^=x^x^+λx^y^(7)
注意,这里求出的 w ^ \hat{w} w^ w w w的傅里叶变换形式,使用逆向傅里叶变换即可以轻松地在空间域中恢复 w w w,这样我们就能在样本线性可分的前提下,基于训练样本,快速地求解出较优解 w w w(也就是能够快速地训练好分类模型)。

结果对比:

  • 原闭式解 w = ( X H X + λ I n ) − 1 X H Y w=(X^HX+\lambda I_n)^{-1}X^HY w=(XHX+λIn)1XHY的计算复杂度为 O ( n 3 ) O(n^3) O(n3)

  • 简化后的解 w ^ = x ^ ∗ ⊙ y ^ x ^ ∗ ⊙ x ^ + λ \hat{w}=\frac{\hat{x}^*\odot \hat{y}}{\hat{x}^*\odot \hat{x}+\lambda} w^=x^x^+λx^y^的复杂度为 O ( n l o g n ) O(nlogn) O(nlogn)

所以,引入循环矩阵,不仅增强了样本,提高了准确率,而且简化了运算,提高了运行速度。

2. 使用非线性回归对模型进行训练

2.1. 应用kernel-trick的非线性模型的求解结果

上面只考虑了样本矩阵是线性可分的情况,而当数据在当前的特征空间中不能线性可分时,我们可以考虑把数据特征从当前特征空间映射到更高维的空间,从而使得在低维空间不可分的情况到高维空间之后就能变的线性可分了。核函数主要的目的就是把一个线性问题映射到一个非线性核空间,这样把在低维空间不可分的到核空间之后就能够可分了

  • 因此,需要找到一个非线性映射函数 φ ( x ) \varphi(x) φ(x),使得映射后的样本在高维空间中线性可分。那么在这个高维空间中,就可以**使用岭回归来寻找一个分类器 f ( x i ) = w T φ ( x i ) f(x_i)=w^T\varphi(x_i) f(xi)=wTφ(xi),**其中, φ ( x i ) \varphi(x_i) φ(xi)表示对样本 x i x_i xi通过非线性映射函数 φ \varphi φ变换到高维空间后的样本向量。

  • 对于分类模型 f ( x i ) = w T φ ( x i ) f(x_i)=w^T\varphi(x_i) f(xi)=wTφ(xi) f ( x i ) f(x_i) f(xi) x i x_i xi都已知, φ ( ⋅ ) \varphi(\cdot) φ()取决于我们选取的映射函数,因此主要是想求得对 w w w的解,在使用Kernel-trick之后, w w w可以用训练样本的线性组合来表示:
    w = ∑ i α i φ ( x i ) (8) w=\sum_i{\alpha_i \varphi(x_i)} \tag 8 w=iαiφ(xi)(8)
    则最优化问题不再是求解 w w w,而是 α \alpha α。至于为什么可以将 w w w表示为样本的线性组合,可以参考这篇高维映射 与 核方法(Kernel Methods),里面有详细的解释,建议精读。

  • 线性条件下的回归问题,经过非线性变换后,对于新样本 z z z的预测值为:
    f ( z ) = w T z = ( ∑ i n α i φ ( x i ) ) T ⋅ φ ( z ) = ∑ i n α i φ ( x i ) T φ ( z ) = ∑ i n α i κ ( x i , z ) \begin{align*} f(z)&=w^Tz\\ &=(\sum_i^n{\alpha_i\varphi(x_i)})^T\cdot\varphi(z)\\ &=\sum_i^n{\alpha_i\varphi(x_i)}^T\varphi(z)\\ \tag9 &=\sum_i^n{\alpha_i\kappa(x_i,z)} \end{align*} f(z)=wTz=(inαiφ(xi))Tφ(z)=inαiφ(xi)Tφ(z)=inαiκ(xi,z)(9)
    其中, x i x_i xi代表训练分类器时的训练样本, z z z代表新出现的测试样本。即,预测其实是新样本与所有训练样本在高维空间中内积的加权平均

对于 α \alpha α的求解,原文写得比较省略,原文中非线性情况下的最终求解结果(公式16)为
α = ( K + λ I ) − 1 y (10) \alpha=(K+\lambda I)^{-1}y \tag {10} α=(K+λI)1y(10)
注意,这里的优化目标不是用 w w w而是用字母 α \alpha α表示, K K K代表核矩阵。

image-20240203182310113

推导过程还是推荐仔细阅读这篇高维映射 与 核方法(Kernel Methods),阅读完之后也能了解什么是核技巧,以及为什么优化目标从线性可分情况下的 w w w换成了 α \alpha α

2.2. 快速核方法

当采用基于Kernel trick的非线性模型训练时,最终求解目标 α = ( K + λ I ) − 1 y \alpha=(K+\lambda I)^{-1}y α=(K+λI)1y包含了核矩阵 K K K

而从核矩阵 K K K的公式中可以显而易见地发现,当数据样本量过大时,会导致核矩阵 K K K过大,从而使得计算的时间复杂度和空间复杂度都很高

核方法并非没有缺点。原来的线性模型显然是一种参数化方法,好处是训练完成的模型只需要存储权重向量 。然而在使用了核方法以后,由于我们用训练集替换掉了权重项,因此相当于转化成了非参数化的方法,显然增加了需要存储的数据量,同时每一次做预测都需要用到全部训练数据集。

因此,本节中提到了一种快速的核回归方法。即怎么去计算核函数,怎么快速得到最优解。

原文的思路是:如果能证明核矩阵 K K K对于数据集来说是循环矩阵,就可以对其进行对角化,以加速求解过程

通过施加一个条件来允许K循环。

定理一:给定循环矩阵 C ( x ) C(x) C(x),如果核函数 κ \kappa κ对于任何置换矩阵 M M M都满足 κ ( x , x ′ ) = κ ( M x , M x ′ ) \kappa(x,x')=\kappa(Mx,Mx') κ(x,x)=κ(Mx,Mx),则 C ( x ) C(x) C(x)在核函数 κ \kappa κ下对应的核矩阵 K K K是循环矩阵。

证明过程:假定有一个置换矩阵 P P P,如:
P = [ 0 0 0 ⋯ 1 1 0 0 ⋯ 0 0 1 0 ⋯ 0 0 0 1 ⋯ 0 ⋯ ⋯ ⋯ ⋯ ⋯ ] (11) P=\begin{bmatrix} 0 & 0 & 0 & \cdots & 1\\ 1 & 0 & 0 & \cdots & 0\\ 0 & 1 & 0 & \cdots & 0\\ 0 & 0 & 1 & \cdots & 0\\ \cdots & \cdots & \cdots & \cdots & \cdots\\ \end{bmatrix} \tag{11} P= 0100001000011000 (11)
即对于基样本 x x x,有:
x 1 = P 0 x = x = [ x 1 , x 2 , ⋯ , x n ] T x 2 = P 1 x = [ x n , x 1 , ⋯ , x n − 1 ] T ⋯ x n = P n − 1 x = [ x 2 , x 3 , ⋯ , x 1 ] T (12) x_1=P^0x=x=[x_1,x_2,\cdots,x_n]^T\\ x_2=P^1x=[x_n,x_1,\cdots,x_{n-1}]^T\\ \tag{12} \cdots \\ x_n=P^{n-1}x=[x_2,x_3,\cdots,x_1]^T x1=P0x=x=[x1,x2,,xn]Tx2=P1x=[xn,x1,,xn1]Txn=Pn1x=[x2,x3,,x1]T(12)
则:
K i j = κ ( x i , x j ) = κ ( P i x , P j x ) \begin{align*} K_{ij}&=\kappa(x_i, x_j) \\ \tag{13} &= \kappa(P^ix,P^jx)\\ \end{align*} Kij=κ(xi,xj)=κ(Pix,Pjx)(13)
可以看到,从核矩阵 K K K的公式中,可以发现:

核矩阵中第 i i i行第 j j j列的值就是第 i i i和第 j j j个样本经过核函数之后得到的值再逐元素相乘计算出的内积。

而我们的样本矩阵是在基向量 x x x的基础上经过循环变换得到的循环矩阵,也就是说,这个式子,刚好满足我们之前的所有假设和前提。这里可能有点绕,得细细思考一会。

现在,由于定理中提到的是任意变换 M M M,那我们就假设 M M M这个置换矩阵为 P − i P^{-i} Pi

由于 κ ( x , x ′ ) = κ ( M x , M x ′ ) \kappa(x,x')=\kappa(Mx,Mx') κ(x,x)=κ(Mx,Mx),所以有:
κ ( M x i , M x j ) = κ ( x i , x j ) = κ ( P − i P i x , P − i P j x ) = κ ( x , P j − i x ) = K i j \begin{align*} \kappa(Mx_i, Mx_j)&=\kappa(x_i, x_j) \\ &= \kappa(P^{-i}P^ix,P^{-i}P^jx)\\ \tag{14} &= \kappa(x,P^{j-i}x)\\ &= K_{ij} \end{align*} κ(Mxi,Mxj)=κ(xi,xj)=κ(PiPix,PiPjx)=κ(x,Pjix)=Kij(14)
由于 P n = P 0 P^n=P^0 Pn=P0,也就是当 j − i j-i ji的值每到 n n n时为一个循环,所以上式可以改写为 K i j = κ ( x , P ( j − i ) m o d n x ) K_{ij}=\kappa(x,P^{(j-i)mod\space n}x) Kij=κ(x,P(ji)mod nx),即:
K = [ κ ( x , P 0 x ) κ ( x , P 1 x ) ⋯ κ ( x , P n − 1 x ) κ ( x , P 1 x ) κ ( x , P 2 x ) ⋯ κ ( x , P 0 x ) ⋮ ⋮ ⋱ ⋮ κ ( x , P n − 1 x ) κ ( x , P 0 x ) ⋯ κ ( x , P n − 2 x ) ] (15) K=\begin{bmatrix} \kappa(x,P^{0}x) & \kappa(x,P^{1}x) & \cdots & \kappa(x,P^{n-1}x)\\ \kappa(x,P^{1}x) & \kappa(x,P^{2}x) & \cdots & \kappa(x,P^{0}x)\\ \vdots & \vdots & \ddots & \vdots \\ \tag{15} \kappa(x,P^{n-1}x) & \kappa(x,P^{0}x) & \cdots & \kappa(x,P^{n-2}x) \end{bmatrix} K= κ(x,P0x)κ(x,P1x)κ(x,Pn1x)κ(x,P1x)κ(x,P2x)κ(x,P0x)κ(x,Pn1x)κ(x,P0x)κ(x,Pn2x) (15)
可以看到,此时核矩阵 K K K是一个循环矩阵。

原文中提到,下面的核函数都满足定理一

  1. 径向基函数核,如:高斯核;
  2. 点积核,如:线性核、多项式核;
  3. 加权核,如:交集、 χ 2 \chi^2 χ2
  4. 指数加权核

K K K为循环矩阵时,由前面关于循环矩阵的知识,可以得知核矩阵 K K K中的所有元素都是基于其第一行这个向量循环移位得到的。令 k x x k^{xx} kxx为核矩阵 K K K中的第一行向量,则 K = C ( k x x ) K=C(k^{xx}) K=C(kxx)

原文中非线性情况下的最终求解结果(公式16)为
α = ( K + λ I ) − 1 y (10) \alpha=(K+\lambda I)^{-1}y \tag{10} α=(K+λI)1y(10)
由于 K K K为循环矩阵,则可以应用傅里叶对角化求解:
α = ( K + λ I ) − 1 y = ( C ( k x x ) + λ I ) − 1 y = ( F d i a g ( k ^ x x ) F H + λ I ) − 1 y = ( F d i a g ( k ^ x x + λ ) F H ) − 1 y = ( F H ) − 1 ( d i a g ( k ^ x x + λ ) − 1 ) F − 1 y = F d i a g ( k ^ x x + λ ) − 1 F H y = F d i a g ( 1 k ^ x x + λ ) F H y \begin{align*} \alpha&=(K+\lambda I)^{-1}y\\ &=(C(k^{xx})+\lambda I)^{-1}y\\ &=(F\mathrm{diag}(\hat{k}^{xx})F^H+\lambda I)^{-1}y\\ &=(F\mathrm{diag}(\hat{k}^{xx}+\lambda)F^H)^{-1}y\\ &=(F^H)^{-1}(\mathrm{diag}(\hat{k}^{xx}+\lambda)^{-1})F^{-1}y\\ \tag{16} &=F\mathrm{diag}(\hat{k}^{xx}+\lambda)^{-1}F^Hy\\ &=F\mathrm{diag}(\frac{1}{\hat{k}^{xx}+\lambda})F^Hy \end{align*} α=(K+λI)1y=(C(kxx)+λI)1y=(Fdiag(k^xx)FH+λI)1y=(Fdiag(k^xx+λ)FH)1y=(FH)1(diag(k^xx+λ)1)F1y=Fdiag(k^xx+λ)1FHy=Fdiag(k^xx+λ1)FHy(16)
这里用到了离散傅里叶变换矩阵是酉矩阵的性质,对公式两边进行离散傅里叶变换得到:
α ^ = y ^ k ^ x x + λ (17) \hat{\alpha}=\frac{\hat{y}}{\hat{k}^{xx}+\lambda} \tag{17} α^=k^xx+λy^(17)
从上面这个公式,也就是原文中的公式(17)可以发现,当保证核矩阵 K K K为循环矩阵时,通过傅里叶对角化,可以使得对 α \alpha α的求解过程只需要涉及到核矩阵 K K K中的第一行向量 k ^ x x \hat{k}^{xx} k^xx 1 × n 1\times n 1×n大小),而 k ^ x x \hat{k}^{xx} k^xx是随着样本数量线性变化的。这意味着什么?传统的核方法需要计算一个 n × n n\times n n×n的核矩阵,与样本数量呈平方增长。

这意味着快速核方法大大节省了空间资源和时间资源。

2.3. 快速检测

在2.2节中,得到了系数 α \alpha α的简化求解形式(训练过程),而为了进一步提高算法的运行速度,文章对检测的过程也进行了简化加速。

首先由训练样本和其对应的标签训练检测器,其中训练集是由目标区域和由其移位得到的若干样本组成,对应的标签是根据距离越近正样本可能性越大的准则赋值的,然后可以得到 α \alpha α

由式(9)可得,当对新样本 z z z(待检测的图像patch)进行检测时,有:
f ( z ) = K α (18) f(z)=K\alpha \tag{18} f(z)=Kα(18)
注意,岭回归中包含的正则化只在训练时使用,对于预测,直接用求解好的 α \alpha α和核矩阵 K K K即可。

现在,用 K z K^z Kz替换 K K K,考虑到实际情况,式(18)变为:
f ( z ) = ( K z ) T α (19) f(z)=(K^z)^T\alpha \tag{19} f(z)=(Kz)Tα(19)
其中, K z = C ( k x z ) K^z=C(k^{xz}) Kz=C(kxz),表示训练样本和待检测样本之间的核矩阵,是一个非对称矩阵。 k x z k^{xz} kxz表示由基样本 x x x和基础待检测图像patch z z z计算得到的核相关向量, C C C仍代表循环位移操作。

由前面的内容易知, K z K^z Kz中的元素可以被表示为 κ ( P i − 1 z , P j − 1 x ) \kappa(P^{i-1}z,P^{j-1}x) κ(Pi1z,Pj1x) P P P的定义如式(11)所示。

基于定理一,同样可以证明训练样本和检测样本之间的核矩阵 K z K^z Kz为循环矩阵,因此可以对其进行傅里叶对角化,有:
f ( z ) = ( K z ) T α = ( C ( k x z ) ) T α = ( F d i a g ( k ^ x z ) F H ) T α = F H d i a g ( k ^ x z ) F α \begin{align*} f(z)&=(K^z)^T\alpha \\ &=(C(k^{xz}))^T\alpha\\ &=(F\mathrm{diag}(\hat{k}^{xz})F^H)^T\alpha \\ \tag{20} &=F^H\mathrm{diag}(\hat{k}^{xz})F\alpha \end{align*} f(z)=(Kz)Tα=(C(kxz))Tα=(Fdiag(k^xz)FH)Tα=FHdiag(k^xz)Fα(20)
考虑到离散傅里叶变换矩阵 F F F的性质,则有:
F f ( z ) = d i a g ( k ^ x z ) F α (21) Ff(z)=\mathrm{diag}(\hat{k}^{xz})F\alpha \tag{21} Ff(z)=diag(k^xz)Fα(21)
舍掉 F F F,再进行傅里叶变换,则可以得到最终的快速检测公式:
f ^ ( z ) = k ^ x z ⊙ α ^ (22) \hat{f}(z)=\hat{k}^{xz}\odot\hat{\alpha} \tag{22} f^(z)=k^xzα^(22)
该公式可以理解为用 α \alpha α对核矩阵 K z K^z Kz进行空间滤波操作(或者是线性加权),生成的 f ( z ) f(z) f(z)是一个向量,代表所有可能位置的置信度值,最大的置信度值对应的patch即作为检测的输出

3. 快速核相关

尽管前面已经提出了快速训练和快速检测的方法,但它们仍依赖于计算两个图像块的核相关性这一过程(如 k x x k^{xx} kxx k x z k^{xz} kxz,根据前面的内容,核相关操作包含了计算两个输入(及所有相对位移)的高维特征点乘值,这是最后一个需要解决的计算瓶颈。因此本节对核相关过程进行了加速。

这一节主要就是介绍几种常见的核函数的形式,以及每种核函数所对应的快速计算方式。

  • 点积核:
    k x x ′ = g ( F − 1 ( x ^ ∗ ⊙ x ^ ′ ) ) (23) k^{xx'}=g(\mathcal{F}^{-1}(\hat{x}^*\odot\hat{x}')) \tag{23} kxx=g(F1(x^x^))(23)

  • 多项式核:
    k x x ′ = ( F − 1 ( x ^ ∗ ⊙ x ^ ′ ) + a ) b (24) k^{xx'}=(\mathcal{F}^{-1}(\hat{x}^*\odot\hat{x}')+a)^b \tag{24} kxx=(F1(x^x^)+a)b(24)

  • 对于某种径向基函数 h h h,其核函数可表示为:
    k x x ′ = h ( ∣ ∣ x ′ ∣ ∣ 2 + ∣ ∣ x ∣ ∣ 2 − 2 F − 1 ( x ^ ∗ ⊙ x ^ ′ ) ) (25) k^{xx'}=h(||x'||^2+||x||^2-2\mathcal{F}^{-1}(\hat{x}^*\odot\hat{x}')) \tag{25} kxx=h(∣∣x2+∣∣x22F1(x^x^))(25)

  • 高斯核:
    k x x ′ = e x p ( − 1 σ 2 ( ∣ ∣ x ′ ∣ ∣ 2 + ∣ ∣ x ∣ ∣ 2 − 2 F − 1 ( x ^ ∗ ⊙ x ^ ′ ) ) ) (26) k^{xx'}=exp(-\frac{1}{\sigma^2}(||x'||^2+||x||^2-2\mathcal{F}^{-1}(\hat{x}^*\odot\hat{x}'))) \tag{26} kxx=exp(σ21(∣∣x2+∣∣x22F1(x^x^)))(26)

4. KCF算法流程

image-20240219221254875

5. 总结

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/692047.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

如何使用IP代理解决亚马逊账号IP关联问题?

亚马逊账号IP关联问题是指当同一个IP地址下有多个亚马逊账号进行活动时,亚马逊会将它们关联在一起,从而可能导致账号被封禁或限制。 为了避免这种情况,许多人选择使用IP代理。 IP代理为什么可以解决亚马逊IP关联问题? IP代理是…

欲速则不达,慢就是快!

引言 随着生活水平的提高,不少人的目标从原先的解决温饱转变为追求内心充实,但由于现在的时间过得越来越快以及其他外部因素,我们对很多东西的获取越来越没耐心,例如书店经常会看到《7天精通Java》、《3天掌握XXX》等等之类的书籍…

金山下的wps,无法删除水印

RT,正常删除水印的流程是,插入-水印-删除水印。 如图的操作方法不生效时,可用下面的方法 点击页眉或页脚,进入页眉的编辑模式,可以看到水印变成可以选中的状态,选中,点击delete或者鼠标右键删…

如何使用Docker搭建YesPlayMusic网易云音乐播放器并发布至公网访问

文章目录 1. 安装Docker2. 本地安装部署YesPlayMusic3. 安装cpolar内网穿透4. 固定YesPlayMusic公网地址 本篇文章讲解如何使用Docker搭建YesPlayMusic网易云音乐播放器,并且结合cpolar内网穿透实现公网访问音乐播放器。 YesPlayMusic是一款优秀的个人音乐播放器&am…

知识蒸馏实战代码教学一(原理部分)

一、知识蒸馏的来源 知识蒸馏(Knowledge Distillation)源自于一篇由Hinton等人于2015年提出的论文《Distilling the Knowledge in a Neural Network》。这个方法旨在将一个大型、复杂的模型的知识(通常称为教师模型)转移到一个小型…

[Bug解决] Invalid bound statement (not found)出现原因和解决方法

1、问题描述 在写了一个很普通的查询语句之后,出现了下面的报错信息 org.apache.ibatis.binding.BindingException: Invalid bound statement (not found): com.xxx.oauth.mapper.WxVisitorQrBeanMapper.selectByComIdAndEmpId at org.apache.ibatis.binding.Mappe…

嵌入式C语言学习——基于Linux与GCC(二)

系列文章目录 一.C语言常用关键字及运算符操作 文章目录 系列文章目录内存四区指针指针概述指针 修饰符constvolatiletypedef 指针运算符多级指针 数组数组空间字符空间及地址 结构体、共用体定义、字节对齐位域 内存分布图段错误分析 内存四区 C/C语言的内存四区&#xff0…

Django模板(四)

一、include标签 加载一个模板,并在当前上下文中进行渲染。这是一种在模板中 “包含” 其他模板的方式 简单的理解:在当前模板中引入另外一个模板内容 1.1、使用方法 模板名称可以是变量,也可以是单引号或双引号的硬编码(带引号)的字符串 {% include "foo/bar.ht…

ALBEF算法解读

ALBEF论文全名Align before Fuse: Vision and Language Representation Learning with Momentum Distillation,来自于Align before Fuse,作者团队为Salesforce Research。 论文地址:https://arxiv.org/pdf/2107.07651.pdf 论文代码&#xff1…

美国首届生成式人工智能与法律研讨(上)

美国首届生成式人工智能与法律研讨(上) 文章目录 美国首届生成式人工智能与法律研讨(上)前言一、引言二、生成式AI对法律的影响三、生成式AI与法律的跨学科研究3.1 确定和定义跨学科术语3.2 构建有价值的隐喻3.3 理解不断发展的商业模式四、生成式AI的独特性4.1 从执行狭义…

[OpenAI]继ChatGPT后发布的Sora模型解析与体验通道

前言 前些天发现了一个巨牛的人工智能学习网站,通俗易懂,风趣幽默,忍不住分享一下给大家:https://www.captainbed.cn/z ChatGPT体验地址 文章目录 前言OpenAI体验通道Spacetime Latent Patches 潜变量时空碎片, 建构视觉语言系统…

【RHCE】shell条件测试练习

目录 1、判断当前磁盘剩余空间是否有20G,如果小于20G,则将报警邮件发送给管理员,每天检查次磁盘剩余空间。 2、判断web服务是否运行 3、使用curl命令访问第二题的web服务,看能否正常访问,如果能正常访问,…

《戴森球计划》好玩吗?《戴森球计划》怎么在苹果电脑上安装 戴森球计划攻略 Mac游戏推荐

《戴森球计划》是一款具有强大现实科学基础的模拟策略游戏,玩家的目标是构建能源效率极高的戴森球以解决能源问题。游戏的背景设定启发于科幻作品中的戴森球概念。游戏采用逼真的物理模拟,玩家需要合理规划资源,以应对复杂的能源危机。那么《…

【计算机网络】网络编程套接字UDP服务器客户端的简单模拟

需要云服务器等云产品来学习Linux的同学可以移步/–>腾讯云<–/官网&#xff0c;轻量型云服务器低至112元/年&#xff0c;优惠多多。&#xff08;联系我有折扣哦&#xff09; 文章目录 1. 前置知识1.1 源IP和目的IP1.2 端口号1.3 TCP协议和UDP协议初识1.4 网络字节序1.5 …

C# OpenCvSharp DNN Low Light image Enhancement

目录 介绍 效果 模型信息 项目 代码 下载 C# OpenCvSharp DNN Low Light image Enhancement 介绍 github地址&#xff1a;https://github.com/zhenqifu/PairLIE 效果 模型信息 Model Properties ------------------------- ------------------------------------------…

文献学习-1-Continuum Robots for Medical Interventions

Chapt 5. 连续体机构分析 5.1 文献学习 5.1.1 Continuum Robots for Medical Interventions Authors: PIERRE E. DUPONT , Fellow IEEE, NABIL SIMAAN , Fellow IEEE, HOWIE CHOSET , Fellow IEEE, AND CALEB RUCKER , Member IEEE 连续体机器人在医学上得到了广泛的应用&a…

卷积神经网络的基本结构

卷积神经网络的基本结构 与传统的全连接神经网络一样&#xff0c;卷积神经网络依然是一个层级网络&#xff0c;只不过层的功能和形式发生了变化。 典型的CNN结构包括&#xff1a; 数据输入层&#xff08;Input Layer&#xff09;卷积层&#xff08;Convolutional Layer&#x…

Avalonia学习(二十四)-系统界面

目前项目式练习&#xff0c;界面内容偏多&#xff0c;所以不给大家贴代码了&#xff0c;可以留言交流。此次为大家展示的是物联项目的例子&#xff0c;仅仅是学习&#xff0c;我把一些重点列举一下。 界面无边框 以前的样例主要是通过实现控件来完成的&#xff0c;前面已经有窗…

新算法UoT助力AI提问——主动寻求信息,任务完成率提高57.8%

引言&#xff1a;信息寻求在不确定性环境中的重要性 在不确定性环境中&#xff0c;信息寻求的能力至关重要。在许多实际应用中&#xff0c;如医学诊断和故障排除&#xff0c;解决任务所需的信息并非一开始就给出&#xff0c;而需要通过提问后续问题来主动寻求&#xff08;例如…

使用AndroidStudio调试Framework

1.前言 最近在工作过程中&#xff0c;涉及到FW的一些修改&#xff0c;比如PhoneWindowManager&#xff0c;只能通过加日志看打印的方式查看一些内容&#xff0c;比较低效&#xff0c;所以想了解一下FW的调试方式&#xff0c;后来发现AS就可以调试FW.我平时都是在Docker服务器编…