bounding box regression讲解

简介

  • bbox回归指的是使用变换的方法,将当前预测的bbox进行变换,使其更加接近gt box。
  • 对于一般的bbox,可以由 x,y,w,h x , y , w , h 4个变量进行表示,将我们的目标抽象为给定原始的proposal P P ,将groundtruth box记为G G ,我们希望能够找到一个变换关系,使得原始框可以映射得到一个更接近gt box的回归窗口 G^ G ^

具体做法

  • 首先进行平移,之后再进行缩放,具体公式如下

G^x=Pwdx(P)+PxG^y=Phdy(P)+PyG^w=Pwedw(P)G^h=Phedh(P) G ^ x = P w d x ( P ) + P x G ^ y = P h d y ( P ) + P y G ^ w = P w e d w ( P ) G ^ h = P h e d h ( P )

在这里, (G^x,G^y,G^h,G^h(Gx,Gy,Gh,Gh) ( G ^ x , G ^ y , G ^ h , G ^ h ≈ ( G x , G y , G h , G h )

  • 注意:上面w和h使用指数方式进行变换,是为了防止长度和宽度出现负值的情况。

    • 针对以上变换方法,在IOU较大的情况下, 可以将这种变换关系假设为线性变换,可以得到以下平移变换和尺度缩放的参数的计算公式

tx=(GxPx)/Pwty=(GyPy)/Phtw=log(GwPw)th=log(GhPh) t x = ( G x − P x ) / P w t y = ( G y − P y ) / P h t w = log ⁡ ( G w P w ) t h = log ⁡ ( G h P h )

函数可以表示为 d(P)=wTϕ5(P) d ∗ ( P ) = w ∗ T ϕ 5 ( P ) ϕ5(P) ϕ 5 ( P ) 是当前proposal的特征向量, w w ∗ 是要学习的参数,因此loss可以表示为

L=i=1N(tiwTϕ5P(i))2 L = ∑ i = 1 N ( t ∗ i − w ∗ T ϕ 5 P ( i ) ) 2

也可以加上L1 loss或者L2 loss,防止过拟合,可以使用最小二乘法进行求解。

参考链接

  • https://blog.csdn.net/zijin0802034/article/details/77685438

你可能感兴趣的:(图像处理,深度学习,bounding,box,regression,RPN)