LARK

LARK : Locally Adaptive Regression Kernels

回顾之前的算法:

1.BL

LARK_第1张图片

Sensitive to

  1. noise
  2. variation in illumination

2.NLM

LARK_第2张图片

Smoothing effect, more robust,
but still quite sensitive

More effective ways to combine the two Δs

  • LARK Kernel
  • Beltrami Kernel

1.离散到非参数内核回归

LARK_第3张图片

Z 也有一种离散的意思。

LARK_第4张图片

可以看出y是离散的,现在还不确定Z的具体形式。

2.Locality in Kernel Regression
还是这个模型:


泰勒级数展开:

LARK_第5张图片

现在需要估计第一个βo.

3.Optimization Problem

对每一个y进行展开:

LARK_第6张图片

优化目标:使得误差最小.

LARK_第7张图片

采样后的结果:

LARK_第8张图片
LARK_第9张图片
LARK_第10张图片
LARK_第11张图片
图片.png

4.Locally Linear/Nonlinear Estimators

LARK_第12张图片

By choosing a data‐adaptive kernel(BL,NLM,LARK), the filters become nonlinear.

总之:之前只与x有关,现在多了Y

LARK_第13张图片

铺垫了这么久......

LARK Kernels

LARK_第14张图片

Locally Adaptive Regression Kernel: LARK

LARK_第15张图片

LARK_第16张图片

公式与图对照看就可以理解了,Cl是通过离散的Xk求得。

梯度协方差矩阵和局部几何

LARK_第17张图片
LARK_第18张图片
LARK_第19张图片
LARK_第20张图片

实验结果比较:

LARK_第21张图片

Robustness of LARK Descriptors

LARK_第22张图片

对于以上三种失真结果都没有多大变化。

你可能感兴趣的:(LARK)