Mean shift向量、概率密度函数、概率密度函数梯度之间的关系

上一篇博客中的paper主要思想是:在提取了图像的sift特征之后,在特征空间对特征进行coding,其中的算法用到了概率密度函数的梯度概念,这几天看了一些这方面的东西。

刚开始以为这个算法很神秘,后来才发现用的就是mean shift算法。为什么可以用mean shift呢,先给出mean shift的物理意义:

首先,mean shift是个向量;其次,这个向量正比于归一化的概率密度函数梯度;最后,这个归一化因子是概率密度。

note:梯度也是个向量,两个向量成正比关系,意思是说这两个向量方向相同。paper中的算法就是采用mean shift向量和pdf来计算gradient。

 

为什么要用概率密度加权呢?

因为mean shift向量在比较密集的地方(即pdf较大的地方)模值较小,而梯度较大。

简单推导一下这个关系:

 

你可能感兴趣的:(算法,学习)