图像配准之 互信息篇(简介)

最近琢磨了一下图像配准,上来就看理论似乎很挑战忍耐力,于是先找找开源代码

还好codesoso里可以找到matlab源码,效果还不错,算是增加点信心吧

原始链接如下:http://www.mathworks.com/matlabcentral/fileexchange/6978


里边涉及到一个名词“Mutual Information”,中文叫”互信息“,这个概念对于没接触过信息论的人有点莫名其妙,就像原来看到”卷积“一词时,很是糊涂。


有问题,先百度一下,百度百科里找到个概念(当然,wiki里也有更为详细的说明,不过公式比较繁琐)


互信息 (Mutual Information) 是信息论 里一种有用的信息度量,它是指两个事件集合 之间的相关性。

两个事件 X Y 的互信息定义为:I(X,Y) = H(X) + H(Y) - H(X,Y)

其中 H(X,Y) 是联合熵 (Joint Entropy) ,其定义为: H(X,Y) = - ∑ p(x,y)logp(x,y)

http://baike.baidu.com/view/1974678.htm?fr=ala0_1


再来百度一下 熵 的概念(这个概念比较抽象,总之是一个度量方法)

在信息论中, 熵表示的是不确定性的量度。

http://baike.baidu.com/view/936.htm?fr=ala0_1_1#5_3


OK,有了互信息,有了熵的概念,串一下思路


熵是平均信息量,互信息是两个事件的相关性,

A,B两幅图像的的互信息为I(A,B) = H(A) + H(B) - H(A,B)

那么,当A,B 互信息I最大时,即相关性最大时 则两幅图像配准。


至于熵中的概率如何来计算,有文献提到概率可以通过直方图方式计算出。其计算量应该比较大了。

前面提到的代码运行无错,但没做方法研究,暂时留有些疑问,希望高手指点。



你可能感兴趣的:(图像配准)