Notes6《Multi-focus image fusion with a deep convolutional neural network》

现如今深度学习的应用已蔚然成风,很多技术领域都将深度学习做一种强有力的工具。这篇文章便将图像融合作为一个二分类问题,将神经网络应用其中。基于传统的方法,其将清晰度描述和融合准则两个步骤融为一体,即实现端到端的融合方法。但个人觉得,这种方法在实际中并不可行,因为,首先需要训练网络,网络的好坏,依赖于数据量,显然,对于实际中产生的多聚焦图片,再去训练一个网络时不可行的。

其大体思路为:

Notes6《Multi-focus image fusion with a deep convolutional neural network》_第1张图片

利用滑动窗口机制,依次将两张图上的对应的块对{patch1,patch2}输入网络中,进行分类预测,若patch1的清晰度高于patch2,则预测值将大于0.5,得到score map S。之后对score map S进行阈值化处理,如图2:

后得到初始的分割结果,之后对初始分割的结果进行优化得到最终的分割结果,最后将其与原始图像相结合得到融合后的图像。

你可能感兴趣的:(Notes6《Multi-focus image fusion with a deep convolutional neural network》)