基于感知损失的改进深度卷积神经网络图像去噪新算法

目录

一、算法

1.1、网络结构

1.2、联合损失函数

1.2.1、均方损失

1.2.2、感知损失

 二、实验结果 


一、算法

        设X表示干净图像,N表示均匀偏差为σ的高斯白噪声,则噪声图像模型定义如下:

MP-DCNN的目的是去除噪声图像中的噪声,并尽可能保留图像的边缘信息。

1.1、网络结构

基于感知损失的改进深度卷积神经网络图像去噪新算法_第1张图片

1.2、联合损失函数

联合损失函数的数学表达式为:

 其中,右边第一项和第二项分别表示逐像素比较和语义特征比较的损失函数。联合损失函数的实现过程如图3所示。

基于感知损失的改进深度卷积神经网络图像去噪新算法_第2张图片

1.2.1、均方损失

噪声图像Y作为模型的输入,与其他去噪方法不同的是,它们的判别去噪模型是学习映射函数f(Y) = X来估计潜在的干净图像。相应的损失函数定义如下:

该去噪模型利用残差学习通过R(Y)≈N来训练残差投影,利用X = Y−R(Y)计算期望残差图像与预测残差图像之间的均方误差。那么,均方误差可以作为一个损失函数:

 1.2.2、感知损失

        在改进的卷积神经网络中引入感知损失函数。利用感知损失函数可以更好地学习图像的语义特征,重建图像的细节信息和边缘信息。使用预先训练的分割网络SegNet提取所需的特征图。然后,将去噪卷积神经网络的输出图像和相应的干净图像一起输入到SegNet中,并从网络的最后一层卷积C中提取它们的特征映射。它们之间的损失是这样的:

 二、实验结果 

基于感知损失的改进深度卷积神经网络图像去噪新算法_第3张图片

基于感知损失的改进深度卷积神经网络图像去噪新算法_第4张图片

 

你可能感兴趣的:(大数据)