图像分割在数字图像处理时也提到过,图像分割是将一幅图像分割成有意义区域的过程。 这些区域可以是图像的前景和背景或者图像中一些单独的对象。这些区域可以利用一些诸如颜色、边界或近邻相似性等特征进行构建。
图像分割有以下五种分割方法:
概念:
Graph cuts是一种十分有用和流行的能量优化算法,在计算机视觉领域普遍应用于前背景分割(Image segmentation)、立体视觉(stereo vision)、抠图(Image matting)等。其基本思想是,相似且彼此相近的像素应该划分到同一区域。
数学原理:
图割 C C C( C C C是图中所有边的集合)的“代价”函数定义为所有割的边的权重求合相加: E c u t = ∑ ( i , j ) ∈ C w i j E_{cut}=\sum_{(i,j)\in C}^{ }w_{ij} Ecut=(i,j)∈C∑wij w i j w_{ij} wij是图中节点 i i i到节点 j j j的边 ( i , j ) (i,j) (i,j)的权重,并且是对图割 C C C所有的边进行求和。
图割图像分割的思想是用图来表示图像,并对图进行划分以使割代价 E c u t E_{cut} Ecut最小。在用图表示图像时,增加两个额外的节点,即源点和汇点;并仅考虑那些将源点和汇点分开的割。
寻找最小割(minimum cut 或min cut)等同于源点和汇点间寻找最大流(maximum flow 或 max flow)。简单理解可以参考以下的过程:
从A到D,中间经过B,C两节点,问此时的最大流是多少?
首先找一条从A到D的路径[A,C,D],该路径的最大流量是min(2,3)=2,因为[A,C]上面的容量已经被用了,所以路径[A,B,C,D就行不通了,割去[A,C]后图变成了以下形式:
该图叫做残留网络或者残留图,此时再找从A到D的路径[A,B,D],路径的最大流量是min(3,6)=3.割去[B,D]后,图如下:
此时就不存在从A到D的可行路径了,则结束最大流的查找。此时的最大流是2+3=5,被割的边容量和是2+3=5,即最大流=最小割。
python-graph 工具包计算一幅较小的最大流 / 最小割的示例:
from pygraph.classes.digraph import digraph
from pygraph.algorithms.minmax import maximum_flow
gr = digraph()
gr.add_nodes([0,1,2,3])
gr.add_edge((0,1), wt=4)
gr.add_edge((1,2), wt=3)
gr.add_edge((2,3), wt=5)
gr.add_edge((0,2), wt=3)
gr.add_edge((1,3), wt=4)
flows,cuts = maximum_flow(gr, 0, 3)
print ('flow is:' , flows)
print ('cut is:' , cuts)
实验结果如下:
分析:
首先创建有4个节点的有向图,4个节点的索引分别0…3,然后用add_edge()增添边并为每条边指定特定的权重。边的权重用来衡量边的最大流容量。以节点0为源点,3为汇点,计算最大流。
给定一个邻域结构,可以利用图像像素作为节点定义一个图。在这里讨论最简单的像素四邻域和两个图像区域(前景和背景)的情况。一个四邻域指一个像素与其正上方、正下方、左边、右边的像素直接相连。
除了像素节点外,还需要两个特定的节点——“源”点和 “汇”点,来分别代表图像的前景和背景。
下面给出创建图像中的图像的步骤:
为了确定边的权重,需要一个能够确定这些像素点之间,像素点与源点、汇点之间边的权重(表示那条边的最大流)的分割模型。与前面一样,像素 i i i和像素 j j j之间的边的权重记为 w i j w_{ij} wij,源点到像素 i i i的权重记为 w s i w_{si} wsi,像素 i i i到汇点的权重记为 w i t w_{it} wit。
假定已经在前景和背景像素(从同一图像或从其他的图像)上训练出一个贝叶斯分类器,就可以为前景和背景计算概率 p F ( I i ) p_{F}(I_{i}) pF(Ii)和 p B ( I i ) p_{B}(I_{i}) pB(Ii)。这里, I i I_{i} Ii是像素 i i i的颜色向量。
现在可以为边的权重建立如下模型: w s i = p F ( I i ) p F ( I i ) + p B ( I i ) w_{si}=\frac{p_{F}(I_{i})}{p_{F}(I_{i})+p_{B}(I_{i})} wsi=pF(Ii)+pB(Ii)pF(Ii) w i t = p B ( I i ) p F ( I i ) + p B ( I i ) w_{it}=\frac{p_{B}(I_{i})}{p_{F}(I_{i})+p_{B}(I_{i})} wit=pF(Ii)+pB(Ii)pB(Ii) w i j = k e − ∣ I i − I j ∣ 2 / σ w_{ij}=ke^{-\left | I_{i}-I_{j} \right |^{2}/\sigma } wij=ke−∣Ii−Ij∣2/σ
利用该模型,可以将每个像素和前景及背景(源点和汇点)连接起来,权重等于上面归一化后的概率。 w i j w_{ij} wij描述了近邻间像素的相似性,相似像素权重趋近于 k k k,不相似的趋近于零。参数 σ \sigma σ表征了随着不相似性的增加,指数次幂衰减到零的快慢。
下面创建一个名为 graphcut.py 的文件,从一幅图像中创建图的函数:
# -*- coding: utf-8 -*-
from pygraph.classes.digraph import digraph
from pygraph.algorithms.minmax import maximum_flow
import bayes
def build_bayes_graph(im,labels,sigma=1e2,kappa=2):
"""从像素四邻域建立一个图,前景和背景(前景用1标记,背景用-1标记,
其他的用0标记)由labels决定,并用朴素贝叶斯分类器建模"""
m,n = im.shape[:2]
#每行是一个像素的RGB向量
vim = im.reshape((-1,3))
#前景和背景(RGB)
foreground = im[labels==1].reshape((-1,3))
background = im[labels==-1].reshape((-1,3))
train_data = [foreground,background]
#训练朴素贝叶斯分类器
bc = bayes.BayesClassifier()
bc.train(train_data)
#获取所有像素的概率
bc_labels,prob = bc.classify(vim)
prob_fg = prob[0]
prob_bg = prob[1]
#用m*n+2个节点创建图
gr = digraph()
gr.add_node(range(m*n+2))
source = m*n #倒数第二个是源点
sink = m*n+1 #最后一个节点是汇点
#归一化
for i in range(vim.shape[0]):
vim[i] = vim[i]/linalg.norm(vim[i])
#遍历所有的节点,并添加边
for i in range(m*n):
#从源点添加边
gr.add_edge((source,i),wt=(prob_fg[i]/(prob_fg[i]+prob_bg[i])))
#向汇点添加边
gr.add_edge((i,sink),wt=(prob_bg[i]/(prob_fg[i]+prob_bg[i])))
#向相邻节点添加边
if i%n !=0 : #左边存在
edge_wt = kappa*exp(-1.0*sum((vim[i]-vim[i-1])**2)/sigma)
gr.add_edge((i,i-1),wt=edge_wt)
if (i+1)%n !=0 : #右边存在
edge_wt = kappa*exp(-1.0*sum((vim[i]-vim[i+1])**2)/sigma)
gr.add_edge((i,i+1),wt=edge_wt)
if i//n !=0 : #上边存在
edge_wt = kappa*exp(-1.0*sum((vim[i]-vim[i-n])**2)/sigma)
gr.add_edge((i,i-n),wt=edge_wt)
if i//n !=m-1 : #下左边存在
edge_wt = kappa*exp(-1.0*sum((vim[i]-vim[i+n])**2)/sigma)
gr.add_edge((i,i+n),wt=edge_wt)
return gr
在这个函数中,用1标记前景训练数据、用-1标记背景训练数据的一幅标记图像。基于这种标记,在RGB值上可以训练出一个朴素贝叶斯分类器,然后计算每一像素的分类概率,这些计算出的分类概率便是从源点出来和到汇点去的边的权重,由此可以创建一个节点为n*m+2的图。注意源点和汇点的索引,为了简化像素的索引,将最后的两个索引作为源点和汇点的索引。
为了在图像上可视化覆盖的标记区域,可以利用contourf()函数填充图像(这里指带标记图像)等高线间的区域,参数alpha用于设置透明度。图建立起来后便需要在最优位置对图进行分割,cut_graph() 函数可以计算最小割并将输出结果重新格式化为一个带像素标记的二值图像。 添加下面的内容到 graphcut.py 中:
def show_labeling(im,labels):
"""显示图像的前景和背景区域。前景labels=1,背景labels=-1,其他labels=0"""
imshow(im)
contour(labels,[-0.5,0.5])
coutourf(labels,[-1,-0.5],colors='b',alpha=0.25)
coutourf(labels,[0.5,1],colors='r',alpha=0.25)
axis('off')
def cut_graph(gr,imsize):
"""用最大流对图gr进行分割,并返回分割结果的二值标记"""
m,n = imsize
source = m*n #倒数第二个节点是源点
sink = m*n+1 #倒数第一个是汇点
#对图进行分割
flows,cuts = maximun_flow(gr,source,sink)
#将图转为带有标记的图像
res = zeros(m*n)
for pos,label in cuts.items()[:-2]: #不要添加源点/汇点
res[pos] = label
return res.reshape((m,n))
需要再次注意源点和汇点的索引,需要将图像的尺寸作为输入去计算这些索引,在返回分割结果之前要对输出结果进行reshape()操作。割以字典返回,需要将它复制到分割标记图像中,这通过返回列表(键,值)的.iten() 方法完成。
编写实验代码:读取一幅图像,从图像的两个矩形区域估算出类概率,然后创建一个图:
# -*- coding: utf-8 -*-
from scipy.misc import imresize
from PCV.tools import graphcut
from PIL import Image
from numpy import *
from pylab import *
im = array(Image.open("empire.jpg"))
im = imresize(im, 0.07,interp='bilinear')
size = im.shape[:2]
print ("OK!!")
# add two rectangular training regions
labels = zeros(size)
labels[3:18, 3:18] = -1
labels[-18:-3, -18:-3] = 1
print ("OK!!")
# create graph
g = graphcut.build_bayes_graph(im, labels, kappa=2) #k决定领进像素间的相对权重
# cut the graph
res = graphcut.cut_graph(g, size)
print ("OK!!")
figure()
graphcut.show_labeling(im, labels)
figure()
imshow(res)
gray()
axis('off')
show()
实验结果:
下面图二是g = graphcut.build_bayes_graph(im, labels, kappa=1)
的kappa的数值为1时的图像。
下面图二是g = graphcut.build_bayes_graph(im, labels, kappa=2)
的kappa的数值为2时的图像。
下面图二是g = graphcut.build_bayes_graph(im, labels, kappa=5)
的kappa的数值为5时的图像。
从上面的图可以看出,类概率之间的相对权重对分割结果产生影响。当k越大时,其分割边缘越圆润,图像的细节也逐渐丢失了。这是由于kappa决定了邻近像素间边的相对权重,权重越高,越丢失严重。
遇到的问题及解决方案:
想要注释掉这个包含imresize的语句,意思就是不改变这个图的大小。之后就出现了如下的问题:
z
这个问题就是数据量过大,导致内存不足,需要修改图像的数据量大小,还是回到了原来的问题上。
错误原因:在Python 2.X中, for pos,label in cuts.items()[:-2]: #don’t add source/sink 返回的是一个 list, 但是在Python 3.X中返回的是一个dict_keys object。
修改方式:for pos,label in list(cuts.items())[:-2]:
利用一些方法可以将图割分割与用户交互结合起来,形成用户交互式分割。例如,用户可以在一幅图像上为前景和背景提供一些标记。另一种方法就是利用边界框或“lasso”工具选择一个包含前景的区域。
下面给出一个完整的例子。实验会载入一幅图像及对应的标注信息,然后将其传递到我们的图割路径中:
# -*- coding: utf-8 -*-
from scipy.misc import imresize
from PCV.tools import graphcut
from PIL import Image
from numpy import *
from pylab import *
def create_msr_labels(m, lasso=False):
""" Create label matrix for training from
user annotations. """
labels = zeros(im.shape[:2])
# background
labels[m == 0] = -1
labels[m == 64] = -1
# foreground
if lasso:
labels[m == 255] = 1
else:
labels[m == 128] = 1
return labels
# load image and annotation map
im = array(Image.open('empire.jpg'))
m = array(Image.open('empire.bmp'))
# resize
scale = 0.1
im = imresize(im, scale, interp='bilinear')
m = imresize(m, scale, interp='nearest')
# create training labels
labels = create_msr_labels(m, False)
# build graph using annotations
g = graphcut.build_bayes_graph(im, labels, kappa=2)
# cut graph
res = graphcut.cut_graph(g, im.shape[:2])
# remove parts in background
res[m == 0] = 1
res[m == 64] = 1
# plot the result
figure()
imshow(res)
gray()
xticks([])
yticks([])
savefig('labelplot.pdf')
实验结果:
由于遇到的bug没有解决,实验结果没能如愿显示出来,故截取了书上的结果显示如上。待小白博主解决了再修改这部分内容,希望有知道解决这个bug的小伙伴能留言指导我一下,感谢!
更新:
经过多方面的咨询,遇到上面问题的原因可能是标注的图应该需要专业人士标注好的,不能随意生成bmp文件。所以,解决方案就是用专业人士已标注好的数据包进行实验,即可得出实验结果。
修改后的实验结果如下:
实验说明:
从上面三组实验中可知,前景和背景容易分开的图像中,图像分割得比较好,但是在颜色复杂的图像中,分割效果并没有那么好。正如书本和香蕉那样,前景和背景分割开来,但是在第三组图像中,两个人物的图割则只分割了左边女士脚的部分。而且也发现,虽然简单图像的图割效果比较好,但有些细节的东西并没有能够检测出来并分割开。
遇到的问题:
File “F:/Anaconda/chapter9/user_test.py”, line 15, in create_msr_labels
labels[m==0]=-1
IndexError: too many indices for array
现在将介绍一种分割图像图的方法,即基于谱图理论的归一化分割算法,它将像素相似和空间近似结合起来对图像进行分割。
原理:
这个方法来自定义一个分割损失函数,该损失函数不仅考虑了组的大小而且还用划分的大小对该损失函数进行“归一化”。该归一化后的分割公式将方程中分割损失函数修改为: E n c u t = E c u t ∑ i ∈ A w i x + E c u t ∑ j ∈ B w j x E_{ncut}=\frac{E_{cut}}{\sum_{i\in A}^{ }w_{ix}}+\frac{E_{cut}}{\sum_{j\in B}^{ }w_{jx}} Encut=∑i∈AwixEcut+∑j∈BwjxEcut
A和B表示两个割集,并在图中分别对A和B中所有其他节点(函数进行“归一化”这里指图像像素)的权重求和相加,相加求和项称为association。对于那些像素与其他像素具有相同连接数的图像,它是对划分大小的一种粗糙度量方式。
定义 W W W为边的权重矩阵,矩阵中的元素 w i j w_{ij} wij为连接像素 i i i和像素 j j j边的权重。 D D D为对 W W W每行元素求和后构成的对角矩阵,即 D = d i a g ( d i ) , d i = ∑ j w i j D=diag(d_{i}),d_{i}=\sum_{j} w_{ij} D=diag(di),di=∑jwij。归一化分割可以通过最小化下面的优化问题而求得: m i n y y T ( D − W ) y y T D y min_{y}\frac{y^{T}(D-W)y}{y^{T}Dy} minyyTDyyT(D−W)y 向量 y y y包含的是离散标记,这些离散标记满足对于 b b b为常数 y i ∈ { 1 , − b } y_{i} \in \left \{ 1,-b\right \} yi∈{1,−b}(即 y y y只可以取这两个值)的约束, y T D y^{T}D yTD求和为0。
通过松弛约束条件并让 y y y取任意实数,该问题可以变为一个容易求解的特征分解问题。这样求解的缺点是你需要对输出设定阈值或进行聚类,使它重新成为一个离散分割。
松弛该问题后,该问题便成为求解拉普拉斯矩阵特征向量问题:
L = D − 1 / 2 W D − 1 / 2 L=D^{-1/2}WD^{-1/2} L=D−1/2WD−1/2
正如谱聚类情形一样,现在的难点是如何定义像素间边的权重 w i j w_{ij} wij。
利用原始归一化割中的边的权重,通过下面的式子给出连接像素 i i i和像素 j j j的边的权重: w i j = e − ∣ I i − I j ∣ 2 / σ g e − ∣ x i − x j ∣ 2 / σ d w_{ij}=e^{-\left | I_{i}-I_{j} \right |^{2}/\sigma _{g}}e^{-\left | x_{i}-x_{j} \right |^{2}/\sigma _{d}} wij=e−∣Ii−Ij∣2/σge−∣xi−xj∣2/σd 公式中第一部分度量像素 I i I_{i} Ii和 I j I_{j} Ij之间的像素相似性, I i ( I j ) I_{i}\left ( I_{j} \right ) Ii(Ij)定义为RGB向量或灰度值;第二部分度量图像中 x i x_{i} xi和 x j x_{j} xj的接近程度, x i ( x j ) x_{i}\left (x_{j} \right ) xi(xj)定义为每个像素的坐标矢量,缩放因子 σ d \sigma _{d} σd和 σ g \sigma _{g} σg 决定了相对尺度和每一部件趋近0的快慢。
代码实现所述原理:
# -*- coding: utf-8 -*-
from pygraph.classes.digraph import digraph
from pygraph.algorithms.minmax import maximum_flow
import bayes
import numpy
import scipy
def ncut_graph_matrix(im,sigma_d=1e2,sigma_g=1e-2):
"""创建用于归一化割的矩阵,其中sigma_d和sigma_g是像素距离和像素相似性的权重参数"""
m,n = im.shape[:2]
N = m*n
#归一化,并创建RGB或灰度特征向量
if len(im.shape)==3:
for i in range(3):
im[:,:,i] = im[:,:,i] / im[:,:,i].max()
vim = im.reshape((-1,3))
else:
im = im / im.max()
vim = im.flatten()
#x,y坐标用于距离计算
xx,yy = meshgrid(range(n),range(m))
x,y = xx.flatten(),yy.flatten()
#创建边线权重矩阵
W = zeros((N,N),'f')
for i in range(N):
for j in range(i,N):
d = (x[i]-x[j])**2+(y[i]-y[j])**2
W[i,j] = W[j,i] = exp(-1.0*sum((vim[i]-vim[j])**2)/sigma_g)*exp(-d/sigma_d)
return W
这个函数获取图像数组,并利用输入的彩色图像RGB值或灰度图像的灰度值创建一个特征向量。由于边的权重包含了距离部件,对于每个像素的特征向量,利用meshgrid()函数来获取 x x x和 y y y的值,然后该函数会在 N N N个像素数上循环,并在 N × N N×N N×N归一化割矩阵W中填充值。
可以顺序分割每个特征向量或获取一些特征向量对它们进行聚类来计算分割结果。这里选择第二种方法,它不需要修改任意分割数也能正常工作。将拉普拉斯矩阵进行特征分解后的前ndim个特征向量合并在一起构成矩阵 W W W,并对这些像素进行聚类。下面函数实现了这种聚类过程:
# -*- coding: utf-8 -*-
from numpy import *
from PIL import Image
from PCV.tools import graphcut
import ncut
from scipy.misc import imresize
from pylab import *
im = array(Image.open("C-uniform01.ppm"))
m,n = im.shape[:2]
#调整图像的尺寸大小为(wid,wid)
wid = 50
rim = imresize(im,(wid,wid),interp='bilinear')
rim = array(rim,'f')
#创建归一化割矩阵
A = ncut.ncut_graph_matrix(rim,sigma_d=1,sigma_g=1e-2)
#聚类
code,V = ncut.cluster(A,k=3,ndim=3)
#变换到原来的图像大小
codeim = imresize(code.reshape(wid,wid),(m,n),interp='nearest')
#绘制分割结果
figure()
subplot(121)
imshow(im)
title('分割前图像')
subplot(122)
imshow(codeim)
title('分割后图像')
gray()
show()
实验结果:
分析:
上面实验利用归一化分割算法分割图像,用到了静态手势“C”、“五”和小人图像,聚类数k均设置为3,都会显示三部分信息,把上面的图像都分成三部分。在上面的结果中,保持所有参数都一致,只修改了图像的内容,对图像进行阈值处理不会给出相同的结果,对RGB值或灰度值进行聚类也一样,其中原因是它们没有考虑像素的近邻。
当优化的对象是函数时,该问题称为变分问题,解决这类问题的算法称为变分法。
概念:
变分法是17世纪末发展起来的一门数学分支,是处理函数的数学领域,和处理数的函数的普通微积分相对。它最终寻求的是极值函数:它们使得泛函取得极大或极小值。
变分法的关键定理是欧拉-拉格朗日方程。它对应于泛函的临界点。在寻找函数的极大和极小值时,在一个解附近的微小变化的分析给出一阶的一个近似。它分辨不出找到的是最大值还是最小值(或者两者都不是)。
变分法概念与寻常分析中的微分概念很为类似,但所联系的不是x的变化,而是函数y(x)的变化。 如果函数y(x)使U(y)达其极值,则U的变分δU变为0。(来自百度百科)
数学原理:
函数 y ( x ) y(x) y(x)对于任意给定的输入变量 x x x,给出输出值 y y y;类似地,定义关于函数的函数 F [ y ] F[y] F[y],亦称泛函,给定函数 y y y,输出值为 F F F。熵 H [ x ] H[x] H[x]也是泛函的一种,它定义在概率密度函数 p ( x ) p(x) p(x)上,可等价记为 H [ p ] H[p] H[p]。
泛函中变分法类似于函数中求极值点,即寻求某个最大化或最小化泛函 F [ y ] F[y] F[y]的函数 y ( x ) y(x) y(x)。利用变分法可证明两点之间的最短路径为直线以及最大熵分布为高斯分布。
对于多元函数 y ( x ) = y ( x 1 , . . . , x D ) y(x)=y(x_{1},...,x_{D}) y(x)=y(x1,...,xD),其泰勒展开为: y ( x + ϵ ) = y ( x ) + ϵ T ∂ y ∂ x + O ( ∥ ϵ ∥ 2 ) . y(x+ϵ)=y(x)+ϵ^{T}\frac{∂y}{∂x}+O(∥ϵ∥^{2}). y(x+ϵ)=y(x)+ϵT∂x∂y+O(∥ϵ∥2).
对于某个泛函 F [ y ] F[y] F[y],考虑 y ( x ) y(x) y(x)上的微小改变 ϵ η ( x ) ϵη(x) ϵη(x),其中 η ( x ) η(x) η(x)为任意函数,对比上式,将 x x x展开到无限维,从而: F [ y ( x ) + ϵ η ( x ) ] = F [ y ( x ) ] + ∫ δ F δ y ( x ) ϵ η ( x ) d x + O ( ϵ 2 ) , F[y(x)+ϵη(x)]=F[y(x)]+∫\frac{δF}{δy(x)}ϵη(x)dx+O(ϵ^{2}), F[y(x)+ϵη(x)]=F[y(x)]+∫δy(x)δFϵη(x)dx+O(ϵ2),
其中 δ F / δ y ( x ) δF/δy(x) δF/δy(x)为泛函梯度。
为了使 F [ y ] F[y] F[y]取得极值,上式一阶条件为: lim ϵ → 0 ∫ δ F δ y ( x ) ϵ η ( x ) d x ϵ = ∫ δ F δ y ( x ) η ( x ) d x = 0 \lim_{ϵ→0}\frac{∫\frac{δF}{δy(x)}ϵη(x)dx}{ϵ}=∫\frac{δF}{δy(x)}η(x)dx=0 ϵ→0limϵ∫δy(x)δFϵη(x)dx=∫δy(x)δFη(x)dx=0
注意到η(x)选取的任意性,可得泛函梯度需要处处为零,即: δ F δ y ( x ) ≡ 0. \frac{δF}{δy(x)}≡0. δy(x)δF≡0.
Chan-Vese分割模型对于待分割图像区域假定一个分片常数图像模型。这里集中关注两个区域的情形,比如说是前景和背景,这个模型也可以扩展到多区域。如果用一组曲线 Γ \Gamma Γ将图像分离成两个区域 Ω 1 \Omega _{1} Ω1和 Ω 2 \Omega _{2} Ω2,分割时通过最小化Chan-Vese模型能量函数给出的: E ( Γ ) = λ l e n g t h ( Γ ) + ∫ Ω 1 ( I − c 1 ) 2 d x + ∫ Ω 2 ( I − c 2 ) 2 d x E(\Gamma )=\lambda length(\Gamma )+\int_{\Omega _{1}}^{ }(I-c_{1})^{2}dx+\int_{\Omega _{2}}^{ }(I-c_{2})^{2}dx E(Γ)=λlength(Γ)+∫Ω1(I−c1)2dx+∫Ω2(I−c2)2dx
模型如下所示,分片常数CV分割模型:
该能量函数用来度量与内部平均灰度常数 c 1 c_{1} c1和外部平均灰度常数 c 2 c_{2} c2的偏差。这里这两个积分是对各自区域的积分,分离曲线 Γ \Gamma Γ的长度用以选择更平滑的方案。
由分片常数图像 U = χ 1 c 1 + χ 2 c 2 U=\chi _{1}c_{1}+\chi _{2}c_{2} U=χ1c1+χ2c2,可以将上面的式子重写为: E ( Γ ) = λ ∣ c 1 − c 2 ∣ 2 ∫ ∣ ▽ U ∣ d x + ∥ I − U ∥ 2 E(\Gamma )=\lambda \frac{\left | c_{1}-c_{2} \right |}{2}\int \left | \triangledown U \right |dx+\left \| I-U \right \|^{2} E(Γ)=λ2∣c1−c2∣∫∣▽U∣dx+∥I−U∥2 χ 1 \chi _{1} χ1和 χ 2 \chi _{2} χ2是两区域 Ω 1 \Omega _{1} Ω1和 Ω 2 \Omega _{2} Ω2的特征(指示)函数。
注意: 区域内特征函数为1,区域外特征函数为0。
用变分法最小化CV模型转变成为设置阈值的ROF降噪问题,代码编写如下:
# -*- coding: utf-8 -*-
from numpy import *
from PIL import Image
from PCV.tools import graphcut
import ncut
from scipy.misc import imresize
from pylab import *
import rof
im = array(Image.open("boy_on_hill.jpg").convert('L'))
U,T = rof.denoise(im,im,tolerance=0.01)
t = 0.4 #阈值
title('原始图像')
imshow(im)
import scipy.misc
scipy.misc.imsave('result.pdf',U
最终分割结果:
分析:
为确保得到足够的迭代次数,调低ROF迭代终止时的容忍阈值。利用ROF降噪最小化CV模型,得到如上面的分割结果。可以看出,图像灰度级越复杂,ROF迭代次数越多,降噪过程越久。
如果您在阅读之中发现文章错误之处或者出现疑问,欢迎在评论指出。