前两篇博客已经介绍了Robust PCA及RPCA的优化,接下来用Robust PCA实现背景建模。背景建模就是将摄像机获取的场景分离出前景和背景,以获取场景中的动态目标。传统方法基本思路:首先通过学习一段训练图像序列提取出该视频的背景特征,来建立数学模型以便描述其背景,然后用该背景模型对需要检测的视频序列进行处理( 如采用背景相减法) ,最后提取出当前图像中与背景模型中性质不同的像素点,即为图像的动态目标。但由于视频场景中可能存在噪声污染,所以传统的背景建模方式就没法满足建模要求。Robust PCA,又称稀疏与低秩矩阵分解,能够从受强噪声污染或部分缺失的高维度观测样本中发现其低维特征空间,有效地恢复观测样本的低维子空间,并恢复受损的观测样本。
对于某类观测的视频图像,将每一帧图像表示为m维矢量Vi,若该视频共包含n帧图像序列,那么该观测视频就可以用n个矢量组成的数据矩阵D=[v1,v2,...,vn]∈Rm∗n(i=1,2,...,n)来表示。视频背景建模的RobustPCA可描述为:对数据矩阵D进行分解,恢复出具有极大相似性的背景部分(低秩矩阵A)和分布范围很小的运动目标或前景部分(稀疏矩阵E):
这样就形成了中的凸优化问题,这样就可以通过上篇博客介绍的优化方法进行求解了,计算出A和E就可以分离出背景和前景(运动目标)了。
上篇博客已经介绍了Robust PCA的Inexect ALM优化算法,在这里就不进行赘述,直接上马毅2009年”The Augmented Lagrange Multiplier Method for Exact Recovery of Corrupted Low-Rank Matrices“论文中算法截图。
。
下面是IALM算法的Python实现,具体可参考我的分享的代码资源。
import numpy as np
from numpy.linalg import norm, svd
def inexact_augmented_lagrange_multiplier(X, lmbda = 0.01, tol = 1e-7, maxIter = 1000):
Y = X
norm_two = norm(Y.ravel(), 2)
norm_inf = norm(Y.ravel(), np.inf) / lmbda
dual_norm = np.max([norm_two, norm_inf])
Y = Y /dual_norm
A = np.zeros(Y.shape)
E = np.zeros(Y.shape)
dnorm = norm(X, 'fro')
mu = 1.25 / norm_two
rho = 1.5
sv = 10.
n= Y.shape[1]
itr = 0
while True:
Eraw = X - A + (1/mu) * Y
Eupdate = np.maximum(Eraw - lmbda / mu, 0) + np.minimum(Eraw + lmbda / mu, 0)
U, S, V = svd(X - Eupdate + (1 / mu) * Y, full_matrices=False)
svp = (S > 1 / mu).shape[0]
if svp < sv:
sv = np.min([svp + 1, n])
else:
sv = np.min([svp + round(0.05 * n), n])
Aupdate = np.dot(np.dot(U[:, :svp], np.diag(S[:svp] - 1 / mu)), V[:svp, :])
A = Aupdate
E = Eupdate
print itr
Z = X - A - E
Y = Y + mu * Z
mu = np.min([mu * rho, mu * 1e7])
itr += 1
if ((norm(Z, 'fro') / dnorm) < tol) or (itr >= maxIter):
break
print("IALM Finished at iteration %d" % (itr))
return A, E
The Augmented Lagrange Multiplier Method for Exact Recovery of Corrupted Low-Rank Matrices