矩阵补全(Matrix Completion),就是补上一个含缺失值矩阵的缺失部分。
矩阵补全可以通过矩阵分解(matrix factorization)将一个含缺失值的矩阵 X X X 分解为两个(或多个)矩阵,然后这些分解后的矩阵相乘就可以得到原矩阵的近似 X ′ X^{\prime} X′,我们用这个近似矩阵 X ′ X^{\prime} X′ 的值来填补原矩阵 X 的缺失部分。
矩阵补全有很多方面的应用,如推荐系统、缺失值预处理。
除了 EM 算法、树模型,机器学习中的大多数算法都需要输入的数据是不含缺失值的。在 deep learning 模型中,通过梯度的计算公式就可以发现,如果 feature 中含有缺失值,那么梯度也会含缺失值,梯度也就未知了。对缺失值的处理是在模型训练开始前就应该完成的,故也称为预处理。
据缺失在实际场景中不可避免,对于一个包含 n n n 个 samples,每个 sample 有 m m m 个 features 的数据集 D,我们可以将该数据集 D 整理为一个 n ∗ m n * m n∗m 的矩阵 X X X。
通过矩阵分解补全矩阵是一种处理缺失值的方式,但在介绍之前,先介绍一些简单常用的缺失值预处理方式。
不进行缺失值预处理,缺了就缺了,找一个对缺失值不敏感的算法(如“树模型”),直接训练。
对于矩阵 X X X 中缺失值很多的行或列,直接剔除。
1列代表1个sample,1行代表一个feature。
缺失值较多的行,即一个 sample 的很多 features 都缺失了;缺失值较多的列,即大部分 samples 都没有该 feature。剔除这些 samples 或 features,而不是填充它们,避免引入过多的噪声。
当数据超级多时,我们甚至可以对含有缺失值的样本直接剔除,当剔除的比例不大时,这也完全可以接受。
在矩阵 X X X 的每个缺失位置上填上一个数,来代替缺失值。填一个数也不能乱来,如果 feature 代表年龄,那么肯定要填正数;如果 feature 代表性别,那么填 0 或 1 更合适(0 代表男,1 代表女)。
一般有以下几种简单的填充值:(均值和众数都是在一个 feature 下计算,即在矩阵 X X X 的每一列中计算均值和众数)
这种方式通过观察缺失的 feature 和其它已有的 features 之间的联系,建立一个统计模型或者回归模型,然后然后预测缺失 feature 的值应该是什么。
用 EM 算法估计缺失值也可以归为这一类。
当然,常用的缺失值处理方式还有许多,这里就不再列举了。可以看看博客http://118.31.76.100:100/math/statics_topic/deal-na/
如果矩阵 X X X 不含缺失值,那么矩阵分解可以将矩阵 X X X 分解成两个矩阵 U U U (大小 m × k m×k m×k)、 V V V (大小 m × k m×k m×k),其中 k < m i n { m , n } k
因为 k < m i n { m , n } k
如果矩阵 X X X 是完整的,那么矩阵分解 X = U V T X=UV^T X=UVT 完全没问题,但现在 X X X 中含了缺失值,故没有办法用线性代数的知识直接进行矩阵分解,我们需要一种近似的解法——梯度下降法
这个时候我们令 X ≈ X ^ = U V T X≈\hat{X}=UV^T X≈X^=UVT, ∥ X − X ^ ∥ F 2 ∥X−\hat{X}∥^2_F ∥X−X^∥F2 表示含缺失值的原矩阵 X X X 和 还原后的近似矩阵 X ^ \hat{X} X^ 之间误差的平方(Square error),或者称之为 reconstruction error,当然 ∥ X − X ^ ∥ F 2 ∥X−\hat{X}∥^2_F ∥X−X^∥F2 的计算只能在不含缺失值的项上。(∥⋅∥F 表示 Frobenius norm。)
文献中一般会将 reconstruction error ∥ X − X ^ ∥ F 2 ∥X−\hat{X}∥^2_F ∥X−X^∥F2 记为 ∥ R Ω ( X − X ^ ) ∥ F 2 ∥\mathcal{R}_Ω(X−\hat{X})∥^2_F ∥RΩ(X−X^)∥F2,其中 [ R Ω ( X − X ^ ) ] i j = { x i j − x ^ i j , if ( i , j ) ϵ Ω 0 , otherwise [\mathcal{R}_Ω(X−\hat{X})]_{ij} = \begin{cases} x_{ij}-\hat{x}_{ij}, & \text{if $(i,j) \epsilon Ω$} \\[2ex] 0, & \text{otherwise} \end{cases} [RΩ(X−X^)]ij=⎩⎨⎧xij−x^ij,0,if (i,j)ϵΩotherwise
其中 Ω Ω Ω 表示非缺失值矩阵元素下标的集合。这里为了简便,直接使用 ∥ X − X ^ ∥ F 2 ∥X−\hat{X}∥^2_F ∥X−X^∥F2,知道只在不含缺失值的项上计算平方和即可。
我们的目标的是找到矩阵 X X X 的近似矩阵 X ^ \hat{X} X^,通过 X ^ \hat{X} X^ 中对应的值来填充 X X X 中缺失的部分。而想要找到 X ^ \hat{X} X^,就是要找到矩阵 U U U 和 V V V。当然 X ^ \hat{X} X^ 要尽可能像 X X X,体现在函数上就是 m i n ∥ X − X ^ ∥ F 2 min∥X−\hat{X}∥^2_F min∥X−X^∥F2。
Loss function J J J 为
其中, i , j i,j i,j 分别表示矩阵 X X X 的行和列,要求 x i j ≠ n a n x_{ij}≠nan xij=nan,否则没有办法求最小值了。上式中,未知的就是 u i l u_{il} uil, v j l v_{jl} vjl,也是我们想要求的。
随机初始化矩阵 U U U, V V V,loss function J J J 就可以得到一个误差,基于该误差计算梯度,而想要更新 U U U, V V V,只需要按照梯度下降的公式来即可。
算法到这里其实就可以用了,但为了更加完美,可以考虑以下步骤,加入正则项和偏置。
加入正则项,保证矩阵 U U U, V V V 中元素不要太大,此时 loss function J J J 如下所示:
偏置可以理解为每个样本都有其特性,每个feature也有其特点,故可以加入 bias 来控制。bias 分为三种,第一种是矩阵 X X X 整体的的 bias,记为 b b b,那么 b = m e a n ( X ) b=mean(X) b=mean(X),即可以用矩阵 X X X 中存在元素的均值来赋值;第二种是 sample 的 bias,记为 b u i b_{ui} bui;第三种是 feature 的 bias,记为 b v j b_{vj} bvj。 则: