Introduction to Principal Component Analysis (PCA)
PCA(主成分分析)是提取最重要特征的统计过程。
假设你有一组2D点,如上图所示。每个维度都对应于您感兴趣的特性。有些人可能会说,这些点是按随机顺序设置的。然而,如果你仔细观察,你会发现有一个很难忽视的线性模式(由蓝线表示)。主成分分析的关键是降维。降维是减少给定数据集的维数的过程。例如,在上述情况下,可以将点集近似为一条线,因此,将给定点的维数从2D降至1D。
此外,您还可以看到,这些点沿蓝线变化最大,超过它们沿特征1或特征2轴的变化。这意味着,如果你知道一个点沿蓝线的位置,你就比只知道它在特征1轴或特征2轴上的位置有更多关于这个点的信息。
因此,PCA允许我们找到数据变化最大的方向。事实上,在图中的点集上运行主成分分析的结果由两个被称为特征向量的向量组成,它们是数据集的主成分。
每个特征向量的大小被编码在相应的特征值中,并表示数据沿主成分的变化程度。特征向量的起点是数据集中所有点的中心。将PCA应用于N维数据集,得到N个N维特征向量、N个特征值和1个N维中心点。
目标是将一个给定的维度 p
的数据集 X
转换为一个维度更小的 l
的备选数据集 Y
,等价地,我们正在寻找矩阵 Y
,其中 Y
是矩阵 X
的 Karhunen-Loève变换(KLT)
:
Y = K L T { X } Y=\mathbb{KLT}\{X\} Y=KLT{X}
假设你有一组包含 p
个变量的观察数据,你想要缩减数据,以便每个观察结果都可以用 L
个变量来描述,L < p
。进一步假设,一组 n
个数据向量 x 1 … x n x_1…x_n x1…xn, 其中每个 x i x_i xi 表示的就是一个单独的 p
个变量的一个数据。
u [ j ] = 1 n ∑ i = 1 n X [ i , j ] u[j] = \frac{1}{n}\sum_{i=1}^n X[i,j] u[j]=n1i=1∑nX[i,j]
均值减法是寻找主成分基的解决方案的一个组成部分,使接近数据的均方误差最小化。因此,我们将数据居中,如下所示:
B = X − h u T B = X-hu^T B=X−huT
其中 h h h为 全 1
的 n × 1 n×1 n×1 向量,即
h [ i ] = 1 , i = 1 , . . . , n h[i]=1, i=1,...,n h[i]=1,i=1,...,n
C = 1 n − 1 B ∗ ⋅ B C=\frac{1}{n-1}B^* \cdot B C=n−11B∗⋅B
其中 ∗ * ∗是共轭转置算子。请注意,如果B完全由实数组成,这是在许多应用中的情况,“共轭转置”与常规转置相同。
V − 1 C V = D V^{-1}CV = D V−1CV=D
其中 D D D 是 C C C 特征值的对角化矩阵。
D [ k , l ] = { λ k , k = l 0 , k ≠ l D[k,l]=\begin{cases} \lambda_k,&\, k=l \\ 0,&k\not =l \end{cases} D[k,l]={λk,0,k=lk=l
其中, λ j \lambda_j λj 是 协方差矩阵 C C C 的 j j j 个特征值
import cv2
import numpy as np
import argparse
from math import atan2, cos, sin, sqrt, pi
def drawAxis(img, p_, q_, colour, scale):
p = list(p_)
q = list(q_)
angle = atan2(p[1] - q[1], p[0] - q[0]) # angle in radians
hypotenuse = sqrt((p[1] - q[1]) * (p[1] - q[1]) +
(p[0] - q[0]) * (p[0] - q[0]))
#
q[0] = p[0] - scale * hypotenuse * cos(angle)
q[1] = p[1] - scale * hypotenuse * sin(angle)
cv2.line(img, (int(p[0]), int(p[1])),
(int(q[0]), int(q[1])), colour, 1, cv2.LINE_AA)
# 创建箭头钩
p[0] = q[0] + 9 * cos(angle + pi / 4)
p[1] = q[1] + 9 * sin(angle + pi / 4)
cv2.line(img, (int(p[0]), int(p[1])),
(int(q[0]), int(q[1])), colour, 1, cv2.LINE_AA)
p[0] = q[0] + 9 * cos(angle - pi / 4)
p[1] = q[1] + 9 * sin(angle - pi / 4)
cv2.line(img, (int(p[0]), int(p[1])),
(int(q[0]), int(q[1])), colour, 1, cv2.LINE_AA)
def getOrientation(pts, img):
sz = len(pts)
data_pts = np.empty((sz, 2), dtype=np.float64)
for i in range(data_pts.shape[0]):
data_pts[i, 0] = pts[i, 0, 0]
data_pts[i, 1] = pts[i, 0, 1]
# 执行 PCA 分析
mean = np.empty((0))
mean, eigenvectors, eigenvalues = cv2.PCACompute2(data_pts, mean)
# 存储物体的中心
cntr = (int(mean[0, 0]), int(mean[0, 1]))
cv2.circle(img, cntr, 3, (255, 0, 255), 2)
p1 = (cntr[0] + 0.02 * eigenvectors[0, 0] * eigenvalues[0, 0],
cntr[1] + 0.02 * eigenvectors[0, 1] * eigenvalues[0, 0])
p2 = (cntr[0] - 0.02 * eigenvectors[1, 0] * eigenvalues[1, 0],
cntr[1] - 0.02 * eigenvectors[1, 1] * eigenvalues[1, 0])
drawAxis(img, cntr, p1, (0, 255, 0), 1)
drawAxis(img, cntr, p2, (255, 255, 0), 5)
# orientation in radians
angle = atan2(eigenvectors[0, 1], eigenvectors[0, 0])
return angle
imname = "assets/pca_test2.jpg"
src = cv2.imread(imname)
# Check if image is loaded successfully
if src is None:
print('Could not open or find the image: ', imname)
exit(0)
# cv2.imshow('src', src)
# 图像预处理和找轮廓
gray = cv2.cvtColor(src, cv2.COLOR_BGR2GRAY)
_, bw = cv2.threshold(gray, 50, 255, cv2.THRESH_BINARY | cv2.THRESH_OTSU)
contours, _ = cv2.findContours(bw, cv2.RETR_LIST, cv2.CHAIN_APPROX_NONE)
for i, c in enumerate(contours):
# 计算每个轮廓的面积
area = cv2.contourArea(c)
# 忽略太小和太大的轮廓
if area < 1e2 or 1e5 < area:
continue
# 画每一个轮廓
cv2.drawContours(src, contours, i, (0, 0, 255), 2)
# 找到每一个形状的方向
getOrientation(c, src)
cv2.imshow('output', src)
cv2.waitKey()
cv2.destroyAllWindows()
cv2.PCACompute( data, mean[, eigenvectors[, maxComponents]] ) -> mean, eigenvectors
cv2.PCACompute( data, mean, retainedVariance[, eigenvectors] ) -> mean, eigenvectors
cv2.PCACompute2( data, mean[, eigenvectors[, eigenvalues[, maxComponents]]] ) -> mean, eigenvectors, eigenvalues
cv2.PCACompute2( data, mean, retainedVariance[, eigenvectors[, eigenvalues]] ) -> mean, eigenvectors, eigenvalues
wrap PCA::operator() , performs PCA
- data: 输入的数据
- mean: 均值,
- eigenvectors: 特征向量
- eigenvalues: 特征值
- maxComponents: 最多主成分数量, 默认就是所有的主成分
- retainedVariance: 主成分分析应保留的方差百分比。使用此参数将让PCA决定保留多少个组件,但它总是至少保留2个