图卷积神经网络之 - 图傅立叶变换的解释

L = np.array([
    [ 2, -1,  0, -1],
    [-1,  2, -1,  0],
    [ 0, -1,  2, -1],
    [-1,  0, -1,  2]
])

上述4个节点的简单无向图进行图傅立叶变换:

  1. 我们计算了图拉普拉斯矩阵 L L L 的特征值和特征向量。特征值是:

    λ = [ 0 , 2 , 2 , 4 ] \lambda = \begin{bmatrix} 0, & 2, & 2, & 4 \end{bmatrix} λ=[0,2,2,4]

    特征向量 U U U(归一化后)是:

    U = [ − 0.5 0 0.707 0.5 − 0.5 − 0.707 0 − 0.5 − 0.5 0 − 0.707 0.5 − 0.5 0.707 0 − 0.5 ] U = \begin{bmatrix} -0.5 & 0 & 0.707 & 0.5 \\ -0.5 & -0.707 & 0 & -0.5 \\ -0.5 & 0 & -0.707 & 0.5 \\ -0.5 & 0.707 & 0 & -0.5 \end{bmatrix} U= 0.50.50.50.500.70700.7070.70700.70700.50.50.50.5

  2. 我们定义了一个信号 x = [ 1 2 3 4 ] T x = \begin{bmatrix}1 & 2 & 3 & 4\end{bmatrix}^T x=[1234]T,这个信号在图的节点上有不同的值。

  3. 图傅立叶变换 x ^ = U T x \hat{x} = U^T x x^=UTx 将这个信号转换到频域,结果是:

    x ^ = [ − 5 , 1.414 , − 1.414 , − 1 ] \hat{x} = \begin{bmatrix} -5, & 1.414, & -1.414, & -1 \end{bmatrix} x^=[5,1.414,1.414,1]

  4. 图傅立叶逆变换 x = U x ^ x = U \hat{x} x=Ux^ 将变换后的信号 x ^ \hat{x} x^ 转换回空间域,结果是原始信号 x x x

    x = [ 1 , 2 , 3 , 4 ] T x = \begin{bmatrix} 1, & 2, & 3, & 4 \end{bmatrix}^T x=[1,2,3,4]T

这表明图傅立叶变换及其逆变换可以无损地在图的空间域和频域之间转换信号。在这个过程中,特征向量定义了图的频域,而特征值类似于传统傅立叶变换中的频率。

from scipy.linalg import eigh

# 使用前面计算的拉普拉斯矩阵L
L = np.array([
    [ 2, -1,  0, -1],
    [-1,  2, -1,  0],
    [ 0, -1,  2, -1],
    [-1,  0, -1,  2]
])

# 计算特征值和特征向量
eigenvalues, eigenvectors = eigh(L)

# 假设有一个信号x,定义在图的节点上
x = np.array([1, 2, 3, 4])

# 图傅立叶变换
x_hat = eigenvectors.T @ x

# 图傅立叶逆变换
x_reconstructed = eigenvectors @ x_hat

# 显示特征值和特征向量,以及变换后的信号和重构的信号
eigenvalues, eigenvectors, x_hat, x_reconstructed

执行结果:

(array([2.66453526e-15, 2.00000000e+00, 2.00000000e+00, 4.00000000e+00]),

 array([[-5.00000000e-01,  0.00000000e+00,  7.07106781e-01, 5.00000000e-01],
        [-5.00000000e-01, -7.07106781e-01, -4.57558474e-16, -5.00000000e-01],
        [-5.00000000e-01,  2.87079964e-16, -7.07106781e-01, 5.00000000e-01],
        [-5.00000000e-01,  7.07106781e-01, -1.70478510e-16, -5.00000000e-01]]),

 array([-5.        ,  1.41421356, -1.41421356, -1.        ]),
 
 array([1., 2., 3., 4.]))

你可能感兴趣的:(高级人工智能,cnn,机器学习,人工智能)