卷积操作中的矩阵乘法(gemm)—— 为什么矩阵乘法是深度学习的核心所在

1. 全连接


卷积操作中的矩阵乘法(gemm)—— 为什么矩阵乘法是深度学习的核心所在_第1张图片

  • k 个输入;
  • n 个神经元;
    • 每个神经元都会学到一组权值向量,以和输入进行内积运算;
  • n 个输出;

2. 卷积

卷积操作对于高维(多个平面)的输入,单个卷积核的深度应和输入的深度(depth)保持一致:


卷积操作中的矩阵乘法(gemm)—— 为什么矩阵乘法是深度学习的核心所在_第2张图片

3 维卷积运算执行完毕,得一个 2 维的平面:


卷积操作中的矩阵乘法(gemm)—— 为什么矩阵乘法是深度学习的核心所在_第3张图片

注, n 个3维卷积核以得到 n 个 feature maps;

3. 卷积操作中的矩阵乘法

  • 按 [kernel_height, kernel_width, kernel_depth] ⇒ 将输入分成 3 维的 patch,并将其展成一维向量;


    卷积操作中的矩阵乘法(gemm)—— 为什么矩阵乘法是深度学习的核心所在_第4张图片

  • 此时的卷积操作就可转化为矩阵乘法:


    卷积操作中的矩阵乘法(gemm)—— 为什么矩阵乘法是深度学习的核心所在_第5张图片

references

  • Why GEMM is at the heart of deep learning

你可能感兴趣的:(深度学习,可视化)