【动手学深度学习】(十三)深度学习硬件

文章目录

  • 一、CPU和GPU
  • 二、更多的芯片
    • 1.DSP:数字信号处理
    • 2.可编程阵列(FPGA)
    • 3.AI ASIC
  • 三、单机多卡并行

一、CPU和GPU


提升CPU利用率

  • 在计算a+b之前,需要准备数据
    • 主内存->L3->L2->L1->寄存器(数据只有进入寄存器才可以参与运算)
  • 提升空间和时间的内存本地性
    • 时间:重要数据使得保持它们在缓存里
    • 空间:按序读写数据使得可以预读取

GPU
【动手学深度学习】(十三)深度学习硬件_第1张图片
CPU vs GPU
【动手学深度学习】(十三)深度学习硬件_第2张图片
提升GPU利用率

  • 并行
    • 使用数千个线程
  • 内存本地性
    • 缓存更小,构建更加简单
  • 少用控制语句
    [总结]:
  • CPU:用于处理通用计算。性能优化考虑数据读写效率和多线程。
  • GPU:使用更小的核核更多的内存带宽,适合能大规模并行的计算任务。

二、更多的芯片

1.DSP:数字信号处理

【动手学深度学习】(十三)深度学习硬件_第3张图片

2.可编程阵列(FPGA)

【动手学深度学习】(十三)深度学习硬件_第4张图片

3.AI ASIC

【动手学深度学习】(十三)深度学习硬件_第5张图片
【动手学深度学习】(十三)深度学习硬件_第6张图片

三、单机多卡并行

  • 一台机器可以安装多个GPU(1-16)
  • 在训练和预测时,我们将一个小批量计算切分到多个GPU上来达到加速目的
  • 常用切分方案有:
    • 数据并行
    • 模型并行
    • 通道并行(数据+模型并行)

数据并行vs模型并行

  • 数据并行:将小批量分成n块,每个GPU拿到完整参数计算一块数据的梯度
    • 通常性能比更好
  • 模型并行:将模型分成n块,每个GPU拿到一块模型计算它的前向和方向结果
    • 通常用于模型大到单GPU放不下

你可能感兴趣的:(#,动手学深度学习,深度学习,人工智能)