tensorflow的CPU和GPU的区别

最近深度学习CPU根本不够用,老板配置了GPU 怎么能不会用呢?
原来从来没有关注过的底层东西,于是乎痛下决心搞清楚原理和操作


先来看看第一部分

为什么GPU比CPU更diao呢?
这里就需要从他么的区别入手
那他么的区别是什么呢?
这里就需要从他的原理出发了,由于其设计目标的不同,它们分别针对了两种不同的应用场景


CPU 需要很强的通用性
为了处理各种不同的数据类型,同时又要逻辑判断又会引入大量的分支跳转和中断的处理。这些都使得CPU的内部结构异常复杂。

While GPU 面对的是类型高度统一的、互相无依赖的大规模数据和不需要被打断的纯净的计算环境
于是乎:CPU和GPU就呈现出非常不同的架构(看图)

这里写图片描述

  • 鲜绿色:计算单元ALU(Arithmetic Logic Unit)
  • 橙红色:存储单元(cache)
  • 橙黄色:控制单元(control)

GPU:数量众多的计算单元和超长的流水线,只有简单的控制逻辑并省去了Cache
CPU:被Cache占据了大量空间,而且还有有复杂的控制逻辑和诸多优化电路

这里写图片描述

 

  1. Cache, local memory: CPU > GPU

  2. Threads(线程数): GPU > CPU

  3. Registers(寄存器): GPU > CPU 多寄存器可以支持非常多的Thread
  4. thread需要用到register,thread数目大register也必须得跟着很大才行。
  5. SIMD Unit(单指令多数据流,以同步方式,在同一时间内执行同一条指令): GPU > CPU。

文字很麻烦吧,可以形象的看[这个视频 挺有意思的]

  1. CPU有强大的ALU, 可以在很少的时钟周期内完成算术计算,可以达到64bit
    双精度,执行双精度浮点源算的加法和乘法只需要1~3个[时钟周期]

  2. CPU的时钟周期的频率非常高,达到1.532~3gigahertz(千兆HZ, 10的9次方).


再看看GPU

这里写图片描述

GPU是基于大的吞吐量
特点:很多的ALU和很少的cache

  • 缓存的目的不是保存后面需要访问的数据,这点和CPU不同,而是为thread提高服务

    如果有很多线程需要访问同一个相同的数据?
    缓存会合并这些访问,然后再去访问dram(因为需要访问的数据保存在dram中而不是cache里面)

    获取数据后cache会转发这个数据给对应的线程,这个时候是数据转发的角色,由于需要访问dram,自然会带来延时的问题。

    GPU的控制单元(左边黄色区域块)可以把多个的访问合并成少的访问。


总的来说:有一个例子说的很好

  • GPU的工作大部分就是这样,计算量大,而且要重复很多很多次。就像你有个工作需要算几亿次一百以内加减乘除一样,最好的办法就是雇上几十个小学生一起算,一人算一部分

  • CPU就像老教授,积分微分都会算,就是工资高,一个老教授资顶二十个小学生,你要是富士康你雇哪个

  • CPU和GPU因为最初用来处理的任务就不同,所以设计上有不小的区别,而某些任务和GPU最初用来解决的问题比较相似,所以用GPU来算了
    -
  • GPU的运算速度取决于雇了多少小学生,CPU的运算速度取决于请了多么厉害的教授。教授处理复杂任务的能力是碾压小学生的,但是对于没那么复杂的任务,还是顶不住人多。
    -
  • 当然现在的GPU也能做一些稍微复杂的工作了,相当于升级成初中生高中生的水平。但还需要CPU来把数据喂到嘴边才能开始干活,究竟还是靠CPU来管的。

GPU适合干什么活?

(1)计算密集型的程序

所谓计算密集型(Compute-intensive)的程序,就是其大部分运行时间花在了寄存器运算上,寄存器的速度和处理器的速度相当,从寄存器读写数据几乎没有延时。

可以做一下对比,读内存的延迟大概是几百个时钟周期;读硬盘的速度就不说了,即便是SSD, 也实在是太慢了。

(2)易于并行的程序。

GPU其实是一种SIMD(Single Instruction Multiple Data)架构, 他有成百上千个核,每一个核在同一时间最好能做同样的事情。

原文地址:https://blog.csdn.net/sinat_36458870/article/details/78783587

你可能感兴趣的:(深度学习,硬件)