Better Performance at Lower Occupancy(三)使用更少线程运行更快

使用更少线程意味着每个线程拥有更多的寄存器。

  Better Performance at Lower Occupancy(三)使用更少线程运行更快_第1张图片

  每个线程的寄存器数:

  GF100:在100%占用率时有20个,在33%占用率时63个,为3倍。

  GT200:在100%占用率时有16个,在12.5%占用率时约有128个,为8倍

  那么每个线程有更多的寄存器是不是更好呢?

  只有寄存器的速度才能足够达到峰值。考虑这样一个计算: a*b+c:2个flops,12B输入,4B输出,则对于1.3Tflop/s的计算峰值,需要8.1TB/s的带宽,寄存器可以满足这样的要求,我们来看看共享内存(shared memory)能不能达到?

  只有 4B*32banks*15SMs*half 1.4GHz = 1.3TB/s

  需要的带宽和可以达到的带宽比较:

  Better Performance at Lower Occupancy(三)使用更少线程运行更快_第2张图片

  lz:可以看出共享内存的带宽是全局内存(显存)的7.6倍,而寄存器是共享内存的6倍,至少需要8TB/s的带宽才能让GPU的计算达到峰值,寄存器可以做到(废话,做不到这个计算峰值就根本不存在了)。

  谬误:“事实上,对一个warp中的所有线程来说,如果线程间没有bank conflicts,访问共享内存和访问寄存器一样快。”(CUDA Programming Guide)

  不,在Fermi架构中,共享内存的带宽比寄存器慢6倍以上。(非Fermi为3倍)

  运行更快可能需要更低的占用率:

  1. 必须使用寄存器才能接近峰值。

  2. 不同存储的带宽差距越大,越多的数据就必须从寄存器中读取。

  3. 而使用越多的寄存器意味着越低的占用率。

  这常常可以通过每个线程计算更多的输出来完成。

  Better Performance at Lower Occupancy(三)使用更少线程运行更快_第3张图片

  对线程来说,越多的数据存放于寄存器意味着越少次数的共享内存访问。越少的线程,但每个线程做越多的工作,使得低占用率不成问题。

  从Tesla到Fermi是一种倒退吗?

  共享内存带宽和计算带宽的差距增加了:

  Better Performance at Lower Occupancy(三)使用更少线程运行更快_第4张图片

  使用快速的寄存器会有帮助,但寄存器的数目被严格限制:

  G80-GT200: 每个线程最多128个寄存器。

  Fermi:每个线程最多64个寄存器。

你可能感兴趣的:(CUDA)