CUDA入门

CUDA API包括三个,从低到高等级分别为 Thrust API  Runtime API   Driver API

 

用于CUDA的GPU是安装于主机系统中的独立设备

GPGPU运行在一个和主处理器相隔离的存储空间中

CUDA Kernel是可在主机代码中调用而在CUDA设备上运行的子程序(Kernel没有返回值)

Kernel的调用时异步的,即主机仅仅把要执行的Kernel顺序提交给GPGPU,并不等待执行完成,然后直接处理后面的其他任务

  cudaThreadSynchronize() 使主机进入阻塞状态

  cudaMemory() 实现阻塞式数据传输

GPU上的基本运行单位是线程

GPU上最大的可共享的内存区域成为全局内存

  常量内存、高速缓存、共享内存、局域内存、纹理内存、寄存器

 

GPGPU编程的三条法则

  1 将数据放入病始终存储于GPGPU

    pcie总线速度大概是8gb/s,而GPU全局内存的速度大概是160-200gb/s

  2 交给GPGPU足够多的任务

    传输数据还要消耗时间,因此,最好让GPU工作时间能补偿传输所浪费的资源

  3 注重GPGPU上的数据重用,以避免带宽限制

    尽量重用数据以获取高性能

 

回归测试:经常用一段代码作为回归测试,测试kernel函数的正确性

你可能感兴趣的:(入门)