PyTorch源码浅析(2):THC

这篇主要看 Torch CUDA 部分,对应源码目录aten/src/THC,里面包含了许多C++和CUDA代码。这部分实现了操作 THCTensor 和 THCStorage 的接口,不过底层用的数据结构还是TensorImpl和StorageImpl。THC里的接口也是通过C语言范式实现的,但是Apply系列操作不再由宏来实现,而是使用了C++模板。其他的区别还有allocator不同,以及多了 THCState 结构。

记号:
TH = TorcH
THC = TorcH Cuda

目录

THCState
THCAllocator
THCCachingAllocator
THCCachingHostAllocator
THCApply

总结

THCState
通过观察THC里面实现的接口不难发现,几乎每个接口都需要传入一个THCState*参数,而这是在TH中没有的,这个THCState的声明在THCGeneral.hpp中:

struct THCState {
  // 貌似是用来生成随机数的
  struct THCRNGState* rngState;
  // 记录每个CUDA设备的cuBLAS句柄和cuSparse句柄
  THCCudaResourcesPerDevice* resourcesPerDevice;
  
  // cuda设备个数
  int numDevices; 	

  at::Allocator* cudaHostAllocator;     // 内存分配器
  at::Allocator* cudaDeviceAllocator;   // 显存分配器

  // 二维数组,大小为 numDevices * numDevices
  // 数组中的每一项 i, j 记录了 CUDA_i 能否直接从 CUDA_j 复制数据
  // 如果值为 1 代表允许拷贝,0 代表不允许,-1 代表不知道(默认值)
  int** p2pAccessEnabled;
};

THCState是一个全局CUDA状态,记录了CUDA设备的所有有用的信息,它的初始化在THCGeneral.cpp中,代码并不难理解。

注 host和device:在CUDA编程中,host 指的是CPU和它的内存,而 device 指GPU及其显存。在 host 上运行的代码可以操控内存和显存,还可以启动 kernels 在GPU上计算。因为CUDA编程的这些特性,一个典型CUDA程序的执行过程为:

  1. 分配内存和显存空间
  2. 初始化内存数据(host)
  3. 把数据从内存 (host) 传送到显存 (device)
  4. 执行 kernels
  5. 把结果从显存 (device) 传回内存 (host)

THCAllocator

THCCachingAllocator

查看THCState初始化的代码不难发现,显存分配器cudaDeviceAllocator的类型为CudaCachingAllocator,它的实现在c10/cuda/CUDACachingAllocator.cpp中。进一步观察后发现,CudaCachingAllocator调用的分配内存函数实际上是THCCachingAllocator实现的,THCCachingAllocator不光向系统请求分配显存,还实现了缓存管理系统,我们主要来看一下THCCachingAllocator的实现。

首先声明一个内存区块的结构体,里面存储设备、stream、区块大小等信息:

struct Block {
  int           device;      // gpu
  cudaStream_t  stream;      // allocation stream
  stream_set    stream_uses; // streams on which the block was used
  size_t        size;        // block size in bytes
  char*         ptr;         // memory address
  bool          allocated;   // in-use flag      
  int           event_count; // number of outstanding CUDA events
  // prev block if split from a larger allocation
  Block*        prev;
  // next block if split from a larger allocation
  Block*        next;
  
  Block(int device, cudaStream_t stream, size_t size) :
      device(device), stream(stream), stream_uses(), size(size),
      ptr(ptr), allocated(0), prev(NULL), next(NULL),
      event_count(0) { }
};

为了方便比较查找,为Block定义比较大小的方法:

static bool BlockComparator(const Block* a, const Block* b)
{
  // 首先比较设备ID
  if (a->device != b->device) {
    return a->device < b->device;
  }
  // 再比较stream id
  if (a->stream != b->stream) {
    return (uintptr_t)a->stream < (uintptr_t)b->stream;
  }
  // 再比较区块大小
  if (a->size != b->size) {
    return a->size < b->size;
  }
  // 最后比较内存地址大小
  return (uintptr_t)a->ptr < (uintptr_t)b->ptr;
}

使用此比较函数的话Block(device, NULL, 0)就是设备device上区块大小的下限,而Block(device + 1, NULL, 0)则是设备device上的区块大小上限。

接下来看THCCachingAllocator定义的属性:

struct THCCachingAllocator
{
  typedef bool (*Comparison)(const Block*, const Block*);
  typedef std::set<Block*, Comparison> FreeBlocks;

  // device statistics
  std::vector<DeviceStats> device_stats;

  // lock around all operations
  std::mutex mutex;

  // lock around calls to cudaFree (to prevent deadlocks with NCCL)
  std::mutex cuda_free_mutex;

  // cached blocks larger than 1 MB
  FreeBlocks large_blocks;

  // cached blocks 1 MB or smaller
  FreeBlocks small_blocks;

  // allocated blocks by device pointer
  std::unordered_map<void*, Block*> allocated_blocks;

  // outstanding cuda events
  std::deque<std::pair<cudaEvent_t, Block*>> cuda_events;

  THCCachingAllocator() :
      large_blocks(BlockComparator),
      small_blocks(BlockComparator) {}
}

每个属性是干什么的注释已经写的很清楚了,注意到FreeBlocks类型是Block的有序集合,曾经分配过但是用完了的内存会被缓存起来,大于1M的分块会进入large_blocks,小于等于1M的分块进入small_blocks。之后再向分配器申请内存时会先从缓存里面分配,分配策略为Best-fit,即返回大于等于所需大小的最小分块(使用set::lower_bound实现)。如果缓存中的所有分块都小于目标大小,那么会尝试cudaMalloc分配目标大小的内存,如果还是失败的话就把缓存release了再试cudaMalloc,如果还是分配失败就会报内(显)存不足的错误。

如果上面某一步分配内存成功了,由于分配的块很有可能比实际需要的size大,所以还要进行切割操作。切割操作就是判断多余的大小是否大于1M,如果大于1M就插入到large_blocks,否则插入到small_blocks中,然后再设置一下prev和next指针即可。

分配内存的(简略)实现如下:

/** 
 * allocates a block which is safe to use from the provided stream 
 */
void THCCachingAllocator::malloc(void** devPtr, size_t size, cudaStream_t stream)
{
  // 加锁,函数返回时自动释放
  std::lock_guard<std::mutex> lock(mutex);
  // 获取设备ID
  int device;
  C10_CUDA_CHECK(cudaGetDevice(&device));
  // 类似四舍五入
  size = round_size(size);
  bool small = size <= kSmallAlloc;

  // 搜索目标
  Block search_key(device, stream, size);
  // 判断应该从哪个集合分配
  auto& free_blocks = small ? small_blocks : large_blocks;

  Block* block = NULL;
  Block* remaining = NULL;

  // 搜索大于等于目标的第一个块
  auto it = free_blocks.lower_bound(&search_key);
  if (it != free_blocks.end() && (*it)->device == device && (*it)->stream == stream) {
    // 如果device和stream和目标相同的话就分配该块内存
    block = *it;
    free_blocks.erase(it);
  } else {
    void* ptr;
    size_t alloc_size = small ? kSmallAlloc : size;
    // 尝试向系统申请内存
    cudaError_t err = cuda_malloc_retry(device, &ptr, alloc_size);
    if (err != cudaSuccess) {
      if (err == cudaErrorMemoryAllocation) {
        const auto& stats = get_stats_for_device(device);
        // 报错:分配内存失败!
        AT_ERROR("CUDA out of memory. Tried to allocate");
      } else {
        C10_CUDA_CHECK(err);
      }
    }
    block = new Block(device, stream, alloc_size, (char*)ptr);
  }

  if (block->size - size >= (small? kRoundSmall : kSmallAlloc+1)) {
    remaining = block;
    // 切割多余内存块
    block = new Block(device, stream, size, block->ptr);
    block->prev = remaining->prev;
    if (block->prev) {
      block->prev->next = block;
    }
    block->next = remaining;

    remaining->prev = block;
    remaining->ptr += size;
    remaining->size -= size;
    // 把剩余块插入缓存
    free_blocks.insert(remaining);
  }

  block->allocated = true;
  allocated_blocks[block->ptr] = block;

  *devPtr = (void*)block->ptr;
}

释放内存的时候不会把内存直接还给系统,而是缓存起来根据块大小插入large_blocks或small_blocks,在插入之前还会检查能否和之前被切割的部分合并。

注 CUDA架构:从硬件上看,CUDA设备含有 SP (Streaming Processor) 和 SM (Streaming
Multiprocessor);从软件上看,有 thread, block, grid, 和 warp 等概念。

SP:最基本的处理单元,最后具体的指令都是在SP上处理的。

SM:多个SP加上其他资源,如:warp scheduler, register, shared
memory等组成的大核,相当于CPU的核心。

thread:普通的线程,运行在SP上。

block:多个线程会组成一个block,同一个block中的线程可以通过shared
memory通信。同一个block中的线程在同一个SM中执行。

grid:多个block构成一个grid。

warp:调度和运行的基本单元,包含多个线程。每个线程执行相同指令,但是数据不同(SIMT)。一个warp需要占用一个SM运行,多个warps需要轮流进入SM。

stream:一个GPU操作队列,该队列中的操作将以添加到流中的先后顺序而依次执行。

THCCachingHostAllocator

THCState中还有一个内存分配器cudaHostAllocator用来分配main memory,这个分配器指针指向HostAllocator,实现在aten/src/THC/THCCachingHostAllocator.cpp中。这个分配器的实现和上面的类似,也提供了缓存功能。值得注意的是,它向系统分配内存是用的cudaHostAlloc()函数,这是cuda库函数,它与malloc()不同。malloc()分配的标准的、可分页的主机内存,而cudaHostAlloc()分配的是页锁定的主机内存,也称作固定内存 (pinned memory)。它的一个重要特点是操作系统将不会对这块内存分页并交换到磁盘上,从而保证了内存始终驻留在物理内存中。由于GPU知道内存的物理地址,因此就可以使用DMA技术来在GPU和CPU之间复制数据,加快复制速度。

THCApply

和TH中一样,THC也有Apply系列函数,不同的是THC中的Apply不再用宏实现,而是用C++模板函数实现,代码在src/THC/THCApply.cuh。

首先来看直接运行在GPU上的kernel的实现:

template <typename Op,
          typename Ta,
          typename IndexType,
          int ADims>
__global__ void
kernelPointwiseApply1(const OffsetInfo<Ta, IndexType, ADims> a,
                      IndexType totalElements,
                      Op op) {
  for (IndexType linearIndex = (IndexType) blockIdx.x * blockDim.x + threadIdx.x;
       linearIndex < totalElements;
       linearIndex += (IndexType) gridDim.x * blockDim.x) {
    op(a.get(linearIndex));
  }
}

上面的kernel实现了对Tensor的一元操作,也就是对Tensor中的每一个都数据都执行op操作,二元和三元操作与一元操作代码类似,就不列出了。这段理解起来不难,只有三点需要特殊说明一下:

函数对象

模板参数中的Op是函数对象类型,它实现了operator()方法,这样的话它的实例对象就可以直接当函数来用,如:

struct IntComparator
{
  bool operator()(const int &a, const int &b) const
  {
    return a < b;
  }
};

这就是一个很常用的用来比较整数大小的函数对象类型,它可以这样用:

IntComparator op;
op(1, 2);							// true

函数对象类似于函数指针,但有两个优点:第一是编译器可以内联执行函数对象的调用;第二是函数对象内部可以保持状态。

循环下标

循环的下标每次增加gridDim.x * blockDim.x,而不是通常的1,这就涉及到kernel是如何执行的了。首先kernel被分配到多个Grid上执行,每个Grid里有多个Block,每个Block里有多个Thread,这些线程(Thread)都执行相同的代码,也就是kernel。为了让这些线程分工合作,每个线程都记录了gridDim blockDim,blockIdx, 和threadIdx,分别代表Grid维度,Block维度,Block ID,和Thread ID。在这里,Grid和Block都是一维的,所以当前线程的全局ID可以通过

blockIdx.x * blockDim.x + threadIdx.x

得到,其中blockIdx.x表示第几个Block,blockDim.x是一个Block内有多少线程,threadIdx.x是该线程在Block内的ID。

再看下标递增的间隔gridDim.x * blockDim.x实际上是执行这个kernel的线程个数,即一个Grid内的Block数 × 一个Block内线程数。这样的好处是,如果不同线程要读取的内存是连续的,则这些内存读取可以捆绑到一起进行,加快了内存读取速度,如下图。

OffsetInfo

注意到循环体里只有一句代码:

op(a.get(linearIndex));

意思对第linearIndex个数据进行op操作。由于linearIndex是线性地址,并不是数据真正的内存偏移,所以 a.get()的作用是把线性地址转换为实际数据的存储地址,而a的类型是OffsetInfo

转换的算法其实很简单,线性地址就是第几个数据,比如x[0][0]是第0个数据,线性地址就是0,x[0][1]的线性地址就是1,x[i][j]的线性地址就是i * size[0] + j。而且我们知道x[i][j]的内存偏移为i * strides[0] + j * strides[1],那么转换算法要做的就是把线性地址转换为ijk下标,然后再把下标转化为内存地址:

template <typename T, typename IndexType>
struct IndexToOffset<T, IndexType, -1> {
  static inline __host__ __device__ IndexType get(
    IndexType linearId,
    const TensorInfo<T, IndexType>& info) {

    IndexType offset = 0;

    // 从最外围下标开始计算
    for (int i = info.dims - 1; i > 0; --i) {
    	// 求出第i维下标
      IndexType curDimIndex = linearId % info.sizes[i];
      // 转换为内存偏移
      IndexType curDimOffset = curDimIndex * info.strides[i];
      // 和总偏移相加
      offset += curDimOffset;
      // 计算第i-1维的线性地址
      linearId /= info.sizes[i];
    }

    return offset + linearId * info.strides[0];
  }
};

细心的读者可能注意到了,上面的函数是IndexToOffset的方法,并不是OffsetInfo的,实际上后者对非负整数除法和取余进行了优化,把除法转换为一系列乘法,从而加快计算速度。

大致思想是这样的,假设我们要计算 ⌊nd⌋,对任意N位非负整数d,总可以找到一个 magic number m 和 s,使得:
⌊nd⌋=⌊m×n2N+s⌋
这样就把除法操作转化为乘法和右移了。

那么怎么找 m 和 s 呢,非常简单:
s=⌈log2d⌉m=⌊2N×(2s−d)d⌋+2N+1
对于固定的除数 d,这两个参数是不会变的,如果需要多次除以 d,则可以提前计算好 m 和 s,在计算时加快速度。注意到计算 m 时也是需要除法运算的,所以如果这个除数只用一次的话,那么用快速除法是没意义的(除非m是在编译期计算的)。关于这个式子的证明和推导看这里。

代码中,OffsetInfo的实现实际上是跟模板参数Dims相关的,如果维度能在编译期给出的话(值非-1),则在生成OffsetInfo对象时计算 m 和 s,以备之后使用:

template <typename T, typename IndexType, int Dims>
struct OffsetInfo {
  explicit OffsetInfo(const TensorInfo<T, IndexType>& tinfo) {
    assert(tinfo.dims == Dims);
    data = tinfo.data;

    for (int i = 0; i < Dims; ++i) {
      // 提前计算 m, s (实现在 IntDivider 类中)
      sizes[i] = IntDivider<IndexType>(tinfo.sizes[i]);
      strides[i] = tinfo.strides[i];
    }
  }

  __host__ __device__ T* get(IndexType linearIndex) const {
    IndexType offset = 0;

    for (int i = Dims - 1; i > 0; --i) {
      // 使用快速除法
      DivMod<IndexType> divmod = sizes[i].divmod(linearIndex);
      linearIndex = divmod.div;
      offset += divmod.mod * strides[i];
    }

    return &data[offset + linearIndex * strides[0]];
  }

  T* data;
  // Dims 是编译期常量,所以 sizes 和 strides 是静态分配的
  IntDivider<IndexType> sizes[Dims];
  IndexType strides[Dims];
};

如果创建OffsetInfo时,Dims的值为-1的话,代表Tensor的大小不是固定的,这样的话OffsetInfo::sizes和OffsetInfo::strides是动态分配的,就会触发NVCC的一个bug:if a kernel argument contains an array that is dynamically accessed, the whole array is first copied into the local memory. Pre-computation makes it worse because now we have more data to copy.

所以对于大小不固定(编译期不能给出具体维度)的Tensor采用之前的办法计算,这里使用了特化模板匹配Dims为-1的情况:

template <typename T, typename IndexType>
struct OffsetInfo<T, IndexType, -1> {
  explicit OffsetInfo(const TensorInfo<T, IndexType>& tinfo)
    : tinfo(tinfo) { }

  __host__ __device__ T* get(IndexType linearIndex) const {
    // 直接调用之前列出的 IndexToOffset::get 方法
    IndexType offset = IndexToOffset<T, IndexType, -1>::get(linearIndex, tinfo);
    return &tinfo.data[offset];
  }

  TensorInfo<T, IndexType> tinfo;
};

总结

总结一下,THC中的API的声明和实现都在generic目录下,API的形式是C风格范式:THCTensor_(xxx)(…)。这些函数几乎都会调用 apply 系列函数来在GPU中实现具体功能,而 apply 函数的核心在于传入的OP,这些OP都定义在THC/根目录下。

举个例子,来看一下THCTensor_fill(state, self, value)是怎么执行的,它的功能是把self指向的Tensor的每个元素赋值为value。这个API的定义在THC/generic/THCTensorMath.cu:

void THCTensor_(fill)(THCState* state, THCTensor *self_, scalar_t value)
{
  THCAssertSameGPU(THCTensor_(checkGPU)(state, 1, self_));

  if (!THC_pointwiseApply1<scalar_t>(
        state, self_, TensorFillOp<scalar_t>(value))) {
    THArgCheck(false, 1, CUTORCH_DIM_WARNING);
  }

  THCudaCheck(cudaGetLastError());
}

核心代码为:

THC_pointwiseApply1<scalar_t>(state, self_, TensorFillOp<scalar_t>(value))

这句话调用一元 apply 函数,传入的参数为 THCState, 要操作的Tensor和相应OP。THC_pointwiseApply1()会进行一些特殊情况的处理和优化,最后调用之前列出的apply kernel执行相应OP。

TensorFillOp定义在THC/THCTensorMath.cu中,

template <typename T>
struct TensorFillOp {
  TensorFillOp(T v) : val(v) {}
  __device__ __forceinline__ void operator()(T* v) { *v = val; }

  const T val;
};

注意到填入Tensor的值被保存为类的常量,而不是作为operator()的参数,这样才能统一接口,才能被kernelPointwiseApply1()直接调用。

调用过程的示意图如下:
PyTorch源码浅析(2):THC_第1张图片

你可能感兴趣的:(PyTorch源码浅析(2):THC)