NVIDIA Deep Learning Accelerator (DLA) 输入输出的几种张量格式

模型部署


文章目录

  • 模型部署
  • TensorRT输入/输出张量的格式
    • LINEAR
  • 前言
  • 参考


TensorRT输入/输出张量的格式

输入/输出张量的格式。
插件和网络I/O张量都使用此枚举。
有关数据格式的更多信息,请参阅TensorRT开发者指南中的主题“数据格式说明”(https://docs.nvidia.com/deeplearning/sdk/tensorrt-developer-guide/index.html)。

LINEAR

行主要线性格式。
对于维度为{N,C,H,W}的张量,W轴总是具有单位步幅,并且每隔一个轴的步幅至少是下一个维度乘以下一个步幅的乘积。步幅与具有尺寸[N][C][H][W]的C阵列的步幅相同。
第2页:
两种宽通道矢量化行主格式。
此格式绑定到FP16。它仅适用于尺寸>=3的情况。
对于维度为{N,C,H,W}的张量,存储器布局等效于维度为[N][(C+1)/2][H][W][2]的C阵列,其中张量坐标(N,C,H,W)映射到阵列下标[N][C/2][H][W][C%2]。
硬件控制8:
八通道格式,其中C被填充为8的倍数。
此格式绑定到FP16。它仅适用于尺寸>=3的情况。
对于维度为{N,C,H,W}的张量,存储器布局等效于维度为[N][H][W][(C+7)/88]的数组,张量坐标(N,C,H,W)映射到数组下标[N][H][W][C]。
第4页:
四种宽通道矢量化行主格式。此格式绑定到INT8。它仅适用于尺寸>=3的情况。
对于维度为{N,C,H,W}的张量,存储器布局等效于维度为[N][(C+3)/4][H][W][4]的C阵列,其中张量坐标(N,C,H,W)映射到阵列下标[N][C/4][H][W][C%4]。
第16页:
十六种宽通道矢量化行主格式。
此格式绑定到FP16。它仅适用于尺寸>=3的情况。
对于维度为{N,C,H,W}的张量,存储器布局等效于维度为[N][(C+15)/16][H][W][16]的C阵列,张量坐标(N,C,H,W)映射到阵列下标[N][C/16][H][W][C%16]。
第32页:
三十二宽通道矢量化行主格式。
此格式仅适用于尺寸>=3。
对于维度为{N,C,H,W}的张量,存储器布局等效于维度为[N][(C+31)/32][H][W][32]的C阵列,张量坐标(N,C,H,W)映射到阵列下标[N][C/32][H][W][C%32]。
DHWC8:
八通道格式,其中C被填充为8的倍数。
此格式绑定到FP16,并且仅适用于尺寸>=4的情况。
对于维度为{N,C,D,H,W}的张量,存储器布局等效于维度为[N][D][H][W][(C+7)/8
8]的数组,张量坐标(N,C,D,H,W)映射到数组下标[N][D][H][W][C]。
CDHW32:
32个宽通道矢量化行主格式,具有3个空间维度。
此格式绑定到FP16和INT8。它仅适用于尺寸>=4的情况。
对于维度为{N,C,D,H,W}的张量,存储器布局等效于维度为[N][(C+31)/32][D][H][W][32]的C阵列,其中张量坐标(N,D,C,H,W)映射到阵列下标[N][C/32][D][H][W][C%32]。
硬件控制:
非矢量化通道最后一种格式。此格式绑定到FP32,仅适用于尺寸>=3的情况。
DLA_线性:
DLA平面格式。行主格式。沿H轴步进的步幅四舍五入为64字节。
此格式绑定到FP16/Int8,仅适用于尺寸>=3的情况。
对于维度为{N,C,H,W}的张量,存储器布局等效于维度为[N][C][H][roundUp(W,64/elementSize)]的C阵列,其中FP16的elementSize为2,Int8的elementSize为1,张量坐标(N,C,H,W)映射到数组下标[N][C][H][W]。
DLA_HWC4:
DLA图像格式。通道最后一种格式。C只能是1、3、4。如果C==3,则四舍五入为4。沿H轴步进的步幅四舍五入为32字节。
此格式绑定到FP16/Int8,仅适用于尺寸>=3的情况。
对于维度为{N,C,H,W}的张量,当C分别为1,3,4时,C’为1,4,4,存储器布局等效于维度为[N][H][roundUp(W,32/C’/elementSize)][C’]的C数组,其中FP16的elementSize为2,Int8的elementSize为1,C’为舍入的C。张量坐标(N,C,H,W)映射到数组下标[N][H][W][C]。
硬件16:
十六通道格式,其中C被填充为16的倍数。此格式绑定到FP16。它仅适用于尺寸>=3的情况。
对于维度为{N,C,H,W}的张量,存储器布局等效于维度为[N][H][W][(C+15)/16*16]的数组,张量坐标(N,C,H,W)映射到数组下标[N][H][W][C]。
DHWC公司:
非矢量化通道最后一种格式。此格式绑定到FP32。它仅适用于尺寸>=4的情况。

前言

DLA_LINEAR 是 NVIDIA Deep Learning Accelerator (DLA) 所支持的一种内存组织方式,它是一种行优先存储的连续内存块格式,用于存储卷积层和全连接层的输入输出数据。在 DLA_LINEAR 格式中,每个元素都是一个定点数,可以是 8 位或 16 位,具体取决于网络的精度要求。
在 DLA_LINEAR 格式中,一维数组中的每个元素都是一个定点数,代表了卷积核或全连接层的一个输入或输出通道的值。对于卷积层输入数据来说,一维数组中的每个元素表示了一个图像块中的所有通道的值,而对于卷积层输出数据和全连接层数据来说,一维数组中的每个元素表示了一个样本的所有通道的值。具体来说,对于一个大小为 (B, C, H, W) 的输入数据,它在 DLA_LINEAR 格式中的内存布局如下:

DLA_LINEAR[N] = [x11, x12, ..., x1C, x21, x22, ..., x2C, ..., xB1, xB2, ..., xBC],

其中 N = B * C * H * W,xij 表示第 i 个样本的第 j 个通道的第一个元素的值,元素按照行优先存储。
例如,假设有一个大小为 (2, 3, 4, 4) 的输入数据,它在 DLA_LINEAR 格式中的存储方式如下:

input = np.arange(2 * 3 * 4 * 4).reshape((2, 3, 4, 4)).astype(np.int8)
input_linear = input.transpose((0, 2, 3, 1)).reshape((-1,))
print(input_linear)

输出:

[  0   1   2   3   4   5   6   7   8   9  10  11  12  13  14  15  16  17
  18  19  20  21  22  23  24  25  26  27  28  29  30  31  32  33  34  35
  36  37  38  39  40  41  42  43  44  45  46  47  48  49  50  51  52  53
  54  55  56  57  58  59  60  61  62  63   0   1   2   3   4   5   6   7
   8   9  10  11  12  13  14  15  16  17  18  19  20  21  22  23  24  25
  26  27  28  29  30  31  32  33  34  35  36  37  38  39  40  41  42  43
  44  45  46  47  48  49  50  51  52  53  54  55  56  57  58  59  60  61
  62  63  64  65  66  67  68  69  70  71  72  73  74  75  76  77  78  79
  80  81  82  83  84  85  86  87  88  89  90  91  92  93  94  95  96  97
  98  99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115
 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133
 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151
 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169
 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187
 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205
 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223
 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241
 242 243 244 245 246 247 248 249 250 251 252 253 254 255]

可以看到,原先的 (2, 3, 4, 4) 的四维数组被转换成了一个长度为 192 的一维数组,每个元素都是一个 int8 类型的定点数。

参考

https://docs.nvidia.com/deeplearning/tensorrt/api/python_api/infer/Graph/LayerBase.html
https://blog.csdn.net/kunhe0512/article/details/125446514

你可能感兴趣的:(深度学习,深度学习,人工智能)