卷积神经网络加速(一)HLS directive常用优化参数的约束效果

以矩阵乘法CC[3][3]=AA[3][3]*BB[3][3]为例(均为16位无符号数),分析HLS常用优化参数loop_flatten、pipeline、unroll的约束效果。

1、模块代码如下:

#define N 3

void shift_led(data_type AA[N*N],data_type BB[N*N],data_type CC[N*N])
{
    int i,j,k;
    i_loop:for(i = 0;i     {
        j_loop:for(j = 0;j         {
            data_type sum = 0;
            k_loop:for(k = 0;k                     {
                        sum += AA[i*N+k]*BB[k*N+j];
                    }
            CC[i*N+j] = sum;
        }

    }
}
 

2、各约束效果如下:

最内层循环约束 占用DSP48个数 整体latency 迭代次数 迭代内部latency 时序timing
没有约束 1 160 3/3/3 53/17/5 match
loop_flatten 1 162 27 6 match
pipeline 1 31 27 6 violation
unroll 3 70 3/3 23/7 match

3、结论:没有哪种约束是最优的,为了满足电路优化目标,只能牺牲其他参数。

      a)在最内层循环设置loop_flatten,整体延迟跟没有约束效果相同。

      b)在最内层循环设置pipeline,会打平所有循环形成流水线,整体延迟显著减少,但是时序报错。

      c) 在最内层循环设置unroll,会降低该层的延迟,从而降低整体延迟,代价是乘法器数量增加。

你可能感兴趣的:(卷积神经网络加速(一)HLS directive常用优化参数的约束效果)