在《深入理解计算机系统》这本书的时候,有一个这样的知识点引起了我的注意:
例如下面这段代码:
代码1:
const int length = 100000; float data[length]; memset(data,1,sizeof(float)*length); for ( int i = 0; i < length; ++i ) { data[i] = 3.0; }
我们在使用这个循环的时候,如果改用下面的这种形式:
代码2:
for ( int i = 0; i < length - 3; i += 3 ) { data[i] = 3.0; data[i+1] = 3.0; data[i+2] = 3.0; }
我想每次都用三个变量,同时处理三个数据会有神马效果呢?下面的代码3是我自己的想法
代码3:
int maxI = length/3; int maxJ = 2*length/3; for ( int i=0,j=length/3+1,k=2*length/3 +1; i<maxI && j<maxJ && k<length; ++i,++j,++k) { data[i] = 3.0; data[j] = 3.0; data[k] = 3.0; }
debug | release | |
代码1 | 0.242ms | 0.0ms |
代码2 | 0.101ms | 0.055ms |
代码3 | 0.121ms | 0.076ms |
在debug模式下,《深入理解计算机系统》这本书中提到的技术的确可以加速代码,但是在release版本下反而没有我们惯用的循环的效率高,我想大概是针对代码1,牛B的编译器可以对其进行深度的优化,(有可能就用到了类似memset类似的东西),但是对于代码2,这种不太“正常”的做法反而降低了编译器的优化效率。
代码3和代码2的原理一样,就是实现的时候方式不一样,因为多了几个变量,所以每次循环的时候负担略大,比代码2的时间复杂度高一点也可理解。