我们都知道,数据结构和算法本身解决的是“快”和“省”的问题,即如何让代码运行得更快,如何让代码更省存储空间。所以,执行效率是算法一个非常重要的考量指标。那如何来衡量你编写的算法代码的执行效率呢?这里就要用到我们今天要讲的内容:时间、空间复杂度分析。
看代码:
int cal(int n) {
int sum = 0;
int i = 1;
int j = 1;
for (; i <= n; ++i) {
j = 1;
for (; j <= n; ++j) {
sum = sum + i * j;
}
}
}
这里假设每条代码执行的时间都是一样的记为时间time,则语句2、3、4各执行一次,语句5、6执行6各执行n次,语句7、8各执行n*n次,所以整段代码执行时间为T(n) = (2n*n+2n+3)*time。总结规律即:所有代码的执行时间 T(n) 与每行代码的执行次数 n 成正比,归结为大O的公式即:
具体解释一下这个公式。其中
T(n) :代码执行的时间;
n:数据规模的大小;
f(n):每行代码执行的次数总和。因为这是一个公式,所以用 f(n) 来表示。
公式中的 O:代码的执行时间 T(n) 与 f(n) 表达式成正比。
注意:当公式中n十分大时,可以忽略低阶、常量、系数三部分通常不会影响整体增长趋势,如上面例子可以记为T(n)=O(n^2)。所以大 O 时间复杂度实际上并不具体表示代码真正的执行时间,而是表示代码执行时间随数据规模增长的变化趋势,所以也叫渐进时间复杂度,简称时间复杂度。
1、只关注循环次数最多的一段代码
int cal(int n) {
int sum = 0;
int i = 1;
for (; i <= n; ++i) {
sum = sum + i;
}
return sum;
}
如上面代码时间复杂度T(n)=O(n)
2、加法法则:总复杂度等于量级最大的那段代码的复杂度
int cal(int n) {
int sum_1 = 0;
int p = 1;
for (; p < 100; ++p) {
sum_1 = sum_1 + p;
}
int sum_2 = 0;
int q = 1;
for (; q < n; ++q) {
sum_2 = sum_2 + q;
}
int sum_3 = 0;
int i = 1;
int j = 1;
for (; i <= n; ++i) {
j = 1;
for (; j <= n; ++j) {
sum_3 = sum_3 + i * j;
}
}
return sum_1 + sum_2 + sum_3;
}
如上面代码时间复杂度T(n)=O(n^2)
3、乘法法则:嵌套代码的复杂度等于嵌套内外代码复杂度的乘积
int cal(int n) {
int ret = 0;
int i = 1;
for (; i < n; ++i) {
ret = ret + f(i);
}
}
int f(int n) {
int sum = 0;
int i = 1;
for (; i < n; ++i) {
sum = sum + i;
}
return sum;
}
如上面代码时间复杂度T(n)=O(n^2)
常见的时间复杂度分为两类:多项式量级(左),非多项式量级(右)
1、O(1)
int i = 8;
int j = 6;
int sum = i + j;
2、O(logn)、O(nlogn)
i=1;
for(k = 1; k < 3; ++k){
while (i <= n) {
i = i * 2;
}
}
3. O(m+n)、O(m*n)
int cal(int m, int n) {
int sum_1 = 0;
int i = 1;
for (; i < m; ++i) {
sum_1 = sum_1 + i;
}
int sum_2 = 0;
int j = 1;
for (; j < n; ++j) {
sum_2 = sum_2 + j;
}
return sum_1 + sum_2;
}
类比时间复杂度,空间复杂度全称就是渐进空间复杂度。用来表示算法的存储空间与数据规模之间的增长关系。
我们常见的空间复杂度就是 O(1)、O(n)、O(n),看下面例子:
void print(int n) {
int i = 0;
int[] a = new int[n];
for (i; i = 0; --i) {
print out a[i]
}
}
我们可以看到,第 2 行代码中,我们申请了一个空间存储变量 i,但是它是常量阶的,跟数据规模 n 没有关系,所以我们可以忽略。第 3 行申请了一个大小为 n 的 int 类型数组,除此之外,剩下的代码都没有占用更多的空间,所以整段代码的空间复杂度就是 O(n)。
同一段代码,在不同输入的情况下,复杂度量级有可能是不一样的。如下面的代码:
// n 表示数组 array 的长度
int find(int[] array, int n, int x) {
int i = 0;
int pos = -1;
for (; i < n; ++i) {
if (array[i] == x) {
pos = i;
break;
}
}
return pos;
}
a、最好情况时间复杂度就是,在最理想的情况下,执行这段代码的时间复杂度。
分析代码:
要查找的变量 x 可能出现在数组的任意位置。如果数组中第一个元素正好是要查找的变量 x,那就不需要继续遍历剩下的 n-1 个数据了,那时间复杂度就是 O(1)为最好情况时间复杂度。
b、最坏情况时间复杂度就是,在最糟糕的情况下,执行这段代码的时间复杂度。
分析代码:
但如果数组中不存在变量 x,那我们就需要把整个数组都遍历一遍,时间复杂度就成了 O(n)为最坏情况时间复杂度。
全称:加权平均时间复杂度或者期望时间复杂度。
(只有同一块代码在不同的情况下,时间复杂度有量级的差距,我们才会使用这三种复杂度表示法来区分。)
分析代码:
我们知道,要查找的变量 x,要么在数组里,要么就不在数组里。这两种情况对应的概率统计起来很麻烦,为了方便理解,我们假设在数组中与不在数组中的概率都为 1/2。另外,要查找的数据出现在 0~n-1 这 n 个位置的概率也是一样的,为 1/n。所以,根据概率乘法法则,要查找的数据出现在 0~n-1 中任意位置的概率就是 1/(2n)。所以时间复杂度为:
O((3n+1)/4)简化后为O(n)即平均情况时间复杂度
分析方法:摊还分析(或者叫平摊分析)
均摊时间复杂度就是一种特殊的平均时间复杂度。
(将这一组操作放在一块儿分析,看是否能将较高时间复杂度那次操作的耗时,平摊到其他那些时间复杂度比较低的操作上。而且,在能够应用均摊时间复杂度分析的场合,一般均摊时间复杂度就等于最好情况时间复杂度。)