简单的说就是程序运行所需要的存储空间。
一个算法的空间复杂度,也常用大 O 记法表示。
要知道每一个算法所编写的程序,运行过程中都需要占用大小不等的存储空间,算法的存储量包括:
程序本身所占空间
输入数据所占空间
辅助变量所占空间
首先,程序自身所占用的存储空间取决于其包含的代码量,如果要压缩这部分存储空间,就要求我们在实现功能的同时,尽可能编写足够短的代码。
其次,程序运行过程中输入输出的数据,往往由要解决的问题而定,即便所用算法不同,程序输入输出所占用的存储空间也是相近的。
事实上,对算法的空间复杂度影响最大的,往往是程序运行过程中所申请的临时存储空间。不同的算法所编写出的程序,其运行时申请的临时存储空间通常会有较大不同。
举例
Scanner scanner = new Scanner(System.in)
int n;
n = scanner.nextInt();
int a[10];
通过分析不难看出,这段程序在运行时所申请的临时空间,并不随 n 的值而变化。而如果将第 4 行代码改为
int a[n];
此时,程序运行所申请的临时空间,和 n 值有直接的关联。
写代码我们可以用时间换空间,也可以用空间换时间。加大空间消耗来换取运行时间的缩短,加大时间的消耗换取空间,我们一般选择空间换时间。一般说复杂度是指时间复杂度。
评价一个算法通常从两个角度考虑
如果执行速度块,说明算法好。这种评价的角度称为时间复杂度
如果执行过程中占用存储空间少,说明算法好。这种评价的角度称为空间复杂度
而实际上对于用户来说时间复杂度更重要,因为时间复杂度是用户能感受到的,而空间复杂度是用户感受不到的。为了让用户感受速度,还可以用空间换时间,例如缓存(redis,memcache)技术就是用空间换时间。
要学习时间复杂度,要先知道什么是时间频度。
**时间频度:**一个算法花费的时间与算法中语句的执行次数成正比例,哪个算法中语句执行次数多,它花费时间就多。**一个算法中的语句执行次数称为语句频度或时间****频度。**记为T(n)
例如:计算1-100所有数字之和
第一种算法:
int sum = 0;
int end = 100;
for (int i = 0; i <= end; i++) {
sum += i;
}
时间频度为:T(n+1),说明随着end值的增加,时间频度也会增加。
第二种算法:
int total = 0;
int end = 100;
total = (1+end )*end /2;
时间频度为:T(1),说明随着end值的增加,时间频度不会增加。
时间频度的函数表:
n的值 | T(n)=2n+20 | T(n)=2*n | T(n)=T(3n+10) | T(n)=T(3n) |
---|---|---|---|---|
1 | 22 | 2 | 13 | 3 |
2 | 24 | 4 | 16 | 6 |
5 | 30 | 10 | 25 | 15 |
8 | 36 | 16 | 34 | 24 |
15 | 50 | 30 | 55 | 45 |
30 | 80 | 60 | 100 | 90 |
100 | 220 | 200 | 310 | 300 |
300 | 620 | 600 | 910 | 900 |
观察上表,发现随着n的增大,时间频度也会增大。
例如:
再例如:
随着n的增大,时间频度的变化如下图所示:
我们发现:
结论:时间频度的常数项可以忽略
下表是一个时间频度的函数表:
n的值 | T(n) =2n²+3n+10 | T(n) =T(2n²) | T(n)=T(n²+5n+20) | T(n)=T(n²) |
---|---|---|---|---|
1 | 15 | 2 | 26 | 1 |
2 | 24 | 8 | 34 | 4 |
5 | 75 | 50 | 70 | 25 |
8 | 162 | 128 | 124 | 64 |
15 | 505 | 450 | 320 | 225 |
30 | 1900 | 1800 | 1070 | 900 |
100 | 20310 | 20000 | 10520 | 10000 |
观察上表,发现随着n的增大,时间频度也会增大。
例如:
再例如:
随着n的增大,时间频度的变化如下图所示:
我们发现:
2n^2+3n+10 和 2n^2 随着n 变大, 执行曲线无限接近, 可以忽略 3n+10
n^2+5n+20 和 n^2 随着n 变大,执行曲线无限接近, 可以忽略 5n+20
结论:时间频度的低次项可以忽略
下表是一个时间频度的函数表
n的值 | T(3n^2+2n) | T(5n^2+7n) | T(n^3+5n) | T(6n^3+4n) |
---|---|---|---|---|
1 | 5 | 12 | 6 | 10 |
2 | 16 | 34 | 18 | 56 |
5 | 85 | 160 | 150 | 770 |
8 | 208 | 376 | 552 | 3140 |
15 | 705 | 1230 | 3450 | 20310 |
30 | 2760 | 4710 | 27150 | 162120 |
100 | 30200 | 50700 | 1000500 | 6000400 |
观察上表,发现随着n的增大,时间频度也会增大。
例如:
再例如:
随着n的增大,时间频度的变化如下图所示:
我们发现:
结论:时间频度的系数可以忽略
一般情况下,算法中的基本操作语句的重复执行次数是问题规模n的某个函数,用T(n)表示,若有某个辅助函数f(n),使得当n趋近于无穷大时,T(n) / f(n) 的极限值为不等于零的常数,则称f(n)是T(n)的同数量级函数。记作 T(n)=O( f(n) ),称O( f(n)) 为算法的渐进时间复杂度,简称时间复杂度。
T(n) 不同,但时间复杂度可能相同。 如:T(n)=n²+7n+6 与 T(n)=3n²+2n+2 它们的T(n) 不同,但时间复杂度相同,都为O(n²)。因为时间频度中的常数项、低次向、系数都可以忽略
用常数1代替运行时间中的所有加法常数 T(n)=n²+7n+6 => T(n)=n²+7n+1
修改后的运行次数函数中,只保留最高阶项 T(n)=n²+7n+1 => T(n) = n²
去除最高阶项的系数 T(n) = n² => T(n) = n² => O(n²)
说明:
无论代码执行了多少行,只要是没有循环等复杂结构,那这个代码的时间复杂度就都是O(1)
int i = 1;
int j = 2;
i++;
j++;
int sum = i+j;
**说明:**上述代码在执行的时候,它消耗的时间并不随着某个变量的增长而增长,那么无论这类代码有多长,即使有几万几十万行,都可以用O(1)来表示它的时间复杂度。
int i = 1;
while(i<=n) {
i = i * 2;
}
**说明:**在while循环里面,每次都将 i 乘以 2,乘完之后,i 距离 n 就越来越近了。
假设循环x次之后,i 就大于 2 了,此时这个循环就退出了,也就是说 2 的 x 次方等于 n,那么 x = log2n也就是说当循环 log2n 次以后,这个代码就结束了。
因此这个代码的时间复杂度为:O(log2n) 。 O(log2n) 的这个2 时间上是根据代码变化的,i = i * 3 ,则是O(log3n)
for (int i = 1; i <=n; i++) {
}
**说明:**这段代码,for循环里面的代码会执行n遍,因此它消耗的时间是随着n的变化而变化的,因此这类代码都可以用O(n)来表示它的时间复杂度
for (int m = 1; m <=n; m++) {
int i = 1;
while(i<n) {
i = i * 2;
}
}
**说明:**线性对数阶O(nlogN) 其实非常容易理解,将时间复杂度为O(logn)的对数阶代码循环N遍的话,那么它的时间复杂度就是 n * O(logN),也就是了O(nlogN)。
for (int i = 1; i <= n; i++) {
for(int j=1;j <= n;j++) {
}
}
**说明:**平方阶O(n²) 就更容易理解了,如果把 O(n) 的代码再嵌套循环一遍,它的时间复杂度就是 O(n²),这段代码其实就是嵌套了2层n循环,它的时间复杂度就是O(n * n),即 O(n²) 如果将其中一层循环的n改成m,那它的时间复杂度就变成了O(m * n)。
相当于三层n循环,其它的类似O(n²)
O(n^k )相当于三层n循环,其它的类似O(n²)
一般讨论的时间复杂度均是最坏情况下的时间复杂度。 这样做的原因是:最坏情况下的时间复杂度是算法在任何输入实例上运行时间的界限,这就保证了算法的运行时间不会比最坏情况更长。
各种排序算法的最好、最坏、平均时间复杂度如下表所示:
**稳定排序:**是指能保证排序前,两个相等的数其在序列的前后位置顺序和排序后它们两个的前后位置顺序相同。
例如,如果Ai = Aj
,Ai原来在位置前,排序后Ai还是要在Aj位置前。
**不稳定排序:**排序之后在序列中相等的值的相对位置发生变化。
例如,如果Ai = Aj
,Ai原来在位置前,排序后Ai还是要在Aj位置前。
**不稳定排序:**排序之后在序列中相等的值的相对位置发生变化。