复杂度分析(下)

上一篇文章中简单说了下复杂度分析,链接,下面再来四个复杂度相关的知识点,最好情况时间复杂度(best case time complexity)、最坏情况时间复杂度分析(worst case time complexity)、平均情况时间复杂度(average case time complexity)、均摊时间复杂度(amortized time complexity)

最好、最坏时间复杂度分析

// n 表示数组 array 的长度
int find(int[] array, int n, int x) {
  int i = 0;
  int pos = -1;
  for (; i < n; ++i) {
    if (array[i] == x) pos = i;
  }
  return pos;
}

上面代码的功能是在一个数组中查找一个变量x出现的位置,如果没有找到,返回-1。这段代码的时间复杂度应该为O(n),其中n为数字的长度。

但是我们在数组中查找数据,并不需要每次都把数组都遍历一遍,因为有的数据在中途就找到,可以提前退出的,所以上面的代码写的不好,看下面的

// n 表示数组 array 的长度
int find(int[] array, int n, int x) {
  int i = 0;
  int pos = -1;
  for (; i < n; ++i) {
    if (array[i] == x) {
       pos = i;
       break;
    }
  }
  return pos;
}

我们发现,在找到数据后,就退出了循环。但是这个代码的时间复杂度就不能简单看成 O(n)了。因为我们没有办法判断在哪个位置上找到这个元素,可能数组的第一个位置就是要找的数据,然后不需要遍历后面的n-1个数据,那么时间复杂度是O(1)。如果数组中没有找到这个元素,就需要把数组整个遍历一遍,那么时间复杂度就是O(n)。所以我们发现,不同情况,时间复杂度是不一样的。

为了表示代码在不同情况下的不同时间复杂度,我们需要引入三个概念:最好情况时间复杂度、最坏情况时间复杂度和平均情况时间复杂度。

同理,最坏情况时间复杂度就是,在最糟糕的情况下,执行这段代码的时间复杂度。像上面的例子中,如果要查找的元素没有在数组中,就需要遍历整个数组。

平均情况时间复杂度

最好情况时间复杂度和最坏情况时间复杂度都是在极端情况下的代码的复杂度,发生的概率不大。为了更好的表示平均情况下的复杂度,需要引入平均情况时间复杂度。

还拿上面的例子举例。要查找的元素在数组中的位置,有n+1种情况:在数组的0~n-1位置中和不在数组中,共n+1种情况。把每种情况下,查找需要遍历的元素个数累加,然后除以 n+1,就能得到需要遍历的元素的个数的平均值。

复杂度分析(下)_第1张图片

因为大O表示法,可以省略系数,所以平均情况时间复杂度为 O(n)。

但是这个计算过程是不严谨的,因为上面的n+1种情况出现的概率并非都一样。要查找的元素要么在数组中,要么不在数组中,为了方便,假设在数组中和不在数组中的概率都为1/2。要查找的元素出现在 0~n-1个位置的概率也都是一样的,为 1/n。所以要查找的元素出现在 0~n-1中任意位置的概率是 1/(2n)。将上面的计算逻辑修改如下:

复杂度分析(下)_第2张图片

这个值就是概率论中的加权平均值,也叫期望值,所以平均时间复杂度的全程应该叫加权平均时间复杂度或期望时间复杂度。

我们发现,引入概率后,平均值为(3n+1)/4。用大O表示法表示,去掉系数和常量,这段代码的时间复杂度依然是 O(n)。

其实,大多数情况,并不需要区分最好、最坏、平均情况时间复杂度。很多时候,用一个复杂度就可以满足。只有同一个代码在不同情况下,时间复杂度有量级的差距时,才引入这三个时间复杂度。

均摊时间复杂度

 // array 表示一个长度为 n 的数组
 // 代码中的 array.length 就等于 n
 int[] array = new int[n];
 int count = 0;
 
 void insert(int val) {
    if (count == array.length) {
       int sum = 0;
       for (int i = 0; i < array.length; ++i) {
          sum = sum + array[i];
       }
       array[0] = sum;
       count = 1;
    }

    array[count] = val;
    ++count;
 }

上面的代码实现的是往数组中插入数据的功能。当数组满了之后,用for循环遍历数组求和,并清空数组,将求和之后的sum值放到数组的第一个位置,然后再将新的数据插入。但如果数组一开始就有空闲空间,则直接将数据插入数组。

分析这个代码的时间复杂度。最好的情况下,数组中有空闲空间,直接将数据插入到数组下标为count的位置,所以最好情况时间复杂度是O(1)。最坏的情况下,数组中没有空闲空间了,需要先遍历数组求和,然后再将数组插入,所以最坏情况的时间复杂度是 O(n)。平均时间复杂度分析如下:

假设数组长度为n,根据数组插入的位置不同,分为n种情况,每种情况的时间复杂度为O(1)。还有一种情况就是,数组没有空闲空间了,这个时候时间复杂度是O(n)。这n+1种情况发生的概率相同,都是 1/(n+1)。所以平均时间复杂度为:

这个insert()和前面的find()是有区别的:

①find()在极端情况,复杂度才是O(1)。而insert()在大部分情况下都是O(1),只有个别情况才是O(n)

②insert()函数,O(1)时间复杂度的插入和O(n)时间复杂度的插入,出现的频率很有规律,并且有一定的前后时序关系,一般都是一个O(n)插入后跟着n-1个O(1)插入,如此循环。

所以针对insert()这种情况,不需要像find()那样根据概率计算平均时间复杂度。而是引入一种更加简单的分析方法:摊还分析法,通过摊还分析法得到的时间复杂度叫均摊时间复杂度。

摊还分析法的使用:

还看insert()这个函数,每一次O(n)的插入,后面会跟着n-1次O(1)的插入操作,所以把耗时较多的那次操作均摊到接下来的n-1次耗时较少的操作上,均摊下来,这一组连续的操作的均摊时间复杂度就是O(1)。

摊还分析法的使用场景:

对于一个数据结构进行一组连续的操作中,大部分情况下时间复杂度都很低,只有个别情况下时间复杂度比较高,而且这些操作之间存在前后连贯的时序关系,这个时候,就可以将这一组操作放在一起分析,看是否能把较高时间复杂度的操作,平摊到其他不耗时的操作中。而且,在能够应用均摊分析法的场景中,一般均摊时间复杂度等于最好情况时间复杂度。

你可能感兴趣的:(数据结构与算法)