------ 本文是学习算法的笔记,《数据结构与算法之美》,极客时间的课程 ------
我们今天讲另外一种特殊的树,“堆(Heap)”。堆这种数据结构的应用场景非常多,最经典的莫过于堆排序了。堆排序是一种原地的、时间复杂度为O(nlogn)的排序算法。
前面我们学过快速排序,平均情况下,它的时间复杂度为O(logn)。尽管这两种排序算法的时间复杂度都是O(nlogn),甚至堆排序比快速排序的时间复杂度还要稳定,但是,是实际软件开发中,快速的排序的性能要比堆排序好,这是为什么呢?
前面我们提到,堆是一种特殊的树。我们现在来看看,什么样的树才是堆。
其中第1个和第2个是大顶堆,第3 个是小顶堆,第4个不是堆。除此之外,从图中还可以看出来,对于同一组数据,我们可以构建多种不再形态的堆。
要实现一个堆,我们先要知道,堆都支持哪些操作以及如何存储一个堆。
完全二叉树适合用数组来存储。用数组来存储完全二叉树是非常节省存储空间的。因为我们不需要存储左右子节点的指针,单纯地通过数组下标,就可以找到一个节点的左右子节点和父节点。
从上图中可以看出,数组下标为 i 的节点的左子节点,就是下标为 i2的节点,右子节点就是下标为 i2+1 的节点,父节点不是下标为 i/2 的节点。
知道了如何存储一个堆,那我们再来看看,堆上的操作有哪些?我罗列了几个非常核心的操作,分别是往堆中插入一个元素和删除堆顶元素。(如果没有特殊说明,我下面都是拿大顶堆来讲解)。
1、往堆中插入一个元素
往堆中插入一个元素后,我们需要满足堆的两个特性。
如果我们把新插入的元素放到堆的最后,如下图,是不符合堆的特性的。还需要调整,让其重新满足堆的特性。这个过程就叫作堆化(heapify)。堆化分为两种,从下往上和从上往下。先说从下往上的堆化方法。
堆化非常简单,就是顺着节点所在的考核体系,向上或者躺下,对比,然后交换。
如下面的分解图,我们可以让新插入的节点与父节点对比大小。如果不满足子节点小于等于父节点的大小关系,我们就互换两个节点。一直重复这个过程,直到父子节点之间满足刚说的那种大小关系。代码实现如下:
public class Heap{
private int[] a; //数组,从下标1开始存储数据
private int n; // 堆可以存储的最大数据个数
private int count; // 堆中已经存储的数据个数
public Heap(int capacity) {
a = new int[capacity + 1];
n = capacity;
count = 0;
}
public void insert(int data) {
if(count >= n) {
return; // 没有空间了
}
++count;
a[count] = data;
int i = count;
while(i/2 > 0 && a[i] > a[i/2]) {
int temp = a[i];
a[i] = a[i/2];
a[1/2] = temp;
i = i/2;
}
}
}
2、删除堆顶元素
从堆的定义的第二条中,任何节点的值都大于等于(或小于等于)子树节点的值,我们可以发现,堆顶元素存储的就是堆中数据的最大值或者最小值。
假设我们构造的是大顶堆,堆顶元素就是最大的元素。当我们删除堆顶元素之后,就需要把第二大的元素放到堆顶,那第二大元素肯定会出现在左右节点中。然后我们再迭代地删除第二大节点,以此类推,直到叶子节点被删除。
这里我也画了一个分解图。不过这种方法有点问题,就是最后出来的堆并不满足完全二叉树的特性
实际上,我们稍微改变一下思路,就可以解决这个问题。我们把最后一个节点放到堆顶,然后利用同样的父子节点对比方法。对于不满足父子节点大小关系的,互换两个节点,并且重复这个过程,直到父子节点之间满足大小关系为止。这就是从上往下的堆化方法。
因为我们移除的是数组中的最后一个元素,而在堆化的过程中,都是交换操作,不会出现数组中“空洞”,所以这种方法堆化之后的结果,肯定满足完全二叉树的特性。
public void removeMax() {
if (count == 0) {
return;
}
a[1] = a[count];
--count;
heapify(a, count, 1);
}
private void heapify(int[] a, int n, int i) { // 自上往下堆化
while (true) {
int maxPos = i;
if (i * 2 <= n && a[i] < a[i * 2]) {
maxPos = i * 2;
}
if (i * 2 + 1 <= n && a[maxPos] < a[i * 2 + 1]) {
maxPos = i * 2 + 1;
}
if(maxPos == i) {
break;
}
int tem = a[i];
a[i] = a[maxPos];
a[maxPos] = tem;
i = maxPos;
}
}
堆化的过程虽顺着节点所在的路径比较交换的,所以堆化的时间复杂度跟树的高度成正比,也就是O(logn)。插入数据和删除堆顶元素的主要逻辑就是堆化,所以往堆中插入一个元素和删除堆元素的时间复杂度都是O(logn)。
前面我们讲过好几种排序算法,有时间复杂度是(O2)的冒泡、插入、选择排序,有时间复杂度是O(nlogn)的归并、快速、线性排序。
借助于堆这种数据结构实现的排序算法,就叫做堆排序。这种排序算法的时间复杂度非常稳定,是O(nlogn),并且它还是原地排序算法,如此优秀,这是怎么做到的呢?
可以把堆排序的过程大致分解成两大步骤,建堆和排序
1、建堆
首先将数组原地建成一个堆。所谓“原地”就是,不借助另一个数组,就在原数组上操作。建堆的过程,有两种思路。
第一种是借助我们前面讲的,在堆中插入一个元素的思路。尽管数组中包含 n 个数据,但是我们可以假设,起初堆中只包含一个数据,就是下标为1的数据。然后,我们调用前面的插入操作,将下标从2到 n 的数据依次插入到堆中。这样我们就将包含n 个数据数组组织成了堆。
第二种实现思路,跟第一种截然相反。第一种思路的处理过程是从前往后处理数据,并且每个数据插入堆中时,都是从下往上的堆化。而第二种实现的思路,是从后往前处理数组,并且每个数据都是从上往下堆化。
如下图,因为叶子往下堆化只能自己跟自己比较,所以我们直接从第一个非叶子节点开始,依次堆化就行了。
public void buildHeap(int[]a, int n) {
for(int i = n/2; i >= 1; --i) {
heapify(a, n, i);
}
}
上面的代码中,我们对下标从 n/2 开始到 1 的数据进行堆化,下标是 n/2+1 到 n 的节点是叶子节点,我们不需要堆化。实际上,对于完全二叉树来说,下标从n/2+1 到 n的节点都是叶子节点。
建堆操作的时间复杂度是多少呢?
每个节点堆化的时间复杂度是O(logn),那 n/2+1 个节点堆化的总时间复杂度是不是就是O(nlogn)呢?这个答案虽然也没错,但这个值不够精确。实际上,堆排序的建堆过程时间复杂度是O(n)。
因为叶子节点是不需要堆化的,所以需要堆化的节点从倒数第二层开始。每个节点堆化的过程中,需要比较和交换的节点个数,跟这个节点的高度 k 成正比。看下图
最后再把 2h= n 代入,可得建堆的时间复杂充就是O(n)。
2、排序
建堆结束之后,数组中的数据已经是执照大顶堆的特性来组织的。数组中的第一个元素就是堆顶,也就是最大的元素。我们把它跟最后一个元素交换,那最大的元素就放到了下标为 n 的位置。
这个过程有点类似上面讲的“删除堆顶元素”的操作,当堆顶元素移除之后,我们把下标为 n 的元素放到堆顶,然后再通过堆化的方法,将剩下的 n-1 个元素重新构建成堆。堆化完成之后,我们再取堆顶元素,放到下标是 n-1 的位置,一直重复这个过程,直到最后堆中只剩下为1个元素,排序工作就完成了。
public void sort(int[]a, int n) {
buildHeap(a, n);
int k = n;
while( k > 1) {
int temp = a[k];
a[k] = a[1];
a[1] = temp;
--k;
heapify(a, k, 1);
}
}
整个堆排序的过程,都只需要极个别的临时存储空间,所以堆排序是原地排序算法。堆排序包括建堆和排序两个操作,建堆过程的时间复杂度是O(n),排序过程的时间复杂度是O(nlogn),所以,堆排序整体的时间复杂度是O(nlogn)。
堆排序是不稳定的排序算法,因为排序的过程,存在的最后一个节点跟堆项节点互换的操作,所以就有可能改变值相等数据的原始相对顺序。
现在,我们来看下,实际开发中,为什么快速排序要比堆排序性能好?
第一、堆排序访问数据的方式没有快速排序友好。
对于快速排序来说,数据是顺序访问的。而对于堆排序来说,数据是跳着访问的。比如,堆排序中,最重要的一个操作就是数据的堆化。比如下面这个例子,对堆顶进行堆化,会依次访问数组下标是1,2,4,8的元素,而不像快速排序那样,局部顺序访问,所以,这样对CPU缓存是不友好的。
第二、对于同样的数据,在排序过程中,堆排序算法的数据交换次数要多于快速排序。
我们在讲排序的时候,提过两个概念,有序度和逆序度。对于基于比较的排序算法来说,整个排序过程是由两个基本操作组成的,比较和交换。快速排序交换的次数不会比逆序度多。
但是堆排序的第一步是建堆,建堆的过程会打乱数据原有的相对选择顺序,导致数据有序度降低。比如对于一组已经有序的数据来说,经过建堆之后,数据反而变得更无序了。