Dijkstra有一个经典的堆优化,可以将原本n^2的复杂度优化到(n+m)logn,由于C++的priority_queue,我们只需要自己定义一个结构体,一个比较函数,一个构造函数即可。但分析传统的堆优化dijkstra模板代码可发现,由于每次松弛成功都要进行入堆操作,堆中元素个数最多可达到(n+m)那么多,但其实每加入一个点,若这个点之前还有若干次在堆中的话,之前在堆中保存的同一个点相当于是浪费的,但又占着空间,由于堆的性质而无法及时弹出。所以堆对于这个问题,并不是最完美的数据结构。
对于这个问题,我针对dijkstra的优化原理为这个算法专门设计了一个简单紧凑的数据结构。思想非常简单,一颗完全二叉树,每个节点保存其子树中的距离值最小的点,每次自底向上更新即可。这样一来,空间复杂度限制在了O(n),也就是每次操作的复杂度由原来的log(n+m)降为了严格的log(n),但其实最主要的优化不在于此,而是原来被重复松弛的点的出堆全部被省去了,也就是总共省去了mlogn这么多复杂度,在环多而复杂的图当中这个优化会比较明显。
下面是依据这个优化写出的程序(简称my)和CQBZOJ上"SPFA算法"一题原rank1的代码(简称std,用的是传统堆优化dijkstra)的对比实验。两篇程序都取消了指定终点已到达的优化,即需要跑出点所有的dis值。为避免误差,均是在完成了输入和建边完成之后计时,保存边用的是同样的手写离散链表。耗时均为5次运行取平均值。
TEST1(较小图,500次运行): my:3115.4ms std:3828.6ms
TEST2(较大多环图,100次运行):my:4862.4ms std:7894.2ms
由以上两组数据看出,加上这个优化的dijkstra实际效率会有明显的提高。
下面是我写的代码,和传统堆优化dijkstra的模板代码长度几乎一样。
#include<cstdio> #include<cstring> #include<ctime> const int MAXN = 50010, MAXM = 500010; const int inf = 0x3f3f3f3f; using namespace std; int N, M, S, T; struct Node { int to, d; Node *next; }Edge[MAXM], *ecnt=Edge, *adj[MAXN]; void addedge(int a, int b, int c) { (++ecnt)->to = b; ecnt->d = c; ecnt->next = adj[a]; adj[a] = ecnt; } int dis[MAXN], minp[MAXN*2]; bool used[MAXN]; inline void pushup(int&p) { int &r = minp[p]; r = p * !used[p]; if (dis[minp[p<<1]] < dis[r]) r = minp[p<<1]; if (dis[minp[p<<1|1]] < dis[r]) r = minp[p<<1|1]; } void relax(int&p, int d) { if (d >= dis[p]) return; dis[p] = d; for (int i = p; i; i>>=1) pushup(i); } void finish(int&p) { used[p] = 1; for (int i = p; i; i>>=1) pushup(i); } void Dijkstra() { //memset(used, 0, sizeof used); //memset(minp, 0, sizeof minp); memset(dis, 0x3f, sizeof dis); relax(S, 0); for (int i = 1; i<=N; ++i) { int u = minp[1]; //整棵树中dis最小且未被used的点 finish(u); for (Node*p = adj[u]; p; p = p->next) relax(p->to, dis[u] + p->d); } } int main() { scanf("%d%d", &N, &M); int a, b, c; for (int i = 1; i<=M; ++i) { scanf("%d%d%d", &a, &b, &c); addedge(a, b, c); } S = 1; T = N; //分别是起点和终点 Dijkstra(); printf("%d\n", dis[T]); return 0; }