HASH算法

从课本上面知道,HASH算法的好坏关键在于散列的是否均匀,假设1000个数据,100个key,平均每个key对应数据位10个,如果每个key都对应10个,这就是很好的散列算法。然而,如果我们不知道数据的分布情况,随机设计一种散列算法,每个key都可能对应0~1000个数据,但是整体来说符合泊松分布,越是偏离最优的情况,其概率越低。比如这样一种散列:一个key对应1000个数据,其它key都对应0个数据,这样的概率应该是1000的99次方分之一。而每个key都均匀对应10个的概率最高,大概是多少呢,精确的值可以用数学慢慢算,近似值可以用泊松公式得到。但是总的来说,随机设计的散列函数还是比较均匀的。

不过,均匀就好吗?

有些数据可能访问频繁,而有些数据可能很少访问。为了整体上加快查询速度,需要把最频繁查询的数据放在key列的前面(针对的是散列后的顺序查询),或者是把放在最较小的链中(也可以用于二分查询)。这些就要运用到统计了。

PS:线性规划的单纯形法,最坏的时间复杂度为指数级别,但是单纯形法却用的非常广泛。因为它最坏的情况很差,并不代表大多数情况很差,事实上最坏的情况极少出现。算法的教学也可以改进一下思路,多多考虑一下统计的方法。

你可能感兴趣的:(HASH算法)