目录
一、布隆过滤器介绍
二、布隆过滤器实现
1.布隆过滤器
2.三种哈希函数
(1)BKDR哈希
(2)AP哈希
(3)DJB哈希
3.标识
4.检查在不在
5.删除
三、完整代码段
四、布隆过滤器优缺点
1.优点
2.缺点
五、布隆过滤器应用
1.找文件交集
(1)近似算法
(2)精确算法
2.扩展布隆过滤器
六、哈希应用
1.找到出现次数最多的IP
2. 找到top K的IP
3.用Linux系统命令实现找到top K的IP
位图有使用起来,节省空间,并且效率高的优点。位图的缺点,只能处理整形。
假如起昵称时要看一个字符串有没有被占用,用一个bit位标识。哈希解决冲突时,可以把后续同样位置冲突的元素的挂起来,形成链表。但是现在,如果要用位图存储字符串,bit位存不了指针,挂不起来,处理不了哈希冲突。如果用哈希存储又会浪费空间。
因此能不能考虑将哈希和位图结合针对字符串等非整形的类型,设计一个像位图一样的判断key在不在的节省空间的数据结构呢?可以——布隆过滤器
布隆过滤器是一种紧凑的、巧妙的概率型数据结构,能够高效插入查询,来判断一个元素在或不在,用多个哈希函数,把一个数据映射到位图中,不仅能提高查询效率,还能节省空间
映射多个位时,这种情况下也可能存在误判,但是误判概率低了,因为当映射的多个位都被占用才会冲突,才会导致误判。如上图中的"华山"还没存入呢,要映射的几个位都变成了1,这时会导致"华山"被误判。但是这种误判发送的概率比较低,只在几个位全都被占用的情况下才发生。
只需要位图一个成员即可:
#define _CRT_SECURE_NO_WARNINGS 1
#pragma once
#include "BitSet.h"
#include
using namespace std;
template
class BloomFilter
{
private:
delia::BitSet _bitset;
};
由于要用三种不同的哈希算法进行计算来降低冲突,因此,可以选择3种不同的哈希算法:
struct HashBKDR
{
size_t operator()(const string& s)
{
size_t value = 0;
for (auto e : s)
{
value += e;
value *= 131;
}
return value;
}
};
struct HashAP
{
size_t operator()(const string& s)
{
register size_t hash = 0;
size_t ch;
for (long i = 0; i < s.size(); i++)
{
ch = s[i];
if ((i & 1) == 0)
{
hash ^= ((hash << 7) ^ ch ^ (hash >> 3));
}
else
{
hash ^= (~(hash << 11) ^ ch ^ (hash >> 5));
}
}
return hash;
}
};
struct HashDJB
{
size_t operator()(const string& s)
{
register size_t hash = 5381;
for (auto e : s)
{
hash += (hash << 5) + e;
}
return hash;
}
};
用三种哈希函数分别计算对应的比特位,将这三个比特位都置1:
void Set(const K& key)
{
size_t i1 = Hash1()(key) % N;//也可以写成Hash1 hf1; size_t i1 = hf1(key) % N;
size_t i2 = Hash2()(key) % N;
size_t i3 = Hash3()(key) % N;
cout << i1 << " " << i2 << " " << i3 << endl;
_bitset.set(i1);
_bitset.set(i2);
_bitset.set(i3);
}
分别用三种哈希函数计算三个比特位,如果检测到有一个比特位为不在,那就返回不在:
bool Tests(const K& key)
{
size_t i1 = Hash1()(key) % N;
if (_bitset.test(i1) == false)
{
return false;
}
size_t i2 = Hash2()(key) % N;
if (_bitset.test(i2) == false)
{
return false;
}
size_t i3 = Hash3()(key) % N;
if (_bitset.test(i3) == false)
{
return false;
}
return true;//可能存在误判,如"华山"
}
布隆过滤器不能直接支持删除工作,因为在删除一个元素时,可能会影响其他元素
比如:删除"钟楼"元素,如果直接将该元素所对应的二进制比特位置0,“华山”元素也被删除了,因为这两个元素在多个哈希函数计算出的比特位上刚好有重叠。
BloomFilter.h:
#pragma once
#include "BitSet.h"
#include
using namespace std;
//BKDR哈希
struct HashBKDR
{
size_t operator()(const string& s)
{
size_t value = 0;
for (auto e : s)
{
value += e;
value *= 131;
}
return value;
}
};
//AP哈希
struct HashAP
{
size_t operator()(const string& s)
{
register size_t hash = 0;
size_t ch;
for (long i = 0; i> 3));
}
else
{
hash ^= (~(hash << 11) ^ ch ^ (hash >> 5));
}
}
return hash;
}
};
//DJB哈希
struct HashDJB
{
size_t operator()(const string& s)
{
register size_t hash = 5381;
for (auto e : s)
{
hash += (hash << 5) + e;
}
return hash;
}
};
template
class BloomFilter
{
public:
void Set(const K& key)
{
size_t i1 = Hash1()(key) % N;//也可以写成Hash1 hf1; size_t i1 = hf1(key) % N;
size_t i2 = Hash2()(key) % N;
size_t i3 = Hash3()(key) % N;
cout << i1 << " " << i2 << " " << i3 << endl;
_bitset.set(i1);
_bitset.set(i2);
_bitset.set(i3);
}
bool Tests(const K& key)
{
size_t i1 = Hash1()(key) % N;
if (_bitset.test(i1) == false)
{
return false;
}
size_t i2 = Hash2()(key) % N;
if (_bitset.test(i2) == false)
{
return false;
}
size_t i3 = Hash3()(key) % N;
if (_bitset.test(i3) == false)
{
return false;
}
return true;//可能存在误判,如"华山"
}
private:
delia::BitSet _bitset;
};
void TestBloomFilter()
{
BloomFilter<100> bf;
bf.Set("大雁塔");
bf.Set("钟楼");
bf.Set("兵马俑");
bf.Set("华山");
}
Test.cpp
#define _CRT_SECURE_NO_WARNINGS 1
#include "BloomFilter.h"
int main()
{
TestBloomFilter();
return 0;
}
(1)增加和查询元素的时间复杂度为:O(K), (K为哈希函数的个数,一般比较小),与数据量大小无关
(2)哈希函数相互之间没有关系,方便硬件并行运算
(3)布隆过滤器不需要存储元素本身,在某些对保密要求比较严格的场合有很大优势
(4)在能够承受一定的误判时,布隆过滤器比其他数据结构有这很大的空间优势
(5)数据量很大时,布隆过滤器可以表示全集,其他数据结构不能
(6)使用同一组散列函数的布隆过滤器可以进行交、并、差运算
(1)有误判率,即存在假阳性(False Position),即不能准确判断元素是否在集合中(补救方法:再建立一个白名单,存储可能会误判的数据)
(2)不能获取元素本身
(3)一般情况下不能从布隆过滤器中删除元素
(4)如果采用计数方式删除,可能会存在计数回绕问题
给两个文件,分别有100亿个query,只有1G内存,如何找到两个文件交集?请给出近似算法和精确算法。
判断交集本质上是判断在不在,读取第一个query,将元素都映射到布隆过滤器中,再读取第二个文件中的query,判断每个query在不在布隆过滤器中,如果在就是交集。
假设每个query是20字节,100亿个query就是100亿*20个字节=2000亿KB=200GB,使用哈希切分
如何扩展BloomFilter使得它支持删除元素的操作?
布隆过滤器本不支持删除,这是由于布隆过滤器判断一个元素在不在时可能会存在误判,删除它对应的bit位时会影响其他元素,且多个元素可能会映射到同一bit位,因此删除某一bit位时会影响其他元素,可能会导致其他元素也被删除。
不过可以采用以下方法让布隆过滤器支持删除元素:
在布隆过滤器中找到该元素后,由于使用多个位表示一个元素,因此可以对布隆过滤器的每一个bit位使用计数来代替0/1(在不在),当有多个元素映射到该bit位时,该bit计数++ ,删除时,该bit计数--。
给一个超过100G大小的log file, log中存着IP地址, 设计算法找到出现次数最多的IP地址? 与上题条件相同,如何找到top K的IP?如何直接用Linux系统命令实现?
(1)文件超过100G,不能加载到内存中,就需要将文件进行哈希切分,通过一个哈希函数,将log文件中的每个IP都转换为整数,如果IP相同,那么转换后的整数也相同,就会映射到同一个小文件中。
(2)切分成小文件后就可以加载到内存了,对于每次加载到内存的小文件,使用map
(3)将每个文件中出现次数最多的IP再使用map
另外:将文件切分为100个小文件,这100个小文件并不是均匀切分的,有的可能会小于1G,有的则可能会大于1G,当有几十个文件都大于1G时,可以考虑将文件直接切分为200份,而不是100份,这样每个小文件大约为512MB。
(1)对100G的文件建堆,内存放不下,因此还是要切分成小文件,如上图中将100G的大文件利用哈希函数切分成100个小文件。
(2)将第一个文件加载到内存中,对第一个小文件建有K个元素的小堆,只要比堆顶元素大就进堆,最后堆里剩下的就是第一个小文件中出现次数最多的K个IP。
(3)将剩下的其它小文件依次加载到内存,每加载一个小文件,就将该小文件中的所有IP和堆顶元素进行比较,只要比堆顶元素大,就进堆。最后堆里留下的就是出现次数最多的K个IP。
假如有以下文件IP.log:
192.168.1.5
69.52.220.44
10.152.16.23
192.168.3.10
192.168.1.4
192.168.2.1
192.168.0.9
10.152.16.23
192.163.0.9
192.168.0.9
69.52.220.44
192.168.1.4
192.168.1.5
192.163.0.9
192.168.2.1
192.168.0.1
192.168.0.2
192.168.0.9
9.9.9.9
127.0.0.1
192.168.0.90
192.168.0.89
192.168.0.8
192.168.0.9
192.163.0.9
(1)按行排序,并将结果输出到标准输出
sort 文件名
(2)统计并显示文本文件中出现的行或列的次数
uniq -c
(3)根据出现次数倒序排序
sort -r
(4)查看开头K行
head -k
显示出现次数最多的前K个IP