**问题:**给定a、b两个文件,各存放50亿个url,每个url各占64字节,内存限制是4G,让你找出a、b文件共同的url?
目录:
方案1:每个文件50亿个URL,每个URL最长64个字节,可以估计每个文件安的大小为5000,000,000 ×64bit=320,000,000,000bit ≈ 300,000G,远远大于内存限制的4G,同时需要大硬盘(这里不考虑分布式计算)。所以不可能将其完全加载到内存中处理。考虑采取分而治之的方法。
遍历文件a,对每个url求取 h a s h ( u r l ) % 100 , 000 hash(url)\%100,000 hash(url)%100,000,然后根据所取得的值将url分别存储到100,000个小文件(记为 a 0 , a 1 , a 2 , . . . , a 99998 , a 99999 a_0,a_1,a_2, ..., a_{99998},a_{99999} a0,a1,a2,...,a99998,a99999)中。这样每个小文件的大约为3G。
遍历文件b,采取和a相同的方式将url分别存储到10000小文件中(记为 b 0 , b 1 , b 2 , . . . , b 99998 , b 99999 b_0,b_1,b_2, ..., b_{99998},b_{99999} b0,b1,b2,...,b99998,b99999)。这样处理后,所有可能相同的url都在对应的小文件( a 0 v . s . b 0 , a 1 v . s . b 1 , . . . , a 99999 v . s . b 99999 a_0 v.s. b_0, a_1 v.s. b_1, ..., a_{99999} v.s. b_{99999} a0v.s.b0,a1v.s.b1,...,a99999v.s.b99999)中,不对应的小文件不可能有相同的url。然后我们只要求出10000对小文件中相同的url即可。
求每对小文件中相同的url时,可以把其中一个小文件的url存储到hash_set中。然后遍历另一个小文件的每个url,看其是否在刚才构建的hash_set中,如果是,那么就是共同的url,存到文件里面就可以了。
方案2:如果允许有一定的错误率,可以使用Bloom filter,4G内存大概可以表示340亿bit。将其中一个文件中的url使用Bloom filter映射为这340亿bit,然后挨个读取另外一个文件的url,检查是否与Bloom filter,如果是,那么该url应该是共同的url(注意会有一定的错误率)。
读者反馈@crowgns:
以上是网上流传最广的思路,基于以上想法。我主要有两点想法,
其一,优秀的哈希算法是经过密码学家证明推敲的,不会随着取模操作而造成大范围冲突。本文将使用到《字符串哈希算法——BKDRHash》算法。
其二,对于以上读者反馈中需要二次哈希的地方(这种概率极小)。可以将整个过程视为一场递归——即,将一次哈希中大小超过阈值的文件暂不处理(假设一次哈希后,所得文件 a 9527 > 10 G a_{9527} > 10G a9527>10G,那么这里先不处理它,而直接查询对应的 b 9527 b_{9527} b9527,如果对应的b不存在,那么可以丢弃 a 9527 a_{9527} a9527。否则,在后续处理中,对于 a 9527 a_{9527} a9527使用另外一种哈希算法重新哈希,同时对 b 9527 b_{9527} b9527也必须使用同一种哈希算法重新哈希,整个过程转化为了递归)。
以下是对上述算法的实现,
实际操作中,自定义N值大小即可,量力(硬盘)而行。这里没有产生50亿URL。
//[a,b]
#define random(a,b) ((rand()%(b-a+1))+a)
#define N 500000
string url = "-0123456789abcdefghijklmnopqrstuvwxyz";
void generateUrl(string file)
{
ofstream out(file);
int n = 0;
if (out.is_open()){
for (int i = 0; i < N; ++i){
int size = random(1,64);//64bit
string s = "https://www.";
for (int j = 0, l = 1; j < size; ++j){
s += url[random(l,36)];//1+10+26-1=36
l = (s[s.size()-1] == '-' || j >= size-1) ? 1: 0;
}
s+=".com/";
out << s <<endl;
}
out.close();
}
}
具体牵涉到不少其他函数,下文将给出。
bool split_big_file(string file_name, string suffix, string store_path, unsigned long count_to_split)
{
if (!file_name.size())
return false;
ifstream in(file_name);
if (!in.is_open())
return false;
string line;
while (getline(in, line)){
string split_file_name = store_path;
split_file_name += to_string(bkdr_hash(line.c_str()) % count_to_split);
split_file_name += suffix;
ofstream out(split_file_name, ios::app);
if (!out.is_open()){
in.close();
return false;
}
out << line << endl;
out.close();
}
in.close();
return true;
}
更多的哈希函数,可以参阅上文中的链接。
unsigned long bkdr_hash(const char* str)
{
unsigned int seed = 131;
unsigned int hash = 0;
while (*str){
hash = hash*seed+(*str++);
}
return (hash & 0x7FFFFFFF);
}
获取文件大小的主要作用是——其一,使程序更具有鲁棒性,可以适应于任意大小的文件拆分,保证拆分后的小文件不超过指定内存大小。其二,判断拆分后的文件是否满足要求。
unsigned long get_file_size(string file_name)
{
if (!file_name.size())
return 0;
struct stat file_info;
return stat(file_name.c_str(),&file_info) ? 0 : file_info.st_size;
}
这里仿照JAVA写了个endsWith函数,用于过滤后缀。
bool str_ends_with(string s, string sub)
{
return s.rfind(sub)==(s.length()-sub.length());
}
vector<string> get_folder_file_name_list(string folder, string ends_with)
{
struct dirent *ptr = NULL;
DIR *dir = opendir(folder.c_str());
vector<string> files_name;
while ((ptr=readdir(dir))!=NULL){
if (ptr->d_name[0] == '.')
continue;
if (str_ends_with(ptr->d_name, ends_with))
files_name.push_back(ptr->d_name);
}
closedir(dir);
return files_name;
}
bool write_same_url_to_file(string folder, string same_url_file_name)
{
vector<string> files_name_a = get_folder_file_name_list(folder, ".a.txt");
vector<string> files_name_b = get_folder_file_name_list(folder, ".b.txt");
vector<string>::iterator iter;
ofstream out(same_url_file_name, ios::app);
if (!out.is_open())
return false;
for (int i = 0; i < files_name_a.size(); ++i){
string s = files_name_a[i];
s[s.size()-5] = 'b';
if (get_file_size(files_name_a[i]) <= PER_FILE_SIZE \
&& (iter = find(files_name_b.begin(), files_name_b.end(),s))\
!= files_name_b.end()\
&& get_file_size(*iter) <= PER_FILE_SIZE){
set<string> a_set = get_file_hash_set(folder+files_name_a[i]);
set<string> b_set = get_file_hash_set(folder+*iter);
set<string> same_url_set = get_same_url_set(a_set, b_set);
set<string>::iterator it = same_url_set.begin();
for (; it != same_url_set.end(); ++it){
out << *it << endl;
cout<<*it<<endl;
}
}
}
out.close();
return true;
}
可运行的程序获取地址:https://github.com/qingdujun/algorithm/tree/master/others/50billion-url
References:
[1] https://blog.csdn.net/v_JULY_v/article/details/6685962 ,2018-9-3