海量数据处理专题

  大数据量的问题是很多面试笔试中经常出现的问题,比如baidu google 腾讯 这样的一些涉及到海量数据的公司经常会问到。
  下面的方法是我对海量数据的处理方法进行了一个一般性的总结,当然这些方法可能并不能完全覆盖所有的问题,但是这样的一些方法也基本可以处理绝大多数遇到的问题。下面的一些问题基本直接来源于公司的面试笔试题目,方法不一定最优,如果你有更好的处理方法,欢迎与我讨论。


  本贴从解决这类问题的方法入手,开辟一系列专题来解决海量数据问题。拟包含 以下几个方面。
  1. Bloom Filter
  2. Hash
  3. Bit-Map
  4. 双层桶划分
  5. 数据库索引
  6. 倒排索引(Inverted Index)
  7. 外排序
  8. Trie树
  9. MapReduce

  在这些解决方案之上,再借助一定的例子来剖析海量数据处理问题的解决方案。

 

其实在坛子里里面好多类似的面试题都可以用这样的方法来解答,比如百度的TopK热门查询问题,某日IP最多访问问题。

把这类问题研究好了,面试像百度,腾讯这样的公司就完全没问题了!!!

你可能感兴趣的:(mapreduce,面试,百度,Google,腾讯)