druid.io 海量实时OLAP数据仓库

druid.io 海量实时OLAP数据仓库 (翻译+总结) (1) - lpthread - 博客园 http://www.cnblogs.com/lpthread/p/4519687.html

//
为什么要用Druid?
Druid的初衷是为了解决在使用Hadoop进行查询时所遇见的高延时问题来提高交互性查询。尤其是当你对数据进行汇总之后并在你汇总之后的数据上面进行查询时效果更好。将你汇总之后的数据插入Druid,随着你的数据量在不断增长,你仍然可以对Druid的查询能力非常有信心。当前的Druid安装实例已经可以很好的处理以每小时数TB实时递增的数据量。
(注: 在我们的实践中 druid 查询统计100亿数据, 在5秒内响应。 查询1个月的数据, 基本可以在毫秒内完成。 比hadoop的常用的T+1 Map Reduce 高效多了.

你可以在拥有Hadoop的同时创建一个Druid系统。Druid提供了以一种互动式切片、切块方式来访问数据的能力,它在查询的灵活性和存储格式直接寻找平衡从而来提供更好的查询速度。
如果想了解更多细节,请参考 White Paper 和Design 文档.

//
什么情况下需要Druid?
当你需要在大数据集上面进行快速的,交互式的查询时
当你需要进行特殊的数据分析,而不只是简单的键值对存储时
当你拥有大量的数据时 (每天新增数百亿的记录、每天新增数十TB的数据)
当你想要分析实时产生的数据时
当你需要一个24x7x365无时无刻不可用的数据存储时


//
Druid和Spark对比 - lpthread - 博客园 http://www.cnblogs.com/lpthread/p/4522641.html
Druid 被设计成增强的分析应用, 重点关注注入数据和查询数据的延时问题。 如果你开发了WEB界面用于任意维度的探索查询数据, 会发现交互式查询Spark可能很慢。

你可能感兴趣的:(druid.io 海量实时OLAP数据仓库)