hbase,hdfs?

hbase使用lsm数,所以写性能好,

但是列存储写性能比行存储差?


hbase一行只有一个时间戳,最多维持三个版本,update和delete等都是用row全参数,而不是某一行的某一列新增,而且update是把之前的row后面新加一个row。所以确定一行的增加某列操作,需要先read后手工内存加一列后再update??



spark可以直接savetoobject,savetofile,savetohadoop等保存,因此可以直接存hdfs,不需要hbase的特殊处理,然后hdfs直接用mapreduce进行处理之后,将串联好的一串再看怎么保存,例如存数据库等。

你可能感兴趣的:(hbase,hdfs?)