hadoop(五)——dataNode工作原理

dateNode的工作原理
    作用:
        提供真实的文件数据的存储服务
    文件块:
        最基本的单位。对于文件内容而言,一个文件的长度大小是size,那么从文件的0开始偏移,
        按照固定的大小,顺序对文件进行划分编号,划分好的每一块称为一个block,hdfs默认的
        block大小为128MB,如一个256MB的文件,共有256/128=2个block
        
        不同于普通的文件系统,hdfs中,如果一个文件小于block的大小,并不占用一个block的存
        储空间
        
        replication多副本,默认是三个即 hdfs-site.xml中的dfs.replication属性
        
        文件块的存储路径$hadoop.tmp.dir/dfs/data/current/BP-1603492645-192.168.102.130-1553701654212/current/finalized
        core-site.xml中配置的路径
        (ps:我的配置
        hadoop.tmp.dir    
        /home/hadoop/app/hadoop-2.4.1/data
        
        cd /home/hadoop/app/hadoop-2.4.1/data/dfs/data/current/BP-160349245-192.168.102.130-1553701643212/current/finalized
        du -sh *
        128M    blk_1073741825
        1.1M    blk_1073741825_1001.meta
        47M    blk_1073741826
        376K    blk_1073741826_1002.meta
        可以查看到该目录下有blk_blkid的文件,即为block文件
        .meta文件为文件的校验和

你可能感兴趣的:(hadoop)