hadoop学习遇到的错误2 设置空间配额问题

dfsadmin设定文件空间大小遇到的问题

1.在成功启动hadoop之后,创建一个文件夹lisi

hdfs dfs -mkdir /lisi

2.设定这个文件空间大小为4K

hdfs dfsadmin -setSpaceQuota 4k /lisi/

3.上传一个小于4K的文件 (README.txt)


hadoop学习遇到的错误2 设置空间配额问题_第1张图片

hdfs dfs -put README.txt /lisi/README.txt

4.但是却出现如下错误,显示空间只有4K,但是要上传的磁盘消耗却要128MB。

hadoop学习遇到的错误2 设置空间配额问题_第2张图片

5.就感觉很不对劲,README.txt文件明明只有1366B,怎么就超了呢。

6.看到128MB,我苦思冥想,终于灵光一闪,hadoop2的block大小不就是128MB吗?我猜想上传一个文件,系统要给它分配一个128MB的块大小。此时我将文件空间大小限定为4K,而块大小为128MB,自然是上传不成功的。开始试验~

7.将文件大小也设定为128MB

hdfs dfsadmin -setSpaceQuota 128m /lisi/

8.再次上传

hdfs dfs -put README.txt /lisi/README.txt


搞定~

9.又有新问题,当我再次上传README文件到/lisi文件下的时候。又出现了类似的问题,说空间不够。看来限定了它的大小。就只能放一个block块,这块空间就被独占了,再也放不进去了。

10.所以还是不要轻易限定文件夹大小~~~~

你可能感兴趣的:(hadoop学习遇到的错误2 设置空间配额问题)