dfsadmin设定文件空间大小遇到的问题
1.在成功启动hadoop之后,创建一个文件夹lisi
hdfs dfs -mkdir /lisi
2.设定这个文件空间大小为4K
hdfs dfsadmin -setSpaceQuota 4k /lisi/
3.上传一个小于4K的文件 (README.txt)
hdfs dfs -put README.txt /lisi/README.txt
4.但是却出现如下错误,显示空间只有4K,但是要上传的磁盘消耗却要128MB。
5.就感觉很不对劲,README.txt文件明明只有1366B,怎么就超了呢。
6.看到128MB,我苦思冥想,终于灵光一闪,hadoop2的block大小不就是128MB吗?我猜想上传一个文件,系统要给它分配一个128MB的块大小。此时我将文件空间大小限定为4K,而块大小为128MB,自然是上传不成功的。开始试验~
7.将文件大小也设定为128MB
hdfs dfsadmin -setSpaceQuota 128m /lisi/
8.再次上传
hdfs dfs -put README.txt /lisi/README.txt
搞定~
9.又有新问题,当我再次上传README文件到/lisi文件下的时候。又出现了类似的问题,说空间不够。看来限定了它的大小。就只能放一个block块,这块空间就被独占了,再也放不进去了。
10.所以还是不要轻易限定文件夹大小~~~~