统计文件行数和文件的大小

1.hdfs下载文件夹中多个文件

```

hadoop fs -get  /目录   目录

```

结果是输出到本地的文件夹之中

2. 多个文件合并后输出到一个文件之中

```

hadoop fs -getmerge  filePath  localPath/data.dat

```

3.统计多个文件行数

```

hadoop fs -cat  /文件* | wc -l

```

4.统计文件大小

```

hadoop fs -count /文件*

```

统计单个文件  只需要精确到文件即可

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

  • 首先,我们在使用前先看看HDFS是什麽?这将有助于我们是以后的运维使用和故障排除思路的获得。 HDFS采用mast...
    W_Bousquet阅读 9,761评论 0 2
  • 当数据量增大到超出了单个物理计算机存储容量时,有必要把它分开存储在多个不同的计算机中。那些管理存储在多个网络互连的...
    单行线的旋律阅读 5,946评论 0 7
  • hadoop是什么?HDFS与MapReduceHive:数据仓库,在HDFS之上,后台执行,帮你执行。faceb...
    Babus阅读 7,255评论 0 5
  • FS Shell 调用文件系统(FS)Shell命令应使用bin/hadoop fs 的形式。 所有的的FS ...
    山的那边是什么_阅读 5,201评论 0 3
  • 对不起,妈!我生病了。若有一天,真的事不可为,希望您能理解,那也只是一种自然法则而已,愿您能收住泪水,笑看过往。因...
    chde我阅读 1,450评论 0 0

友情链接更多精彩内容