操作hadoop的基本命令同操作Linux相同,前面加hadoop fs,后面加cmd+参数即可。
hadoop hdfs 操作
hadoop fs -cmd <args>
#添加目录和文件
hadoop fs -mkdir /test
hadoop fs -put example.txt .
hdfs dfs -mkdir /test
hdfs dfs -copyFromLocal ./NOTICE.txt /test
#hdfs为hadoop 2.X版本上的命令
#获取/查看文件内容
hadoop fs -get example.txt .
hadoop fs -cat example.txt
#删除文件
hadoop fs -rm example.txt
#显示目录下有哪些文件
hadoop fs -ls /tmp/output
#查看hdfs状态
hadoop dfs admin -report
#比如有哪些datanode,每个datanode的情况
#离开和进入安全模式
hadoop dfsadmin -safemode leave
hadoop dfsadmin -safemode enter
hive 操作
将test1.txt文件中内容存入hive中
1 shandong
2 changchun
3 shanghai
4 beijing
5 shenzhen
6 guangzhou
#建表
create table qingqian (id int,name string) ROW FORMAT DELIMITED FIELDS TERMINATED BY ' ' STORED AS TEXTFILE;
#导入数据
load data local inpath '/home/hadoop/test/01/test1.txt' into table qingqian;
#查数据
select * from qingqian;
#删除数据
drop table qingqian;
#将数据导出
hive -e "select * from qingqian" >> local/qingqian.txt
#查建表语句
show create table qingqian;
#修改表中字段名
alter table qingqian CHANGE name new_name string;
hbase 操作
#建表
create 'qingqian','info';
#查表
describe 'qingqian';
#往表中写数据
put 'qingqian','qingqian2','info:birthday','1987-6-17';
put 'qingqian','qingqian2','info:age','24';
#获取表中数据某个数据
get 'qingqian','qingqian2';
#查表所有数据
scan 'qingqian'
#让表失效
disable 'qingqian'
#查所有的表
list