1、查看HBase的MapReduce任务的执行
[victor@node1 hbase]$ bin/hbase mapredcp
2、执行环境变量的导入
[victor@node1 ~]$ export HBASE_HOME=/opt/module/hbase-1.3.1
[victor@node1 ~]$ export HADOOP_HOME=/opt/module/hadoop-2.8.2
[victor@node1 ~]$ export HADOOP_CLASSPATH=`${HBASE_HOME}/bin/hbase mapredcp`
3、使用MapReduce将本地数据导入到HBase
(1) 在本地创建一个tsv格式的文件:fruit.tsv
1001 Apple Red
1002 Pear Yellow
1003 Pineapple Yellow
尖叫提示:上面的这个数据不要从word中直接复制,有格式错误,手动敲。
(2) 创建HBase表
hbase > create 'fruit','info'
(3) 在HDFS中创建input_fruit文件夹并上传fruit.tsv文件
[victor@node1 hadoop-2.8.2]$ bin/hdfs dfs -mkdir /input_fruit/
[victor@node1 hadoop-2.8.2]$ bin/hdfs dfs -put fruit.tsv /input_fruit/
(4) 执行MapReduce到HBase的fruit表中
[victor@node1 hbase-1.2.5]$ /opt/module/hadoop-2.8.2/bin/yarn jar \
lib/hbase-server-1.2.5.jar importtsv \
-Dimporttsv.columns=HBASE_ROW_KEY,info:name,info:color fruit \
hdfs://node1:9000/input_fruit
(5) 使用scan命令查看导入后的结果
hbase > scan 'fruit'