ImportTsv是HBase提供的一个命令行工具,将存储在hdfs上的数据文件,通过指定的分隔符解析后,导入到HBase表中。
启动Hadoop、Yarn、HBase
$HADOOP_HOME/sbin/start-dfs.sh
$HADOOP_HOME/sbin/start-yarn.sh
habse-start.sh
输入命令·
jps
查看是否成功启动
启动Yarn是因为导入数据时要使用到mapreduce程序
建表
habse shell
进入HBase命令行
create 'test','text1'
其中test为表名,text1为列名
可以通过
list
查看hbase中现有的表
上传数据至HDFS
创建一个csv文件
vi text.csv
在其中输入
1,'a'
2,'b'
3,'c'
三行数据,保存并退出
上传该文件至hdfs上
前提要保证/test/htest存在
若无,可以采用
hdfs dfs -mkdir
进行创建
hdfs dfs -copyFromLocal text.csv /test/htest/
向HBase中导入数据
hbase org.apache.hadoop.hbase.mapreduce.ImportTsv -Dimporttsv.separator="," -Dimporttsv.columns=HBASE_ROW_KEY,text1 test /test/htest/text.csv
运行结果如下图
Bad Lines=0一般情况下会导入成功,若为行数一般情况下导入失败
进入habse查看
scan 'test'
结果如图
就结束了!!!