ImportTsv向HBase表中导入数据

ImportTsv是HBase提供的一个命令行工具,将存储在hdfs上的数据文件,通过指定的分隔符解析后,导入到HBase表中。

启动Hadoop、Yarn、HBase

$HADOOP_HOME/sbin/start-dfs.sh
$HADOOP_HOME/sbin/start-yarn.sh
habse-start.sh

输入命令·

jps

查看是否成功启动
启动Yarn是因为导入数据时要使用到mapreduce程序

建表

habse shell

进入HBase命令行

create 'test','text1'

其中test为表名,text1为列名
可以通过

list

查看hbase中现有的表

上传数据至HDFS

创建一个csv文件

vi text.csv

在其中输入

1,'a'
2,'b'
3,'c'

三行数据,保存并退出
上传该文件至hdfs上
前提要保证/test/htest存在
若无,可以采用

hdfs dfs -mkdir

进行创建

hdfs dfs -copyFromLocal text.csv /test/htest/

向HBase中导入数据

hbase org.apache.hadoop.hbase.mapreduce.ImportTsv -Dimporttsv.separator="," -Dimporttsv.columns=HBASE_ROW_KEY,text1 test /test/htest/text.csv

运行结果如下图

屏幕截图 2023-09-22 135327.png

Bad Lines=0一般情况下会导入成功,若为行数一般情况下导入失败
进入habse查看

scan 'test'

结果如图

屏幕截图 2023-09-22 132447.png

就结束了!!!

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容