Hadoop系列-HBase数据库JAVA篇

一、Hadoop Hbase数据库JAVA集成
前面都是在咱们通过hbase shell来执行的,今天咱们引入到java项目中来。

咱们接下来看看如何操作。

注意咱们最初的启动docker的镜像时候,重点需要把固定的端口暴露出来,hbase需要使用的包括

zookeeper(HBase自带,不需要手动安装)的2181端口,hbase的16000,16201,下面是咱们最开始部署hadoop的时候的映射端口到宿主机上

docker run -p 2888:2888 -p 3888:3888 -p 2181:2181 -p 9000:9000 -p 50070:50070 -p 8485:8485 -p 9870:9870 -p 8042:8042 -p 50010:50010 -p 16000:16000 -p 16201:16201 -p 8088:8088 -p 60000:60000 -p 60011:60010 -p 60020:60020 -p 60030:60030 -p 8080:8080 -p 9090:9090  --name master -d -h master sequenceiq/hadoop-docker

二、引入pom包
由于我的hbase安装的1.7.1版本,因此引入的pom也需要是1.7.1版本

<dependency>
    <groupId>org.apache.hbase</groupId>
    <artifactId>hbase-client</artifactId>
    <version>1.7.1</version>
</dependency>

三、创建表

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.HColumnDescriptor;
import org.apache.hadoop.hbase.HTableDescriptor;
import org.apache.hadoop.hbase.TableName;
import org.apache.hadoop.hbase.client.Admin;
import org.apache.hadoop.hbase.client.Connection;
import org.apache.hadoop.hbase.client.ConnectionFactory;

public class CreateTable {
    public static void main(String[] args) throws Exception{
        Configuration configuration = HBaseConfiguration.create();
        configuration.set("hbase.zookeeper.property.clientPort", "2181");
        configuration.set("hbase.zookeeper.quorum", "127.0.0.1");
        Connection connection = ConnectionFactory.createConnection(configuration);
        try{
            Admin admin = connection.getAdmin();
            HTableDescriptor tableName = new HTableDescriptor(TableName.valueOf("census"));
            tableName.addFamily(new HColumnDescriptor("personal"));
            tableName.addFamily(new HColumnDescriptor("professional"));
            if(!admin.tableExists(tableName.getTableName())){
                System.out.println("开始创建表");
                admin.createTable(tableName);
                System.out.println("创建表完成");
            }else{
                System.out.println("表已经存在");
            }
        }finally {
            connection.close();
        }
    }
}
//运行输出
开始创建表

创建表完成
java执行完毕后,到hbase shell去查看table已经建立完毕了

hbase(main):003:0> list
TABLE                                                                                                                                                                                                                                                                         
census                                                                                                                                                                                                                                                                        
1 row(s) in 0.1870 seconds

四、Put数据

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.TableName;
import org.apache.hadoop.hbase.client.Connection;
import org.apache.hadoop.hbase.client.ConnectionFactory;
import org.apache.hadoop.hbase.client.Put;
import org.apache.hadoop.hbase.client.Table;
import org.apache.hadoop.hbase.util.Bytes;

import java.util.ArrayList;
import java.util.List;

public class SimplePut {
    private static byte[] PERSONAL_CF = Bytes.toBytes ( "personal" ) ;
    private static byte[] PROFESSIONAL_CF= Bytes. toBytes ( "professional") ;
    private static byte[] NAME_COLUMN = Bytes.toBytes ( "name") ;
    private static byte[] GENDER_COLUMN = Bytes. toBytes ( "gender") ;
    private static byte[] MARITAL_STATUS_COLUMN = Bytes.toBytes ("marital_status") ;
    private static byte[] EMPLOYED_COLUMN = Bytes.toBytes ( "employed" ) ;
    private static byte[] FIELD_COLUMN = Bytes. toBytes("field");
    public static void main(String[] args) throws Exception {
        Configuration configuration = HBaseConfiguration.create();
        configuration.set("hbase.zookeeper.property.clientPort", "2181");
        configuration.set("hbase.zookeeper.quorum", "127.0.0.1");
        Connection connection = ConnectionFactory.createConnection(configuration);
        Table table = null;
        try{
            table = connection.getTable(TableName.valueOf("census"));
            Put put1 = new Put(Bytes.toBytes("1"));
            put1.addColumn(PERSONAL_CF,NAME_COLUMN,Bytes.toBytes("章三"));
            put1.addColumn(PERSONAL_CF,GENDER_COLUMN,Bytes.toBytes("男"));
            put1.addColumn(PERSONAL_CF,MARITAL_STATUS_COLUMN,Bytes.toBytes("已婚"));
            put1.addColumn(PROFESSIONAL_CF,EMPLOYED_COLUMN,Bytes.toBytes("是"));
            put1.addColumn(PROFESSIONAL_CF,FIELD_COLUMN,Bytes.toBytes("constraction"));
            table.put(put1);
            System.out.println("章三 插入hbase完成");
            Put put2 = new Put(Bytes.toBytes("2"));
            put2.addColumn(PERSONAL_CF,NAME_COLUMN,Bytes.toBytes("里斯"));
            put2.addColumn(PERSONAL_CF,GENDER_COLUMN,Bytes.toBytes("女"));
            put2.addColumn(PERSONAL_CF,MARITAL_STATUS_COLUMN,Bytes.toBytes("已婚"));
            put2.addColumn(PROFESSIONAL_CF,EMPLOYED_COLUMN,Bytes.toBytes("是"));
            put2.addColumn(PROFESSIONAL_CF,FIELD_COLUMN,Bytes.toBytes("constraction1"));
            Put put3 = new Put(Bytes.toBytes("3"));
            put3.addColumn(PERSONAL_CF,NAME_COLUMN,Bytes.toBytes("王3"));
            put3.addColumn(PERSONAL_CF,GENDER_COLUMN,Bytes.toBytes("女"));
            List<Put> list = new ArrayList<>();
            list.add(put2);
            list.add(put3);
            table.put(list);
            System.out.println("批量 插入hbase完成");
        }finally {
            connection.close();
            if(table!=null) {
                table.close();
            }
        }
    }
}
//输出
章三 插入hbase完成
批量 插入hbase完成

到hbase shell查看,注意表里都是byte,不能展示中文,后期通过java读取出来没有问题

hbase(main):001:0> scan 'census'
ROW    COLUMN+CELL                                   
 1     column=personal:gender, timestamp=1648107751834, value=\xE7\x94\xB7          
 1     column=personal:marital_status, timestamp=1648107751834, value=\xE5\xB7\xB2\xE5\xA9\x9A                     
 1     column=personal:name, timestamp=1648107751834, value=\xE7\xAB\xA0\xE4\xB8\x89                               
 1     column=professional:employed, timestamp=1648107751834, value=\xE6\x98\xAF    
 1     column=professional:field, timestamp=1648107751834, value=constraction       
 2     column=personal:gender, timestamp=1648107751855, value=\xE5\xA5\xB3          
 2     column=personal:marital_status, timestamp=1648107751855, value=\xE5\xB7\xB2\xE5\xA9\x9A                     
 2     column=personal:name, timestamp=1648107751855, value=\xE9\x87\x8C\xE6\x96\xAF                               
 2     column=professional:employed, timestamp=1648107751855, value=\xE6\x98\xAF    
 2     column=professional:field, timestamp=1648107751855, value=constraction1      
 3     column=personal:gender, timestamp=1648107751855, value=\xE5\xA5\xB3          
 3     column=personal:name, timestamp=1648107751855, value=\xE7\x8E\x8B3 

五、Get数据

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.TableName;
import org.apache.hadoop.hbase.client.*;
import org.apache.hadoop.hbase.util.Bytes;

import java.util.ArrayList;
import java.util.List;

public class SimpleGet {
    private static byte[] PERSONAL_CF = Bytes.toBytes ( "personal" ) ;
    private static byte[] PROFESSIONAL_CF= Bytes. toBytes ( "professional") ;
    private static byte[] NAME_COLUMN = Bytes.toBytes ( "name") ;
    private static byte[] FIELD_COLUMN = Bytes. toBytes("field");
    public static void main(String[] args) throws Exception {
        Configuration configuration = HBaseConfiguration.create();
        configuration.set("hbase.zookeeper.property.clientPort", "2181");
        configuration.set("hbase.zookeeper.quorum", "127.0.0.1");
        Connection connection = ConnectionFactory.createConnection(configuration);
        Table table = null;
        try{
            table = connection.getTable(TableName.valueOf("census"));
            Get get = new Get(Bytes.toBytes("1"));
            get.addColumn(PERSONAL_CF,NAME_COLUMN);
            get.addColumn(PROFESSIONAL_CF,FIELD_COLUMN);
            Result result = table.get(get);
            byte[] nameValue = result.getValue(PERSONAL_CF,NAME_COLUMN);
            byte[] filedValue = result.getValue(PROFESSIONAL_CF,FIELD_COLUMN);
            System.out.println("Get result name: "+ Bytes.toString(nameValue) +";file: "+ Bytes.toString(filedValue));
            Get get1 = new Get(Bytes.toBytes("2"));
            get1.addColumn(PERSONAL_CF,NAME_COLUMN);
            Get get2 = new Get(Bytes.toBytes("3"));
            get2.addColumn(PERSONAL_CF,NAME_COLUMN);
            List<Get> gets = new ArrayList<>();
            gets.add(get1);
            gets.add(get2);
            Result[] results = table.get(gets);
            for (Result r:results) {
                byte[] nameValue1 = r.getValue(PERSONAL_CF,NAME_COLUMN);
                System.out.println("Batch Get result name: "+ Bytes.toString(nameValue1));
            }
        }finally {
            connection.close();
            if(table!=null) {
                table.close();
            }
        }
    }
}
//输出
Get result name: 章三;file: constraction
Batch Get result name: 里斯
Batch Get result name: 王3

六、Scan数据

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.Cell;
import org.apache.hadoop.hbase.CellUtil;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.TableName;
import org.apache.hadoop.hbase.client.*;

public class SimpleScan {
    public static void main(String[] args) throws Exception {
        Configuration configuration = HBaseConfiguration.create();
        configuration.set("hbase.zookeeper.property.clientPort", "2181");
        configuration.set("hbase.zookeeper.quorum", "127.0.0.1");
        Connection connection = ConnectionFactory.createConnection(configuration);
        Table table = null;
        ResultScanner scanResult = null;
        try{
            table = connection.getTable(TableName.valueOf("census"));
            Scan scan = new Scan();
            scanResult = table.getScanner(scan);
            for (Result result:scanResult) {
                for (Cell cell:result.listCells()) {
                    String row = new String(CellUtil.cloneRow(cell));
                    String family = new String(CellUtil.cloneFamily(cell));
                    String column = new String(CellUtil.cloneQualifier(cell));
                    String value = new String(CellUtil.cloneValue(cell));
                    System.out.println("row: "+ row + " family: "+family+ " column: "+column+ " value: "+value);
                }
            }
        }finally {
            connection.close();
            if(table!=null) {
                table.close();
            }
        }
    }
}
//输出
row: 1 family: personal column: gender value: 男
row: 1 family: personal column: marital_status value: 已婚
row: 1 family: personal column: name value: 章三
row: 1 family: professional column: employed value: 是
row: 1 family: professional column: field value: constraction
row: 2 family: personal column: gender value: 女
row: 2 family: personal column: marital_status value: 已婚
row: 2 family: personal column: name value: 里斯
row: 2 family: professional column: employed value: 是
row: 2 family: professional column: field value: constraction1
row: 3 family: personal column: gender value: 女
row: 3 family: personal column: name value: 王3

七、Delete数据

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.TableName;
import org.apache.hadoop.hbase.client.*;
import org.apache.hadoop.hbase.util.Bytes;

public class SimpleDelete {
    private static byte[] PERSONAL_CF = Bytes.toBytes ( "personal" ) ;
    private static byte[] PROFESSIONAL_CF= Bytes. toBytes ( "professional") ;
    private static byte[] MARITAL_STATUS_COLUMN = Bytes.toBytes ("marital_status") ;
    private static byte[] FIELD_COLUMN = Bytes. toBytes("field");
    public static void main(String[] args) throws Exception {
        Configuration configuration = HBaseConfiguration.create();
        configuration.set("hbase.zookeeper.property.clientPort", "2181");
        configuration.set("hbase.zookeeper.quorum", "127.0.0.1");
        Connection connection = ConnectionFactory.createConnection(configuration);
        Table table = null;
        try{
            table = connection.getTable(TableName.valueOf("census"));
            Delete delete = new Delete(Bytes.toBytes("1"));
            delete.addColumn(PERSONAL_CF,MARITAL_STATUS_COLUMN);
            delete.addColumn(PROFESSIONAL_CF,FIELD_COLUMN);
            table.delete(delete);
            System.out.println("delete 完成");
        }finally {
            connection.close();
            if(table!=null) {
                table.close();
            }
        }
    }
}
//输出
delete 完成

到hbase shell查看,可以看到id为1的,marital_status和field不存在了

hbase(main):005:0> scan 'census'
ROW    COLUMN+CELL                                   
 1     column=personal:gender, timestamp=1648111949216, value=\xE7\x94\xB7          
 1     column=personal:name, timestamp=1648111949216, value=\xE7\xAB\xA0\xE4\xB8\x89                               
 1     column=professional:employed, timestamp=1648111949216, value=\xE6\x98\xAF    
 2     column=personal:gender, timestamp=1648111949237, value=\xE5\xA5\xB3          
 2     column=personal:marital_status, timestamp=1648111949237, value=\xE5\xB7\xB2\xE5\xA9\x9A                     
 2     column=personal:name, timestamp=1648111949237, value=\xE9\x87\x8C\xE6\x96\xAF                               
 2     column=professional:employed, timestamp=1648111949237, value=\xE6\x98\xAF    
 2     column=professional:field, timestamp=1648111949237, value=constraction1      
 3     column=personal:gender, timestamp=1648111949237, value=\xE5\xA5\xB3          
 3     column=personal:name, timestamp=1648111949237, value=\xE7\x8E\x8B3 

八、Delete表

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.HTableDescriptor;
import org.apache.hadoop.hbase.TableName;
import org.apache.hadoop.hbase.client.Admin;
import org.apache.hadoop.hbase.client.Connection;
import org.apache.hadoop.hbase.client.ConnectionFactory;

public class DeleteTable {
    public static void main(String[] args) throws Exception{
        Configuration configuration = HBaseConfiguration.create();
        configuration.set("hbase.zookeeper.property.clientPort", "2181");
        configuration.set("hbase.zookeeper.quorum", "127.0.0.1");
        Connection connection = ConnectionFactory.createConnection(configuration);
        try{
            Admin admin = connection.getAdmin();
            HTableDescriptor tableName = new HTableDescriptor(TableName.valueOf("census"));
            if(admin.tableExists(tableName.getTableName())){
                System.out.println("开始删除表");
                admin.disableTable(tableName.getTableName());
                admin.deleteTable(tableName.getTableName());
                System.out.println("删除表完成");
            }else{
                System.out.println("表不存在");
            }
        }finally {
            connection.close();
        }
    }
}
//输出
开始删除表
删除表完成

再次到hbase shell查看,表已经不存在了

hbase(main):006:0> list
TABLE                                                                                                                                                                                                                                                                         
0 row(s) in 0.0150 seconds

=> []

写到这里,Hadoop的HBase部分正式完成,我在思考下接下来写Hadoop的哪一部分?加油,继续卷。

谢各位的阅读,谢谢您动动手指点赞,万分感谢各位。另外以下是我之前写过的文章,感兴趣的可以点进去继续阅读。

历史文章

Hadoop系列-入门安装
Hadoop系列-HDFS命令
Hadoop系列-Hive安装
Hadoop系列-Hive数据库常见SQL命令
Hadoop系列-HBase数据库
Hadoop系列-HBase数据库(二)
Hadoop系列-HBase数据库JAVA篇
Hadoop系列-Spark安装以及HelloWorld
Hadoop系列-MapReduce小例子
Hadoop系列-Spark小例子
JAVA面试汇总(五)数据库(一)
JAVA面试汇总(五)数据库(二)
JAVA面试汇总(五)数据库(三)
JAVA面试汇总(四)JVM(一)
JAVA面试汇总(四)JVM(二)
JAVA面试汇总(四)JVM(三)
JAVA面试汇总(三)集合(一)
JAVA面试汇总(三)集合(二)
JAVA面试汇总(三)集合(三)
JAVA面试汇总(三)集合(四)
JAVA面试汇总(二)多线程(一)
JAVA面试汇总(二)多线程(二)
JAVA面试汇总(二)多线程(三)
JAVA面试汇总(二)多线程(四)
JAVA面试汇总(二)多线程(五)
JAVA面试汇总(二)多线程(六)
JAVA面试汇总(二)多线程(七)
JAVA面试汇总(一)Java基础知识

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 222,104评论 6 515
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 94,816评论 3 399
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 168,697评论 0 360
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,836评论 1 298
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,851评论 6 397
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 52,441评论 1 310
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,992评论 3 421
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,899评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 46,457评论 1 318
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,529评论 3 341
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,664评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 36,346评论 5 350
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 42,025评论 3 334
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,511评论 0 24
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,611评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 49,081评论 3 377
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,675评论 2 359

推荐阅读更多精彩内容