前提
1、hadoop集群正常运行
2、zookeeper集群正常运行
3、以当前root用户为例
部署
1、解压
tar xvf hbase-1.1.13-bin.tar.gz -C /opt/
ln -s /opt/hbase-1.1.13/ /opt/apps/hbase
2、修改环境变量
vi /etc/profile
export HBASE_HOME=/opt/apps/hbase
export PATH=$PATH:$HBASE_HOME/bin
3、修改配置文件
配置regionservers
vi /opt/hbase-1.1.13/conf/regionservers
hdc-data4
hdc-data5
hdc-data6
修改hbase-site.xml
vi /opt/hbase-1.1.13/conf/hbase-site.xml
<!-- 指定hbase region server的共享目录 -->
<property>
<name>hbase.rootdir</name>
<value>hdfs://mycluster/hbase</value>
</property>
<!-- 启用分布式集群 -->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!-- 设置zookeeper,默认端口2181可以不写 -->
<property>
<name>hbase.zookeeper.quorum</name>
<value>hdc-data4,hdc-data5,hdc-data6</value>
</property>
修改hbase-env.sh
mkdir -p /data/hbase/pids
vi /opt/hbase-1.1.13/conf/hbase-env.sh
#修改java_home (line27)
export JAVA_HOME=/opt/java/jdk1.8.0_181
#默认情况下hbase的pid文件保存在/tmp目录下,/tmp目录下的文件很容易丢失(line120)
export HBASE_PID_DIR=/data/hbase/pids
#使用自定义的zk (line128)
export HBASE_MANAGES_ZK=false
4、添加hdfs-site.xml到conf目录下
cp /opt/apps/hadoop/etc/hadoop/hdfs-site.xml /opt/hbase-1.1.13/conf/
5、分发到集群
scp /etc/profile root@hdc-data5:/etc/
scp /etc/profile root@hdc-data6:/etc/
scp -r /opt/hbase-1.1.13/ root@hdc-data5:/opt/
scp -r /opt/hbase-1.1.13/ root@hdc-data6:/opt/
并在被同步的主机建立软连接
ln -s /opt/hbase-1.1.13/ /opt/apps/hbase
source /etc/profile
6、启动hbase
start-hbase.sh
jsp查看启动进程是否正常,并通过160010端口在WEBUI查看
image.png
7、高可用 HA
在其他regionserver启动standby master即可
hbase-daemon.sh start master