1 Hive安装部署
1)把apache-hive-3.1.2-bin.tar.gz上传到linux的/opt/software目录下
2)解压apache-hive-3.1.2-bin.tar.gz到/opt/module/目录下面
[yobhel@hadoop101 software]$ tar -zxvf /opt/software/apache-hive-3.1.2-bin.tar.gz -C /opt/module/
3)修改apache-hive-3.1.2-bin.tar.gz的名称为hive
[yobhel@hadoop101 software]$ mv /opt/module/apache-hive-3.1.2-bin/ /opt/module/hive
4)修改/etc/profile.d/my_env.sh,添加环境变量
[yobhel@hadoop101 software]$ sudo vim /etc/profile.d/my_env.sh
添加内容
#HIVE_HOME
export HIVE_HOME=/opt/module/hive
export PATH=$PATH:$HIVE_HOME/bin
重启Xshell对话框或者source一下 /etc/profile.d/my_env.sh文件,使环境变量生效
[yobhel@hadoop101 software]$ source /etc/profile.d/my_env.sh
5)解决日志Jar包冲突,进入/opt/module/hive/lib目录
[yobhel@hadoop101 lib]$ mv log4j-slf4j-impl-2.10.0.jar log4j-slf4j-impl-2.10.0.jar.bak
2 Hive元数据配置到MySQL
2.1 拷贝驱动
将MySQL的JDBC驱动拷贝到Hive的lib目录下
[yobhel@hadoop101 lib]$ cp /opt/software/mysql-connector-java-5.1.27-bin.jar /opt/module/hive/lib/
2.2 配置Metastore到MySQL
在$HIVE_HOME/conf目录下新建hive-site.xml文件
[yobhel@hadoop101 conf]$ vim hive-site.xml
添加如下内容
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://hadoop101:3306/metastore?useSSL=false</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>000000</value>
</property>
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive/warehouse</value>
</property>
<property>
<name>hive.metastore.schema.verification</name>
<value>false</value>
</property>
<property>
<name>hive.server2.thrift.port</name>
<value>10000</value>
</property>
<property>
<name>hive.server2.thrift.bind.host</name>
<value>0.0.0.0</value>
</property>
<property>
<name>hive.metastore.event.db.notification.api.auth</name>
<value>false</value>
</property>
<!-- 配置命令行通过客户端直连 hive 时展示查询表头 -->
<property>
<name>hive.cli.print.header</name>
<value>true</value>
</property>
<!-- 配置命令行通过客户端直连 hive 时可以展示当前数据库 -->
<property>
<name>hive.cli.print.current.db</name>
<value>true</value>
</property>
<!-- Hive 的bug,如果没有配置 HA 则 hiveserver2 启动时会找 Tez,做无用功,启动很慢,且出现四个 session_id 才可以通过 jdbc 的方式连接 hive,此处配置 HA 之后启动耗时缩短且只要出现两个 session_id 即可连接 -->
<property>
<name>hive.server2.active.passive.ha.enable</name>
<value>true</value>
</property>
<!-- 在 DataGrip 中可以正确加载序列化和反序列化器 SerDe 为
'org.apache.hadoop.hive.serde2.JsonSerDe'
的表的元数据信息,点击表名左侧的三角可以查看表的字段 -->
<property>
<name>metastore.storage.schema.reader.impl</name>
<value>org.apache.hadoop.hive.metastore.SerDeStorageSchemaReader</value>
</property>
<!-- 关闭 MapJoin 优化,hive 的 bug,MapJoin 有时会导致 SQL 执行失败,这里不建议关闭,因为 MapJoin 是一种优化手段,永久关闭影响性能
应在执行 SQL 报错时通过 set hive.auto.convert.join=false 临时关闭 MapJoin 功能 -->
<!--
<property>
<name>hive.auto.convert.join</name>
<value>false</value>
</property>
-->
</configuration>
3 启动Hive
3.1 初始化元数据库
1)登陆MySQL
[yobhel@hadoop101 conf]$ mysql -uroot -p000000
2)新建Hive元数据库
mysql> create database metastore;
mysql> quit;
3)初始化Hive元数据库
[yobhel@hadoop101 conf]$ schematool -initSchema -dbType mysql -verbose
3.2 启动hive客户端
1)启动Hive客户端
[yobhel@hadoop101 hive]$ hive
2)查看一下数据库
hive (default)> show databases;
OK
database_name
default