- 安装好对应版本的hadoop集群,并启动hadoop的HDFS以及YARN服务
- 安装了MySQL服务,并启动MySQL的服务
Hive的安装部署
注意hive就是==一个构建数据仓库的工具==,只需要在==一台服务器上==安装就可以了,不需要在多台服务器上安装。
此处以安装到node03为例;==请大家保持统一==
使用==hadoop普通用户==操作
1.1 先决条件
搭建好三节点Hadoop集群;
node03上先安装好MySQL服务;
参考文档:《CentOS 7安装MySQL5.7版本》
1.2 准备安装包
-
下载hive的安装包
-
规划安装目录
- /kkb/install
上传安装包到node03服务器中的/kkb/soft路径下
1.3 解压
- 解压安装包到指定的规划目录/kkb/install
[hadoop@node03 ~] tar -xzvf hive-1.1.0-cdh5.14.2.tar.gz -C /kkb/install/
1.4 修改配置文件
-
修改==配置文件hive-env.sh==
- 进入到Hive的安装目录下的conf文件夹中
[hadoop@node03 soft]$ cd /kkb/install/hive-1.1.0-cdh5.14.2/conf/
* 重命名hive-env.sh.template
[hadoop@node03 conf]$ mv hive-env.sh.template hive-env.sh
* 修改hive-env.sh
[hadoop@node03 conf]$ vim hive-env.sh
* 如下,修改此文件中HADOOP_HOME、HIVE_CONF_DIR的值(根据自己机器的实际情况配置)
配置HADOOP_HOME路径
export HADOOP_HOME=/kkb/install/hadoop-2.6.0-cdh5.14.2/
配置HIVE_CONF_DIR路径
export HIVE_CONF_DIR=/kkb/install/hive-1.1.0-cdh5.14.2/conf
修改==配置文件hive-site.xml==
conf目录下默认没有此文件,vim创建即可
[hadoop@node03 conf]$ vim hive-site.xml
文件内容如下
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://node03:3306/hive?createDatabaseIfNotExist=true&characterEncoding=latin1&useSSL=false</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
</property>
<property>
<name>hive.cli.print.current.db</name>
<value>true</value>
</property>
<property>
<name>hive.cli.print.header</name>
<value>true</value>
</property>
<property>
<name>hive.server2.thrift.bind.host</name>
<value>node03</value>
</property>
</configuration>
修改==日志配置文件hive-log4j.properties==
- 创建hive日志存储目录
[hadoop@node03 conf]$ mkdir -p /kkb/install/hive-1.1.0-cdh5.14.2/logs/
重命名生成文件hive-log4j.properties
[hadoop@node03 conf] mv hive-log4j.properties.template hive-log4j.properties
[hadoop@node03 conf]$ vim hive-log4j.properties # 修改文件
修改此文件的hive.log.dir属性的值
更改以下内容,设置我们的hive的日志文件存放的路径,便于排查问题
hive.log.dir=/kkb/install/hive-1.1.0-cdh5.14.2/logs/
1.5 拷贝mysql驱动包
- 上传mysql驱动包,如
mysql-connector-java-5.1.38.jar
到/kkb/soft
目录中 - 由于运行hive时,需要向mysql数据库中读写元数据,所以==需要将mysql的驱动包上传到hive的lib目录下==
[hadoop@node03 ~]cp mysql-connector-java-5.1.38.jar /kkb/install/hive-1.1.0-cdh5.14.2/lib/
1.6 配置Hive环境变量
- 切换到root用户下
[hadoop@node03 soft]PATH:
source /etc/profile
1.7 验证安装
- ==hadoop集群已启动==
- ==mysql服务已启动==
- 在node03上任意目录启动hive cli命令行客户端
[hadoop@node03 ~]$ hive