Linux下安装Hadoop 2.9.2 和Hive 1.0.1

背景

因项目需要,想把远程服务器上的数据(Hadoop数据库)导入本地mysql,所以需要在本地服务器上搭建Hadoop和Hive环境,以便可以访问远程Hadoop数据库。查阅网上的教程,发现还是有各种坑,所以决定自己写一个教程。


在Linux下安装Hadoop 2.9.2

一、下载Hadoop安装包

由于不知道远程服务器的Hadoop和Hive版本,担心会有版本不兼容的问题,所以选择较低版本的 Hadoop 2.9.2(最新是 3.2.1)。下载地址:https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-2.9.2/

a. 因为服务器无法访问外网,所以只能自己下载好把文件传输到服务器上,用的scp命令:

        scp hadoop-2.9.2.tar.gz root@[server's ip]:/[destiny address]

b. 如果可以直接访问外网的小伙伴可以用shell命令下载:

        wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-2.9.2/hadoop-2.9.2.tar.gz

二、解压缩Hadoop安装包

将文件放到安装目录,解压完成后既可以使用,解压命令如下:

        tar -zxvf hadoop-2.9.2.tar.gz

三、为Hadoop配置文件增加 tmp 目录

Hadoop运行会生成一些临时和log文件,需要提前建好目录,将安装地址替换为你要安装的地址:

        mkdir /app/software/hadoop/tmp

        mkdir /app/software/hadoop/tmp/dfs

        mkdir /app/software/hadoop/tmp/data

        mkdir /app/software/hadoop/tmp/name

设置权限:

        chmod -x /app/software/hadoop/tmp

        chmod -x /app/software/hadoop/tmp/dfs

        chmod -x /app/software/hadoop/tmp/data

        chmod -x /app/software/hadoop/tmp/name

四、修改Hadoop配置文件

需要配置的文件如下,hadoop-env.sh,core-site.xml,mapred-site.xml.template,hdfs-site.xml,所有的文件均位于hadoop2.9.2/etc/hadoop下面,具体需要的配置如下:

注意:斜体加黑的路径是我的服务器上的路径,如果你的不一致,需要替换为步骤三中设置的路径。

1. core-site.xml 文件添加如下配置:

<configuration>

  <property>

    <name>hadoop.tmp.dir</name>

    <value>file:/app/software/hadoop/tmp</value>

    <description>Abase for other temporary directories.</description>

  </property>

  <property>

    <name>fs.defaultFS</name>

    <value>hdfs://localhost:9000</value>

  </property>

</configuration>

2. mapred-site.xml.template添加如下配置:

<configuration>

  <property>

    <name>mapred.job.tracker</name>

    <value>localhost:9001</value>

  </property>

</configuration>

3. hdfs-site.xml添加如下配置:

<configuration>

  <property>

    <name>dfs.replication</name>

    <value>1</value>

  </property>

  <property>

    <name>dfs.namenode.name.dir</name>

    <value>file:/app/software/hadoop/tmp/dfs/name</value>

  </property>

  <property>

    <name>dfs.datanode.data.dir</name>

    <value>file:/app/software/hadoop/tmp/dfs/data</value>

  </property>

</configuration>

4. 如果运行Hadoop时找不到jdk,则另需要在hadoop-env.sh文件中增加jdk,需要将jdk地址改为你的jdk地址:

        export JAVA_HOME="/usr/java/jdk1.8.0_221-amd64"

五、运行Hadoop

在配置完成后,运行Hadoop,将目录切换至Hadoop 2.9.2文件目录。

1. 初始化HDFS系统

在hadop2.7.1目录下使用如下命令:

        bin/hdfs namenode -format

提醒 "SHUTDOWN_MSG: Shutting down NameNode at xxx" 即说明执行成功。

2. 开启NameNode和DataNode守护进程

使用如下命令开启:

        sbin/start-dfs.sh

3. 使用如下命令查看进程信息:

        jps

看到进程中有DataNode和NameNode则说明开启成功。

结束,在Linux上的Hadoop就安装成功了。


在Linux下安装Hive 1.0.1

一、前期准备

1. Hadoop 2.9.2,见上一步安装配置教程。

2. 本地MySql Server安装完成。

3. MySql Connector 5.1.48

下载地址:https://dev.mysql.com/downloads/file/?id=489461

我用的是 mysql-connector-java-5.1.48.tar.gz,高版本会有兼容性问题,建议大家使用这个版本。

4. 下载Hive 1.0.1 安装包

下载地址:http://archive.apache.org/dist/hive/hive-1.0.1/apache-hive-1.0.1-bin.tar.gz

之所以选择1.0.1版本,是因为远程服务器Hive版本未知,用高版本的Hive client去访问低版本的Hive server会有不兼容问题,我就遇到这样的问题,卡了很久都没有解决,最后换了低版本Hive就没有问题了。

二、Hive安装

解压Hive到你想要安装的目录文件下

        tar -zxvf apache-hive-1.0.1-bin.tar.gz

三、环境变量配置

这点非常重要,我在安装的时候经常会遇到某个环境变量找不到的问题。

1. 打开环境变量配置文件:

        vim /etc/profile

2. 添加需要配置的环境变量,切莫直接复制,把文件地址改为你的地址:

        export JAVA_HOME=/usr/java/jdk1.8.0_221-amd64

        export HADOOP_HOME=/app/software/hadoop/hadoop-2.9.2

        export HIVE_HOME=/app/software/apache-hive-1.0.1-bin

        export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$HIVE_HOME/bin:$PATH

        export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$HIVE_HOME/lib

四、添加 MySql Connector Java

将MySql Connector的包解压并放入$HIVE_HOME\lib的目录下:

  tar -zxvf mysql-connector-java-5.1.48.tar.gz $HIVE_HOME\lib

五、Hadoop配置

1. 启动dfs+yarn

在Hadoop 2.9.2 的文件目录下执行:

        sbin/start-all.sh

2. 创建HDFS目录并赋予权限

        hdfs dfs -mkdir -p /app/software/hive/warehouse

        hdfs dfs -mkdir -p /app/software/hive/tmp

        hdfs dfs -mkdir -p /app/software/hive/log

        hdfs dfs -chmod g+w /app/software/hive/warehouse

        hdfs dfs -chmod g+w /app/software/hive/tmp

        hdfs dfs -chmod g+w /app/software/hive/log

六、Hive配置

需要配置的文件有两个:hive-env.sh 和 hive-site.xml。在conf目录下默认有这两个文件的模板,我们直接将这两个文件复制生成新的配置文件,步骤如下。

1. 生成并配置hive-env.sh文件,命令如下:

        cp -r hive-env.sh.template hive-env.sh

        vim hive-env.sh

把如下配置复制到文件中,切莫直接复制,把对应地址改为你的安装地址:

        export JAVA_HOME=/usr/java/jdk1.8.0_221-amd64

        export HADOOP_HOME=/app/software/hadoop/hadoop-2.9.2

        export HIVE_HOME=/app/software/apache-hive-1.0.1-bin

        # Hive Configuration Directory can be controlled by:

        export HIVE_CONF_DIR=$HIVE_HOME/conf

2. 生成并配置hive-site.xml文件,命令如下:

        cp -r hive-default.xml.template hive-site.xml

        vim hive-site.xml

因为文件中有很多配置命令,需要将对应的配置中的<value></value>值修改,建议大家使用vim的搜索功能 :/,查找到对应的条目进行修改。

<configuration>

  <!-- WARNING!!! This file is auto generated for documentation purposes ONLY! -->

  <!-- WARNING!!! Any changes you make to this file will be ignored by Hive.  -->

  <!-- WARNING!!! You must make your changes in hive-site.xml instead.        -->

  <!-- Hive Execution Parameters -->

  <property>

    <name>hive.exec.scratchdir</name>

    <value>/app/software/hive/tmp</value>

    <description>HDFS root scratch dir for Hive jobs which gets created with write all (733) permission. For each connecting user, an HDFS scratch dir: ${hive.exec.scratchdir}/<username> is created, with ${hive.scratch.dir.permission}.</description>

  </property>

  <property>

    <name>hive.metastore.warehouse.dir</name>

    <value>/app/software/hive/warehouse</value>

    <description>location of default database for the warehouse</description>

  </property>

<property>

    <name>hive.querylog.location</name>

    <value>/app/software/hive/log</value>

    <description>Location of Hive run time structured log file</description>

  </property>

<property>

    <name>javax.jdo.option.ConnectionURL</name>

    <value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true&characterEncoding=UTF-8&useSSL=false</value>

  </property>

  <property>

    <name>javax.jdo.option.ConnectionDriverName</name>

    <value>com.mysql.jdbc.Driver</value>

  </property>

  <property>

    <name>javax.jdo.option.ConnectionUserName</name>

    <value>mysql用户名</value>

  </property>

  <property>

    <name>javax.jdo.option.ConnectionPassword</name>

    <value>mysql用户的密码</value>

  </property>

</configuration>

七、启动HIVE

先运行 schematool 命令来执行初始化操作

        schematool -dbType mysql -initSchema

然后就可以直接启动了:

        hive

启动成功!

先写这么多了,其实过程中遇到很多问题,大家有什么问题可以留言,我会及时回复。

从远程Hadoop服务器通过Hive导出数据到本地MySql见下篇教程:https://www.jianshu.com/p/4a3403e7f7d7


参考文章:

https://www.cnblogs.com/leesf456/p/4795507.html

https://blog.csdn.net/a123demi/article/details/72742279

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 213,186评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,858评论 3 387
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 158,620评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,888评论 1 285
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,009评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,149评论 1 291
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,204评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,956评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,385评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,698评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,863评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,544评论 4 335
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,185评论 3 317
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,899评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,141评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,684评论 2 362
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,750评论 2 351