Hadoop集群安装记录

前言

因工作需要验证FlinkCDC相关功能,Flink的checkpoint 信息可以放到Hdfs上,因此想部署一套Hadoop进行验证,鉴于之前部署的都没有做记录,本次安装部署的时候还得重新找安装步骤,因此本次做了记录,方便后续如果需要可以进行快速安装。大神绕过~

一、环境准备

1.集群规划

    VMware Workstation 15
    CentOS 7.9
    192.168.10.21(hadoop01)
    192.168.10.22(hadoop02)
    192.168.10.23(hadoop03)

2.虚拟机安装、网络配置
略...
3.JDK安装

版本:JDK1.8
步骤:略
  1. 新增 hadoop 用户增加sudo权限
1.新增用户
useradd hadoop
passwd hadoop

2.增加sudo权限
vi /etc/sudoers
新增 hadoop   ALL=(ALL)   ALL

## Allow root to run any commands anywhere 
root     ALL=(ALL)   ALL
hadoop   ALL=(ALL)   ALL

二、zookeeper安装

1.hadoop用户配置免密

1.各节点ssh-keygen生成RSA密钥和公钥(192.168.10.21~23)
ssh-keygen -q -t rsa  -N "" -f  ~/.ssh/id_rsa

2.将所有的公钥文件汇总到一个总的授权key文件中,在192.168.10.21 执行
ssh 192.168.10.21 cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
ssh 192.168.10.22 cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
ssh 192.168.10.23 cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

3.出于安全性考虑,将这个授权key文件赋予600权限:    
chmod 600 ~/.ssh/authorized_keys

4.将这个包含了所有互信机器认证key的认证文件,分发到各个机器中去
scp ~/.ssh/authorized_keys  192.168.10.22:~/.ssh/
scp ~/.ssh/authorized_keys  192.168.10.23:~/.ssh/
  1. 修改hosts
vi /etc/hosts

#Hadoop Cloud
192.168.10.21 hadoop01
192.168.10.22 hadoop02
192.168.10.23 hadoop03

3.上传安装包到hadoop01

下载:http://archive.apache.org/dist/zookeeper/
版本:apache-zookeeper-3.8.0-bin.tar.gz
注:zookeeper 好像从 3.5 版本以后,命名就发生了改变,如果是 apache-zookeeper-3.5.5.tar.gz 这般命名的,都是未编译的,而 apache-zookeeper-3.5.5-bin.tar.gz 这般命名的,才是已编译的包。


个人喜欢使用rz,先安装这个工具
sudo yum -y install lrzsz

1.创建目录
mkdir -p /home/hadoop/plat/zookeeper

2.上传安装包到该目录

3.解压
cd /home/hadoop/plat/zookeeper
tar -zxvf apache-zookeeper-3.8.0-bin.tar.gz

4.更改名称
mv apache-zookeeper-3.8.0-bin zookeeper-3.8.0

5.新增目录
mkdir -p /home/hadoop/plat/zookeeper/zookeeper-3.8.0/data
mkdir -p /home/hadoop/plat/zookeeper/zookeeper-3.8.0/logs
  1. 修改配置文件
1.配置文件修改
cd /home/hadoop/plat/zookeeper/zookeeper-3.8.0/conf
cp zoo_sample.cfg zoo.cfg
vi zoo.cfg
删除其中内容,并更改为
tickTime=2000                                                                                                        
dataDir=/home/hadoop/plat/zookeeper/zookeeper-3.8.0/data
dataLogDir=/home/hadoop/plat/zookeeper/zookeeper-3.8.0/logs
clientPort=21001
initLimit=5
syncLimit=2
server.1=192.168.10.21:21002:21003
server.2=192.168.10.22:21002:21003
server.3=192.168.10.23:21002:21003
autopurge.purgeInterval=24

2.myid修改
cd /home/hadoop/plat/zookeeper/zookeeper-3.8.0/data
echo 1 > myid

5.分发到其他主机

1.配置put工具
cd /home/hadoop
vi .bashrc
新增如下内容
export hadoop01=192.168.10.21
export hadoop02=192.168.10.22
export hadoop03=192.168.10.23
put()
{
    if [ $# != 2 ]
    then
        echo " put filename remotedir   -- eg:  put a.txt /home"
    else
        FileName=$1
        DirName=$2
        echo "${FileName} ${DirName}"
        echo $hadoop0{2..3} | xargs -n1 |awk '{print $0}'
        echo $hadoop0{2..3} | xargs -n1 | xargs -i scp  -r ${FileName} {}:${DirName}
    fi
}

2. 分发到其他两台主机
目标主机创建目录
mkdir -p /home/hadoop/plat/zookeeper

hadoop01主机
cd /home/hadoop/plat/zookeeper
put zookeeper-3.8.0 /home/hadoop/plat/zookeeper

3.修改hadoop02和hadoop03的myid
hadoop02 修改为 2
hadoop02 修改为 3

6.启动集群

1.配置环境变量
#Zookeeper
export ZOOKEEPER_HOME=/home/hadoop/plat/zookeeper/zookeeper-3.8.0
export PATH=${ZOOKEEPER_HOME}/bin:${PATH}

2.三台机器同时启动
cd /home/hadoop
zkServer.sh start

7.查看集群状态
zkServer.sh status


image.png
image.png
image.png

三、hadoop安装

1、安装jdk
2、配置hostname
3、配置hosts
4、版本选择

地址:http://archive.apache.org/dist/hadoop/core/
版本:hadoop-3.3.1.tar.gz

5、上传压缩包

1.hadoop01 创建目录
mkdir -p /home/hadoop/plat/hadoop

2.上传安装包到该目录并解压
tar -zxvf hadoop-3.3.1.tar.gz

6、配置环境变量

vi ~/.bashrc
#Hadoop
export HADOOP_HOME=/home/hadoop/plat/hadoop/hadoop-3.3.1
export PATH=${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin:${PATH}

7、配置文件修改
7.1 修改 hadoop-env.sh

cd ${HADOOP_HOME}/etc/hadoop
vi hadoop-env.sh
# The java implementation to use. By default, this environment
# variable is REQUIRED on ALL platforms except OS X!
# export JAVA_HOME=
export JAVA_HOME=/usr/local/src/jdk1.8.0_321

7.2 修改 core-site.xml

cd ${HADOOP_HOME}
mkdir data
cd ${HADOOP_HOME}/etc/hadoop
vi core-site.xml

<configuration>
    <!-- 指定HADOOP所使用的文件系统schema(URI),HDFS的老大(NameNode)的地址 -->
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://hadoop01:9000</value>
    </property> 
    
    <!-- 指定hadoop运行时产生文件的存储目录 -->
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/home/hadoop/plat/hadoop/hadoop-3.3.1/data</value>
    </property>
    
    <!-- 在Web UI访问HDFS使用的用户名。-->
    <property>
        <name>hadoop.http.staticuser.user</name>
        <value>hadoop</value>
    </property>
</configuration>

7.3 修改 hdfs-site.xml

<configuration>
    <!-- 设定SNN运行主机和端口。-->
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>hadoop02:9868</value>
    </property>
    
    <!-- 指定HDFS副本的数量 -->
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>

7.4 修改 mapred-site.xml

<configuration>
   <!-- 指定mapreduce运行在yarn上 -->
   <property>
       <name>mapreduce.framework.name</name>
       <value>yarn</value>
   </property>

   <property>
       <name>yarn.app.mapreduce.am.env</name>
       <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
   </property>
   <property>
       <name>mapreduce.map.env</name>
       <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
   </property>
   <property>
       <name>mapreduce.reduce.env</name>
       <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
   </property>
</configuration>

7.5 修改 yarn-site.xml

<configuration>
    <!-- 指定YARN的老大(ResourceManager)的地址 -->
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>hadoop01</value>
    </property>

    <!-- reducer获取数据的方式 -->
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>

    <!-- 关闭yarn内存检查 -->
    <property>
        <name>yarn.nodemanager.pmem-check-enabled</name>
        <value>false</value>
    </property>
    <property>
        <name>yarn.nodemanager.vmem-check-enabled</name>
        <value>false</value>
    </property>

    <!--开启日志聚合-->
    <property>  
        <name>yarn.log-aggregation-enable</name>
        <value>true</value>
    </property>
    
    <!--日志聚合hdfs存储路径-->
    <property>  
        <name>yarn.nodemanager.remote-app-log-dir</name>
        <value>/home/hadoop/plat/hadoop/hadoop-3.3.1/logs/nodemanager-remote-app-logs</value>
    </property>
    
    <!--hdfs上的日志保留时间-->
    <property>      
        <name>yarn.log-aggregation.retain-seconds</name>
        <value>604800</value>
    </property>

    <!--应用执行时存储路径-->
    <property>  
        <name>yarn.nodemanager.log-dirs</name>
        <value>file:///home/hadoop/plat/hadoop/hadoop-3.3.1/logs/nodemanager-logs</value>
    </property>

    <property>
    <!--应用执行完日志保留的时间,默认0,即执行完立刻删除-->
        <name>yarn.nodemanager.delete.debug-delay-sec</name>
        <value>604800</value>
    </property>
</configuration>

7.6 修改workers

hadoop01
hadoop02
hadoop03

7.6 分发到其他主机

cd /home/hadoop/plat
put hadoop /home/hadoop/plat

7.7 初始化namenode

hdfs namenode -format
看到成功的标识
/home/hadoop/plat/hadoop/hadoop-3.3.1/data/dfs/name has been successfully formatted.

7.8 启动 hadoop

start-all.sh
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 205,386评论 6 479
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,939评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,851评论 0 341
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,953评论 1 278
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,971评论 5 369
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,784评论 1 283
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,126评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,765评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,148评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,744评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,858评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,479评论 4 322
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,080评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,053评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,278评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,245评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,590评论 2 343

推荐阅读更多精彩内容