01-centeros7下安装hadoop集群

# 1 面试部分:

简述hadoop分布式安装步骤

* a) 安装Java

* b) 创建unix用户账号及网络环境配置

* c) 安装hadoop

* d) SSH配置

* e) 配置hadoop

* f) 格式化HDFS文件系统

* g) 启动和停止守护进程

# 2 CenterOS7下hadoop完全分布式集群安装

### 2.1 以root身份在centerOS安装jdk

    在/usr目录下创建java目录

```

mkdir   /usr/java

cd   /usr/java

```

    将下载的 jdk-8-linux-x64.tar.gz拷贝到/usr/java目录下并解压缩

  ```

 tar -zxvf  jdk-8-linux-x64.tar.gz

```

    vi /etc/profile

    追加内容

```

JAVA_HOME=/usr/java/jdk1.8.0_144

 JRE_HOME=/usr/java/jdk1.8.0_144/jre

 CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib

 PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin

 export JAVA_HOME JRE_HOME CLASS_PATH PATH

```

    运行source命令是环境配置文件修改生效:

          source /etc/profile

    测试jdk是否安装成功:命令

         java -version

2.2 创建Unix账号

  A  我们为hadoop创建特定的账号,专门管理hadoop

     以root身份,运行创建账号命令:

     # useradd hadoop    

       注意:用户账号名称随意,不一定必须是hadoop,命令成功后,会生成hadoop账号名,及组名hadoop;

     接着,修改账号登录密码:

      #passwd hadoop

        按要求输入两次相同密码即可;

 B   修改用户及网络环境

      以root身份关闭防火墙,使用hadoop各个节点能够相互通讯

        systemctl stop firewalld.service #停止firewall

        systemctl disable firewalld.service #禁止firewall开机启动

C  修改网卡配置,建议配置为静态IP

    以root身份配置网卡配置文件

    vi /etc/sysconfig/network-scripts/ifcfg-ens33

       修改内容如下:

       BOOTPROTO="static"

       ONBOOT="yes"

       IPADDR=192.168.226.129

       GATEWAY=192.168.226.2

        NETMASK=255.255.255.0

        DNS1=192.168.226.2

D   修改机器名称

   以root身份修改/etc/hosts文件内容

    每一个机器ip 机器名称

    192.168.1.100 master

    192.168.1.101 slavea

    192.168.1.102 slaveb

    保存文件

   以root身份修改对应机器名称

    hostname master

E 修改网络配置

    以root身份修改/etc/sysconfig/network

    # Created by anaconda

    NETWORKING=yes

    HOSTNAME=master

    使用如下命令使刚才的修改/etc/sysconfig/network生效

    source /etc/sysconfig/network

    service network restart

   注意:修改其他节点机器

 F 以root身份修改hadoop账号,添加到sudoers

   注意:

    创建的hadoop用户需要拥有临时管理员身份

    修改/etc/sudoers

    添加内容

    hadoop ALL=(ALL) NOPASSWD: ALL

    重启使之生效  

2.3  SSH配置

    Hadoop控制脚本(并非守护进程)依赖SSH执行整个集群的操作;

   A:以root身份centerOs安装启动ssh服务

    SSH 为 Secure Shell 的缩写,SSH 为建立在应用层基础上的安全协议。SSH 是目前较可靠,专为远程登录会话和其他网络服务提供安全性的协议。

    测试centeros检查是否安装了SSH包

    rpm -qa|grep ssh

    启动ssh服务

    systemctl restart sshd.service

 B: 以root身份修改sshd服务

    需要编辑/etc/ssh/sshd_config打开sshd服务.

    放开标注的文档(去掉#):

    #RSAAuthentication yes

    #PubkeyAuthentication yes

    重启服务,使刚才的修改生效(centos7上命令)

    systemctl restart sshd.service

 C:注意,以hadoop账号身份登录,并操作 ssh免密

    ① 为每台机器生成密钥

    命令:ssh-keygen - 生成、管理和转换认证密钥

    参数

    -t type

    指定要创建的密钥类型。

    可以使用:“rsa1”(SSH-1) “rsa”(SSH-2) “dsa”(SSH-2)-P passphrase

    提供(旧)密语

    输入命令:

    ssh-keygen -t 'RSA'

    在/home/用户名/.ssh/目录下生成密钥文件;

    ② 复制公钥内容到authorized_keys文件;

    命令:

    cat id_rsa.pub >> authorized_keys

    chmod 644 authorized_keys

    ③ 将Slave1和Slave2中的>authorized_keys内容复制到Master的authorized_keys文件中

    ④ 将Master中的authorized_keys文件复制Slave1和Slave2中

    scp authorized_keys hadoop@Slave2:/hadoop/.ssh/

    ⑤ 测试使用ssh进行无密码登录

    ssh Slave1 ssh登陆远程服务器

    exit 并退出远程登陆

注意:

 远程拷贝命令

    scp 文件名 用户名@远程ip:/路径/

    scp命令提供选项:

    -p 拷贝文件的时候保留源文件简历的时间;

    -q 执行文件拷贝时,不显示任何提示消息;

    -r 拷贝整个目录;

    -v 拷贝文件时,显示提示信息;

2.4  以hadoop账号身份登录,安装hadoop集群

2.4.1 解压hadoop并配置相关环境变量

    以hadoop用户名解压hadoop压缩文件

    JAVA_HOME=/usr/java/jdk1.8.0_144

    JRE_HOME=/usr/java/jdk1.8.0_144/jre

    HADOOP_HOME=/home/hadoop/hadoop-2.9.0

    CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib    PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/etc/hadoop

    export JAVA_HOME JRE_HOME CLASS_PATH HADOOP_HOME PATH

    使用命令使配置生效:

    source /etc/profile

2.4.2 修改hadoop-env.sh添加jdk环境

    export JAVA_HOME=/usr/java/jdk1.8.0_144

    hadoop有三种运行模式:

    独立(本地)模式:

    无需运行任何守护进程,所有程序都在同一个JVM上执行,适合开发阶段;

    伪分布模式:

    hadoop守护进程运行在本地机器上,模拟一个小规模的集群。

    全分布式模式:

    hadoop守护进程运行在一个集群上。

2.4.3 修改core-site.xml文件

    hadoop core的配置项,如hdfs、MapReduce和YARN常用的I/O设置等;

    <property>

    <name>fs.defaultFS</name>

    <value>hdfs://master:9000</value>

    </property>

    运行hdfs需要将一台机器指定为namenode,属性fs.defaultFS描述hdfs文件系统的uri,默认端口是8020.

    <!–指定hadoop运行时产生文件的存储路径–>

    <property>

      <name>hadoop.tmp.dir</name>

      <value>/home/hadoop/hadoop-2.9.0/wutemp</value>

    </property>

2.4.4 修改hdfs-site.xml文件

    hdfs-site.xml配置文件:

    hadoop守护进程的配置项,包括namenode、辅助namenode和datanode等;

    <!--NameNode会持久存储名称空间和事务日志-->

         <property>

           <name>dfs.namenode.name.dir</name>

           <value>/home/hadoop/hadoop-2.9.0/wudata/name</value>

         </property>

    dfs.namenode.name.dir:

    namenode存储永久性的元数据的目录列表。namenode在列表上的各个目录中都存放相同的元数据文件;

    <property>

         <name>dfs.datanode.data.dir</name>

         <value>/home/hadoop/hadoop-2.9.0/wudata/data</value>

    </property>

    dfs.datanode.data.dir:

    datanode存放数据块的目录列表。各个数据块分别存放于某一个目录中;

    <property>

      <name>dfs.replication</name>

      <value>3</value>

    </property>

    dfs.replication:

    设置文件备份系数,默认3;

    <property>

      <name>dfs.secondary.http.address</name>

      <value>slavea:50090</value>

    </property>

2.4.5 mapred-site.xml文件

    mapred-site.xml配置文件:

    MapReduce守护进程的配置项,包括作业历史服务器;

    <property>

      <name>mapreduce.framework.name</name>

      <value>yarn</value>

    </property>

    名称mapreduce.framework.name:

    指的是使用yarn运行mapreduce程序,启动了HDFS之后,就可以启动yarn了。执行命令start-yarn.sh即可启动MapReduce集群

2.4.6 yarn-site.xml文件

    Yarn守护进程的配置项,包括资源管理器、web应用代理服务器和节点管理器;

    <property>

      <name>yarn.resourcemanager.hostname</name>

      <value>master</value>

    </property>

    yarn.resourcemanager.hostname属性:

    运行资源管理器的机器主机名,默认值:0.0.0.0

    <property>

      <name>yarn.nodemanager.aux-services</name>

      <value>mapreduce_shuffle</value>

    </property>

    yarn.nodemanager.aux-services属性:

    节点管理器运行的附加服务列表。NodeManager上运行的附属服务。需配置成mapreduce_shuffle,才可运行MapReduce程序;默认情况下,不指定附加服务。

2.4.7 为yarn添加 客户端计算机名称

    修改/home/hadoop/hadoop-2.9.0/etc/hadoop/slaves

    master

    slavea

    slaveb

2.5 格式化HDFS文件系统并 启动hdfs文件系统

 A:  首次使用hadoop前,必须格式化文件系统,输入如下命令:

    hdfs namenode -format

 B:  启动和停止守护进程

    start-dfs.sh #启动hdfs

    start-yarn.sh #启动yarn

C:终止守护进程

    stop-yarn.sh

    stop-dfs.sh

注意: 启动守护进程

    hadoop-daemon.sh start namenode

    测试namenode进程情况:

    jps

    可以使用守护进程:

    start-dfs.sh

    启动dfs报错,如下:The authenticity of host 'master (192.168.223.110)' can't be established:

    解决方法:

    好记心不如烂笔头,ssh登录 The authenticity of host 192.168.0.xxx can't be established. 的问题,即可不修改/etc/ssh/ssh_config文件的配置而解决此问题:

    ssh  -o StrictHostKeyChecking=no  192.168.0.xx

    start-yarn.sh

    mr-jobhistory-daemon.sh start historyserver

2.6 测试集群是否搭建成功

    命令:

    hdfs dfsadmin -report

    在浏览器中测试hdfs

    http://192.168.1.100:50070

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 215,539评论 6 497
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,911评论 3 391
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 161,337评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,723评论 1 290
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,795评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,762评论 1 294
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,742评论 3 416
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,508评论 0 271
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,954评论 1 308
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,247评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,404评论 1 345
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,104评论 5 340
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,736评论 3 324
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,352评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,557评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,371评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,292评论 2 352

推荐阅读更多精彩内容

  • 一、系统参数配置优化 1、系统内核参数优化配置 修改文件/etc/sysctl.conf,添加如下配置,然后执行s...
    张伟科阅读 3,748评论 0 14
  • 1 目的将hadoop 2.7.1 安装到 166、167、168 三台机器上2 提供环境练习环境192.168....
    灼灼2015阅读 3,395评论 4 40
  • 之前的有点忘记了,这里在云笔记拿出来再玩玩.看不懂的可以留言 大家可以尝试下Ambari来配置Hadoop的相关环...
    HT_Jonson阅读 2,951评论 0 50
  • 文/琳琳 “一年前,你路过 我家门前的那条路 我悄悄地看着你 你也偷偷地望着我 绕过山,趟过河 三天五天你装路过....
    灰姑娘的梧桐树阅读 1,470评论 25 33
  • 【今日思考】 001 别人如何对你,究竟是自己以为的还是客观存在的? 一直以来,我轻易不愿意评价或者伤害他人,主要...
    追追风的冰阅读 132评论 0 0