spark yarn集群搭建(二:hadoop集群搭建)

spark yarn集群搭建(一:准备工作)

Master节点配置:
  1. 进入/datamgt目录下下载二进制包hadoop-2.7.3.tar.gz,解压并重命名
    tar -zxvf hadoop-2.7.6.tar.gz && mv hadoop-2.7.6 hadoop
  2. 修改全局变量/etc/profile
    • 修改/etc/profile,增加如下内容:
      export HADOOP_HOME=/datamgt/hadoop/
      export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
      
    • 修改完成后执行:
      source /etc/profile
  3. 修改hadoop配置文件
    • 修改JAVA_HOME
      vim $HADOOP_HOME/etc/hadoop/hadoop-env.sh
      #将export JAVA_HOME=${JAVA_HOME}修改为:
      export JAVA_HOME=/usr/java/jdk1.8.0_65
      
    • 修改slaves
      vim $HADOOP_HOME/etc/hadoop/slaves
      #将原来的localhost删除,改成如下内容:
      slave1
      slave2
      
    • 修改$HADOOP_HOME/etc/hadoop/core-site.xml
      <configuration>
            <property>
                <name>fs.defaultFS</name>
                <value>hdfs://master:9000</value>
            </property>
            <property>
                <name>io.file.buffer.size</name>
                <value>131072</value>
           </property>
           <property>
              <name>hadoop.tmp.dir</name>
              <value>/datamgt/hadoop/tmp</value>
           </property>
      </configuration>
      
    • 修改$HADOOP_HOME/etc/hadoop/hdfs-site.xml
      <configuration>
          <property>
             <name>dfs.namenode.secondary.http-address</name>
            <value>master:50090</value>
         </property>
         <property>
             <name>dfs.replication</name>
             <value>2</value>
         </property>
         <property>
             <name>dfs.namenode.name.dir</name>
              <value>file:/datamgt/hadoop/hdfs/name</value>
          </property>
          <property>
               <name>dfs.datanode.data.dir</name>
               <value>file:/datamgt/hadoop/hdfs/data</value>
          </property>
      </configuration>
      
    • 修改$HADOOP_HOME/etc/hadoop/yarn-site.xml
      <configuration>
          <property>
              <name>yarn.nodemanager.aux-services</name>
              <value>mapreduce_shuffle</value>
          </property>
          <property>
              <name>yarn.resourcemanager.address</name>
              <value>master:8032</value>
          </property>
          <property>
              <name>yarn.resourcemanager.scheduler.address</name>
              <value>master:8030</value>
          </property>
          <property>
              <name>yarn.resourcemanager.resource-tracker.address</name>
              <value>master:8031</value>
          </property>
          <property>
              <name>yarn.resourcemanager.admin.address</name>
              <value>master:8033</value>
          </property>
          <property>
              <name>yarn.resourcemanager.webapp.address</name>
              <value>master:8088</value>
          </property>
      </configuration>
      
    • 修改$HADOOP_HOME/etc/hadoop/mapred-site.xml
      #先复制mapred-site.xml.template,生成mapred-site.xml后进行修改
       <configuration>
           <property>
               <name>mapreduce.framework.name</name>
               <value>yarn</value>
           </property>
           <property>
               <name>mapreduce.jobhistory.address</name>
               <value>master:10020</value>
           </property>
           <property>
               <name>mapreduce.jobhistory.webapp.address</name>
               <value>master:19888</value>
           </property>
       </configuration>
      
salve节点配置:
  1. 复制master节点的hadoop文件夹到slave1和slave2上:
    scp -r /datamgt/hadoop root@slave1:/datamgt && scp -r /datamgt/hadoop root@slave2:/datamgt
  2. 修改slave1、slave2节点下的/etc/profile文件,过程与master一致
启动集群:
  1. master节点启动之前格式化一下namenode
    hadoop namenode -format
  2. master节点执行
    /datamgt/hadoop/sbin/start-all.sh
查看集群是否启动成功:
  • 执行jps查看java进程
    1. master显示
    SecondaryNameNode 
    ResourceManager 
    NameNode
    
    1. slave显示
    NodeManager
    DataNode
    
  • 浏览器验证相应web页面是否可访问
    master:50070
    master:8088
    
遇到的问题
  1. 50070不可访问:
    一开始以为是端口监听的问题:Hadoop HDFS的namenode WEB访问50070端口打不开解决方法
    后来查看日志(hadoop/logs/namenode日志)发现是因为本机9000端口被占用导致hadoop的namenode服务启动失败

spark yarn集群搭建(三:spark集群搭建)

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容