好玩的大数据之8:Hadoop安装(hadoop-3.2.1,伪分布式部署方式)

一、简介

    Hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算

二、下载

    下载地址  https://hadoop.apache.org/releases.html

选择版本

    选择下面tsinghua的下载链接会快一些

下载文件

下载后得到hadoop-3.2.1.tar.gz,把它放入soft共享文件夹

三、安装


切换到ubuntu

    检查一下/mylab/soft目录是否存在,以及是否属于hadoop用户和hadoop组,要是不存在的话,先按如下步骤创建之

        sudo mkdir -p /mylab/soft

        sudo chown -R hadoop:hadoop /mylab

    解压缩hadoop压缩包(假设hadoop-3.2.1.tar.gz放于~/soft,~代表用户的主目录,这里指/home/hadoop)

        cd ~/soft

        tar zxvf hadoop-3.2.1.tar.gz -C /mylab/soft

        ls /mylab/soft

        到目前为止,应该有了以下内容

到目前位置安装目录的内容


四、配置


    1.配置前准备

            本章只讲述伪分布式方式的安装,所以只需要一台master主机

            修改主机名

                        由于在安装时给主机起了一个hadoop的名字,现在需要把它改成master

                                sudo vi /etc/hostname

                        将文件的内容改为master,保存即可

                                sudo reboot

                        重启动后,打开terminal,提示符变成了hadoop@master

改主机名为master

            修改DNS

为了方便将来完全分布式部署的方便,我把官方文档中伪分布式配置中建议用localhost的地方,都将填为master,相应的,在DNS中将master配置为10.1.13.73(我的虚拟机IP地址)

                  查看本机ip

                        ifconfig

                              sudo vi /etc/hosts

                        加入一行

                                10.1.13.73 master

                        然后测试一下修改结果

                                ping master

ping master结果

    2.修改环境变量

            修改~/.bashrc

                    vi ~/.bashrc

                            #hadoop-3.2.1

                            export HADOOP_HOME=$MYLAB_BASE_HOME/hadoop-3.2.1

                            export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

                    source ~/.bashrc

                    env

            检查一下环境变量是否正确

            到目前为止,~/.bashrc中加入的内容如下

到目前位置的环境变量配置

            先小试一下,看看hadoop和jdk安装有没有问题

                    hadoop version

            应该能够看到如下信息

    3.修改hadoop配置文件

          a) 创建工作目录

                         配置过程中,会用到一些目录信息,这里提前创建一下

                                rm -r $HADOOP_HOME/working/*

                                mkdir -p $HADOOP_HOME/working/namenode

                                mkdir -p $HADOOP_HOME/working/datanode

                                mkdir -p $HADOOP_HOME/working/logs

                                mkdir -p $HADOOP_HOME/working/tmp

                                 ll $HADOOP_HOME/working

working目录下的子目录

          b) core-site.xml

                这里好像只能用绝对路径,不能用系统变量名

<configuration>

<property>

<name>fs.defaultFS</name>

<value>hdfs://master:9000</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>file:///mylab/soft/hadoop-3.2.1/working/tmp</value>

</property>

<property>

        <name>hadoop.proxyuser.hadoop.hosts</name>

        <value>*</value>

    </property>

    <property>

        <name>hadoop.proxyuser.hadoop.groups</name>

        <value>*</value>

    </property>

<!-- “*”表示可通过超级代理,“hadoop”操作hadoop的linux用户、用户组和主机 在hive/beeline启动命令中的用户名就用hadoop-->

</configuration>

          c) mapred-site.xml


<configuration>

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

    <property>

        <name>mapreduce.application.classpath</name>

        <value>/mylab/soft/hadoop-3.2.1/share/hadoop/mapreduce/*,/mylab/soft/hadoop-3.2.1/share/hadoop/mapreduce/lib/*</value>

    </property>

  <property>

                <name>mapreduce.jobhistory.webapp.address</name>

                <value>master:19888</value>

                <description>MapReduce jobhistory服务器的用户界面地址</description>

        </property>

</configuration>

          d) yarn-site.xml

<configuration>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>

<value>org.apache.hahoop.mapred.ShuffleHandler</value>

</property>

<property>

    <description>Classpath for typical applications.</description>

    <name>yarn.application.classpath</name>

    <value>

        /mylab/soft/hadoop-3.2.1/etc/hadoop:/mylab/soft/hadoop-3.2.1/share/hadoop/common/lib/*:/mylab/soft/hadoop-3.2.1/share/hadoop/common/*:/mylab/soft/hadoop-3.2.1/share/hadoop/hdfs:/mylab/soft/hadoop-3.2.1/share/hadoop/hdfs/lib/*:/mylab/soft/hadoop-3.2.1/share/hadoop/hdfs/*:/mylab/soft/hadoop-3.2.1/share/hadoop/mapreduce/lib/*:/mylab/soft/hadoop-3.2.1/share/hadoop/mapreduce/*:/mylab/soft/hadoop-3.2.1/share/hadoop/yarn:/mylab/soft/hadoop-3.2.1/share/hadoop/yarn/lib/*:/mylab/soft/hadoop-3.2.1/share/hadoop/yarn/*

    </value>

  </property>

<property>

    <name>yarn.nodemanager.resource.memory-mb</name>

    <value>4096</value>

</property>

<property>

  <name>yarn.scheduler.minimum-allocation-mb</name>

  <value>2048</value>

</property>

<property>

    <name>yarn.nodemanager.vmem-pmem-ratio</name>

    <value>2.1</value>

</property>

    <property> 

        <name>yarn.resourcemanager.scheduler.address</name> 

        <value>master:8030</value> 

    </property> 

    <property> 

        <name>yarn.resourcemanager.resource-tracker.address</name> 

        <value>master:8031</value> 

    </property> 

    <property> 

        <name>yarn.resourcemanager.address</name> 

        <value>master:8032</value> 

    </property> 

    <property> 

        <name>yarn.resourcemanager.admin.address</name> 

        <value>master:8033</value> 

    </property> 

    <property> 

        <name>yarn.resourcemanager.webapp.address</name> 

        <value>master:8088</value> 

    </property>

<property>

  <name>yarn.log-aggregation-enable</name>

  <value>true</value>

</property>

<property>

  <name>yarn.log-aggregation.retain-seconds</name>

  <value>2592000</value>

</property>

<property>

  <name>yarn.log.server.url</name>

  <value>http://master:19888/jobhistory/logs</value>

</property>

<property>

  <name>yarn.nodemanager.remote-app-log-dir</name>

  <value>hdfs://master:9000/hadoop/yarn-logs</value>

</property>


<!-- <property>

  <name>yarn.nodemanager.remote-app-log-dir</name>

  <value>hdfs://mycluster/hadoop/yarn-logs</value>

</property>

-->

</configuration>

            注:yarn.application.classpath可以用hadoop classpath命令生成

          e) hdfs-site.xml

<configuration>

<property>

<name>dfs.replication</name>

<value>1</value> 

</property>

<property>   

<name>dfs.namenode.name.dir</name>   

<value>file:///mylab/soft/hadoop-3.2.1/working/namenode</value>   

</property>   

<property>   

<name>dfs.datanode.data.dir</name>

<value>file:///mylab/soft/hadoop-3.2.1/working/datanode</value> 

</property>

</configuration>

          f) workers

                    master

      4.格式化namenode

              hdfs namenode -format

              ls $HADOOP_HOME/working/namenode

五、验证


    1.查看hadoop版本号

            hadoop version

    2.启动hadoop

            第一次启动

                            start-all.sh

                    要是出现这个提示,请参考下一篇《好玩的大数据之05:SSH安装》先安装和配置SSH

SSH问题

            第二次启动

                            start-all.sh
                            要是出现这个提示,请修改hadoop-env.sh

                            vi $HADOOP_HOME/etc/hadoop/hadoop-env.sh

                            查找“export JAVA_HOME”这串字符(vi中查找用/export JAVA_HOME,找下一个按n键)

                            找到“#export JAVA_HOME=”这个位置,去掉前面的’#‘(vi中删除一个字符用x)

                            并修改为以下这个样子‘(vi中进入编辑状态敲i)

                            export JAVA_HOME=/mylab/soft/jdk1.8.0_251

                            修改完成先按ESC键,退出编辑状态,然后敲":x!"保存并退出

JAVA_HOME问题

        第三次启动

                            start-all.sh

                            要是出现这个提示,恭喜你,搞定噻  

恭喜你,安装成功!

                       执行jps(Java Virtual Machine Process Status Tool,是java提供的一个显示当前所有java进程pid的命令,适合在linux/unix平台上简单察看当前java进程的一些简单情况)

                            jps

2.启动historyserver

            mr-jobhistory-daemon.sh start historyserver

            或者

            mapred --daemon start historyserver

3.Web界面

        1) ResourceManager 

                    http://master:8088

ResourceManager 

        2)  NameNode 

             http://master:9870


        1)  JobHistoryServer

             http://master:19888

JobHistoryServer

4.停止hadoop

        stop-all.sh

        正常的化,会出现这个提示

5.运行例子

    hadoop fs -mkdir -p /user/hadoop/input

    hadoop fs -put $MYLAB_BASE_HOME/hadoop-3.2.1/etc/hadoop/*.xml /user/hadoop/input

    hadoop fs -rm -r /user/hadoop/output

    hadoop jar $MYLAB_BASE_HOME/hadoop-3.2.1/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.1.jar wordcount  /user/hadoop/input /user/hadoop/output

    hadoop fs -ls /user/hadoop/output

https://blog.csdn.net/hitwengqi/article/details/8008203

6.离开/进入安全模式

        离开

                hadoop dfsadmin -safemode leave

        进入

                hadoop dfsadmin -safemode enter

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。