Docker+Hadoop构建伪集群

目的:
利用docker容器构建3台虚拟主机,一台为管理节点两台为数据节点以此来构建hadoop伪集群,三台虚拟主机之间使用SSH进行连接

因此整体思路为安装Centos镜像,为镜像安装SSH,Hadoop,Java,根据镜像创建三个容器,这样每个容器其实就相当于一台运行着Centos的主机,选择一个为管理节点配置Hadoop

文章很长,请耐心阅读

操作系统Centos7,安装时最好选择安装GNOME桌面

下载Docker CE[1]
删除旧版本

$ sudo yum remove docker \
                  docker-client \
                  docker-client-latest \
                  docker-common \
                  docker-latest \
                  docker-latest-logrotate \
                  docker-logrotate \
                  docker-selinux \
                  docker-engine-selinux \
                  docker-engine

配置Docker仓库

$ sudo yum install -y yum-utils \
  device-mapper-persistent-data \
  lvm2

$ sudo yum-config-manager \
    --add-repo \
    https://download.docker.com/linux/centos/docker-ce.repo

安装Docker CE

$ sudo yum install docker-ce

启动Docker CE

$ sudo systemctl enable docker
$ sudo systemctl start docker

为Docker创建新的工作组

$ sudo usermod -aG docker $USER

切换至root用户

$ ru test

测试Docker是否正常工作

$ docker run hello-world
Hello World
$ docker images
docker images

拉取Centos镜像

$ docker pull centos
$ docker images

拉取的镜像


centos

为拉取的镜像安装SSH

$ mkdir DockerFile
$ cd DockerFile
$ mkdir CentOS7_SSH
$ cd CentOS7_SSH
$ vi Dockerfile

Dockerfile

FROM centos

MAINTAINER codingstory
#安装SSH
RUN yum install -y openssh-server sudo

RUN sed -i 's/UsePAM yes/UsePAM no/g' /etc/ssh/sshd_config
RUN yum install -y openssh-clients

#添加用户名为hadoop用户密码为hadoop的用户
RUN useradd hadoop
RUN echo "hadoop:hadoop" | chpasswd

#提升hadoop用户的权限
RUN echo "hadoop   ALL=(ALL)     ALL" >> /etc/sudoers
RUN ssh-keygen -t dsa -f /etc/ssh/ssh_host_dsa_key
RUN ssh-keygen -t rsa -f /etc/ssh/ssh_host_rsa_key

#开启SSH服务端口为22
RUN mkdir /var/run/sshd

EXPOSE 22
CMD ["/usr/sbin/sshd", "-D"]

安装

$ docker build -t centos7_ssh .

安装过程中会出现红色警报可以不用管


centos7_ssh

有了centos7_hadoop镜像

构建网络环境

$ docker network create -d bridge hadoop-network
$ docker network ls
network

测试SSH功能
建立一个容器(此时的容器已经有操作系统和网路了相当于一台虚拟主机了)

$ docker run --network=hadoop-network -itd --name=hadoop_ssh
centos7_ssh
$ docker network inspect hadoop-network
容器已经有IP地址了

测试SSH连接

$ ssh 172.18.0.2 -l hadoop

ssh连接

解释一下命令的含义172.18.0.2代表了我们刚刚创建的容器(虚拟主机)的IP地址,hadoop代表了我们要连接到容器(虚拟主机)中名为hadoop的用户

SSH连接测试成功后,要为镜像安装Hadoop和Java
进入到DockerFile文件夹中建立一个新的文件夹

$ mkdir CentOS7_Hadoop
$ cd CentOS7_Hadoop
$ vi Dockerfile

Dockerfile

FROM centos7_ssh
#解压下载的java文件
ADD jdk-8u191-linux-x64.tar.gz /usr/local/
# 更改文件夹名字
RUN mv /usr/local/jdk1.8.0_191 /usr/local/jdk1.8
ENV JAVA_HOME /usr/local/jdk1.8
ENV PATH $JAVA_HOME/bin:$PATH
# 解压下载的Hadoop文件
ADD hadoop-2.8.5.tar.gz /usr/local
RUN mv /usr/local/hadoop-2.8.5 /usr/local/hadoop
ENV HADOOP_HOME /usr/local/hadoop
ENV PATH $HADOOP_HOME/bin:$PATH

RUN yum install -y which sudo

进入Hadoop官网下载hadoop-2.8.5.tar.gz的二进制文件
进入Java官网下载Linux x64 jdk-8u191-linux-x64.tar.gz

把下载的文件放入DockerFile/CentOS7_Hadoop目录下

安装Hadoop、Java

执行Dockerfile

$ docker build -t centos7_hadoop .
安装Hadoop、Java
$ docker images
有了centos_hadoop镜像

现在我们的镜像已经安装了SSH、Hadoop、Java
再根据镜像创建三个容器

$ docker run --network hadoop-network --name hadoop1 --hostname hadoop1 -d -P centos7_hadoop
$ docker run --network hadoop-network --name hadoop2 --hostname hadoop2 -d -P centos7_hadoop
$ docker run --network hadoop-network --name hadoop0 --hostname hadoop0 -d -P -p 50070:50070 -p 8088:8088 centos7_hadoop

对于hadoop0来说,我们希望它能作为管理员,因此把它的端口500708088映射到我们自己的主机中

三个容器

打开三个命令行分别进入三个容器

$ docker exec -it hadoop0 /bin/bash
$ docker exec -it hadoop1 /bin/bash
$ docker exec -it hadoop2 /bin/bash
可以看到命令行顶部已经改变,分别为hadoop0、hadoop1、hadoop2

在三个命令行中全部切换为hadoop用户

$ su hadoop

都生成用于SSH连接的公钥和私钥

$ ssh-keygen

都将自己的公钥复制给其它容器

$ ssh-copy-id -i ~/.ssh/id_rsa -p 22 hadoop@hadoop0
$ ssh-copy-id -i ~/.ssh/id_rsa -p 22 hadoop@hadoop1
$ ssh-copy-id -i ~/.ssh/id_rsa -p 22 hadoop@hadoop2 

这样我们就可以不需要密码就可以访问其它容器,假设我们现在处于hadoop0容器
我们可以使用

$ ssh -p '22' 'hadoop@hadoop2'

访问hadoop2容器
访问之前


访问之前

访问之后


访问之后

下面进行Hadoop的配置
进入hadoop0容器
$ sudo vi /usr/local/hadoop/etc/hadoop/core-site.xml

将下面的代码configuration部分复制到core-site.xml文件中的configuration部分

<configuration>
    <property>
        <name>fs.default.name</name>
        <value>hdfs://hadoop0:9000</value>
    </property>
    <property>
        <name>io.file.buffer.size</name>
        <value>131072</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/home/${user.name}/tmp</value>
        <description>A base for other temporary directories.</description>
    </property>
    <property>
        <name>hadoop.proxyuser.hduser.hosts</name>
        <value>*</value>
    </property>
    <property>
        <name>hadoop.proxyuser.hduser.groups</name>
        <value>*</value>
    </property>
    <property>
        <name>fs.trash.interval</name>
        <value>1440</value>
    </property>
</configuration>
$ sudo vi /usr/local/hadoop/etc/hadoop/hdfs-site.xml

将下面的代码configuration部分复制到hdfs-site.xml文件中的configuration部分

<configuration>
<property>
  <name>dfs.namenode.name.dir</name>
  <value>file:/usr/local/hadoop/hdfs/name</value>
</property>
<property>
  <name>dfs.datanode.data.dir</name>
  <value>file:/usr/local/hadoop/hdfs/data</value>
</property>
<property>
  <name>dfs.replication</name>
  <value>2</value>
</property>
<property>
  <name>dfs.namenode.secondary.http-address</name>
  <value>hadoop0:9001</value>
</property>
<property>
  <name>dfs.webhdfs.enabled</name>
  <value>true</value>
</property>
</configuration>

切入到hadoop目录下

 $ cd /usr/local/hadoop/etc/hadoop
 $ sudo cp mapred-site.xml.template mapred-site.xml

将下面的代码configuration部分复制到mapred-site.xml文件中的configuration部分

<configuration>
<property>
  <name>mapreduce.framework.name</name>
  <value>yarn</value>
</property>
<property>
  <name>mapreduce.jobhistory.address</name>
  <value>hadoop0:10020</value>
</property>
<property>
  <name>mapreduce.jobhistory.webapp.address</name>
  <value>hadoop0:19888</value>
</property>

</configuration>
$ sudo vi yarn-site.xml

将下面的代码configuration部分复制到yarn-site.xml文件中的configuration部分

<configuration>

<!-- Site specific YARN configuration properties -->
 <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>
        <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>
    <property>
        <name>yarn.resourcemanager.address</name>
        <value>hadoop0:8032</value>
    </property>
    <property>
        <name>yarn.resourcemanager.scheduler.address</name>
        <value>hadoop0:8030</value>
    </property>
    <property>
        <name>yarn.resourcemanager.resource-tracker.address</name>
        <value>hadoop0:8031</value>
    </property>
    <property>
        <name>yarn.resourcemanager.admin.address</name>
        <value>hadoop0:8033</value>
    </property>
    <property>
        <name>yarn.resourcemanager.webapp.address</name>
        <value>hadoop0:8088</value>
    </property>

</configuration>
$ sudo vi slaves

删除原来的内容加入

hadoop1
hadoop2

查看JAVA_HOME路径

$ echo $JAVA_HOME
$ sudo vi hadoop-env.sh

找到

export JAVA_HOME=${JAVA_HOME}

将其更改为JAVA_HOME路径,例如

export JAVA_HOME=/usr/local/jdk1.8

现在将修改过后的hadoop文件发送给hadoop1和hadoop2容器[2]

$ sudo scp -r /usr/local/hadoop hadoop@hadoop1:/tmp
$ sudo scp -r /usr/local/hadoop hadoop@hadoop1:/tmp

进入hadoop1和hadoop2删除原来的hadoop文件

$ rm -rf /usr/local/hadoop

/tmp文件夹将hadoop复制到/usr/local/hadoop里面

$ sudo cp -rf /tmp/hadoop /usr/local/hadoop

三个容器中都要增加Hadoop环境变量

$ sudo vi ~/.bashrc

增加环境变量

export PATH=$PATH:/usr/local/hadoop/bin:/usr/local/hadoop/sbin

执行以下命令,使刚添加的环境变量有效

$ source ~/.bashrc

这样配置就完成了

下面开始启动Hadoop
进入hadoop0容器

$ hdfs namenode -format -force

会出现下面这样的结果

启动

三个容器中都要提升hadoop对hadoop文件夹权限[3]:

$ sudo chown -R hadoop /usr/local/hadoop/

之后在hadoop0容器中运行

$ start-dfs.sh
运行成功示例
$ start-yarn.sh
运行成功示例
$ mr-jobhistory-daemon.sh start historyserver
状态成功示例

检查启动状态

$ hadoop dfsadmin -report

状态成功示例

打开http://localhost:50070http://localhost:8088查看是否正确
http://localhost:50070

http://localhost:8088

创建一个文件试试

$ hdfs dfs -mkdir -p /home/hadoop/input
文件创建成功

至此就完成了Docker+Hadoop构建的伪集群


  1. Docker在Centos上安装--官方文档

  2. ssh使用scp: /目录: Permission denied

  3. “Permission denied” errors whe starting a single node cluster in Hadoop

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 213,864评论 6 494
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,175评论 3 387
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,401评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,170评论 1 286
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,276评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,364评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,401评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,179评论 0 269
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,604评论 1 306
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,902评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,070评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,751评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,380评论 3 319
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,077评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,312评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,924评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,957评论 2 351