Hadoop安装(完全分布式)

有空,上一个完整过程。

software version
operating system Ubuntu 18.04.3 LTS
jdk version 1.8.0_232
hadoop version 3.1.3

一、install java

$ sudo apt-get update
$ sudo apt-get install openjdk-8-jre openjdk-8-jdk -y
$ dpkg -L openjdk-8-jdk | grep '/bin'    (or whereis)
$ vim ~/.profile
​```
export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
​```
$ source ~/.profile

将以上写入shell脚本(记得echo时$符号前加反斜杠 ' \ ')可能不识别source命令,则:

$ ls -l \`which sh\`  # 发现sh不对:bin/sh -> dash
$ sudo dpkg-reconfigure dash  # 选择 no
$ ls -l \`which sh\`  # 此时为 bin/sh -> bash ,即可以在shell脚本中执行source

二、install hadoop

$ sudo apt-get install ssh
$ sudo apt-get install pdsh -y
$ wget http://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-3.1.3/hadoop-3.1.3.tar.gz
$ tar -zxvf hadoop-3.1.3.tar.gz

三、single node配置

将java路径添加至etc/hadoop/hadoop-env.sh
将Hadoop路径添加至系统环境配置 ~/.profile

$ echo "export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64"  >> etc/hadoop/hadoop-env.sh
$ echo "export HADOOP_HOME=/home/vickee/bigData/hadoop-3.1.3" >> ~/.profile
$ echo "export PATH=\$PATH:\$HADOOP_HOME/bin:\$HADOOP_HOME/sbin" >> ~/.profile
$ hadoop

四、fully distributed(完全分布式配置)

三台主机:

role hostname
master blockchain004
slave1 blockchain002
slave2 blockchain003

1. Install java && Hadoop for each node(同上文一、二、,不再赘述)

2. 配置主机名(on each node)

$ vim /etc/hostname
$ vim /etc/hosts    # IP and hostname of all nodes inthe expected clusetr

3. 关闭防火墙

  • on ubuntu
$ sudo ufw status
$ sudo ufw disable
  • on centos
$ sudo systemctl status firewalld
$ sudo systemctl stop firewalld

4. 时间同步

$ sudo apt-get install ntp
$ ntpdate -u ntp1.aliyun.com
$ date  # test if ok 

5. 配置ssh免密

  • on each node
$ ssh-keygen -t rsa
  • on each slave
$ scp .ssh/id_rsa.pub vickee@master.ip.xxx.xxx:.ssh/id_rsa_002.pub
  • on master
$ cd .ssh
$ cp id_rsa.pub authorized_keys
$ cat id_rsa_002.pub >> authorized_keys # for each slave pub
$ scp authorized_keys vickee@slave.ip.xxx.xxx:.ssh # for each slave ip

6. 配置Hadoop

在master节点更改配置文件后后发送至slave节点。

  1. hadoop-env.sh
$ echo "export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64" >> etc/hadoop/hadoop-env.sh
  1. * yarn-env.sh
$ echo "export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64" >> etc/hadoop/yarn-env.sh
  1. core-site.xml
$ vim etc/hadoop/core-site.sh
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://blockchain-004:9000</value>
    </property>
    <property>
        <name>io.file.buffer.size</name>
        <value>131072</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/home/vickee/bigData/temp</value>
    </property>
</configuration>
  1. hdfs-site.xml
$ vim etc/hadoop/hdfs-site.sh
<configuration>
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>blockchain-004:9001</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/home/vickee/bigData/dfs/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:/home/vickee/bigData/dfs/data</value>
    </property>
    <property>
        <name>dfs.replication</name>
        <value>2</value>
    </property>
    <property>
        <name>dfs.webhdfs.enabled</name>
        <value>true</value>
    </property>
    <property>
        <name>dfs.permissions</name>
        <value>false</value>
    </property>
    <property>
        <name>dfs.web.ugi</name>
        <value>supergroup</value>
    </property>
</configuration>
  1. mapred-site.xml
$ vim etc/hadoop/mapred-site.sh
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.address</name>
        <value>blockchain-004:10020</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.webapp.address</name>
        <value>blockchain-004:19888</value>
    </property>
    <property>
        <name>yarn.app.mapreduce.am.env</name>
        <value>HADOOP_MAPRED_HOME=/home/vickee/bigData/hadoop-3.1.3</value>
    </property>
    <property>
        <name>mapreduce.map.env</name>
        <value>HADOOP_MAPRED_HOME=/home/vickee/bigData/hadoop-3.1.3</value>
    </property>
    <property>
        <name>mapreduce.reduce.env</name>
        <value>HADOOP_MAPRED_HOME=/home/vickee/bigData/hadoop-3.1.3</value>
   </property>
</configuration>

note: 我初始配置时没有添加最后三个属性,导致运行基准测试工具TestDFSIO时出现错误:

Container exited with a non-zero exit code 1. Error file: prelaunch.err.
Last 4096 bytes of prelaunch.err :
Last 4096 bytes of stderr :
Error: Could not find or load main class org.apache.hadoop.mapreduce.v2.app.MRAppMaster

Please check whether your etc/hadoop/mapred-site.xml contains the below configuration:
......
  1. yarn-site.xml
$ vim etc/hadoop/yarn-site.sh
<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
        <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>
    <property>
        <name>yarn.resourcemanager.address</name>
        <value>blockchain-004:8032</value>
    </property>
    <property>
        <name>yarn.resourcemanager.scheduler.address</name>
        <value>blockchain-004:8030</value>
    </property>
    <property>
        <name>yarn.resourcemanager.resource-tracker.address</name>
        <value>blockchain-004:8031</value>
    </property>
    <property>
        <name>yarn.resourcemanager.admin.address</name>
        <value>blockchain-004:8033</value>
    </property>
    <property>
        <name>yarn.resourcemanager.webapp.address</name>
        <value>blockchain-004:8088</value>
    </property>
</configuration>
  1. worker
$ vim etc/hadoop/workers
blockchain-002
blockchain-003
  1. 发送配置文件夹到salves上
$ scp -r etc/hadoop/ vickee@slave.ip.xxx.xxx:/home/vickee/bigData/hadoop-3.1.3/etc/
  1. 格式化主节点hadoop
$ hadoop namenode -format

提示:successfully formatted

  1. 启动
$ ./sbin/start-all.sh

可通过jps命令在各节点中查看Hadoop的相关进程

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,039评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,223评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 161,916评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,009评论 1 291
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,030评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,011评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,934评论 3 416
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,754评论 0 271
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,202评论 1 309
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,433评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,590评论 1 346
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,321评论 5 342
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,917评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,568评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,738评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,583评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,482评论 2 352

推荐阅读更多精彩内容