Hadoop安装配置

1.安装hadoop

首先集群的username必须一致,否则集群登不上去

(1)检查java是否安装

首先,查看是否装有java:Java -version
如果没有,则安装java8:sudo apt install openjdk-8-jdk
经测试11版本的jdk垃圾,不能用,只能用8,否则会导致spark出错(java真的垃圾)
查看sdk路径:update-alternatives --display java

(2)安装ssh

sudo apt-get install ssh

(3)安装rsync

sudo apt-get install rsync

(4)产生ssh key 使得以后不再弹出ssh登录

ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
如果不行就用rsa
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
查看ssh key:ll ~/.ssh

(5)产生key放置到许可证文件中

cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
rsa的用下面指令
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

(6)Hadoop安装

登录hadoop官网:
http://archive.apache.org/dist/hadoop/common
找到相应版本,复制链接:
http://archive.apache.org/dist/hadoop/common/hadoop-2.6.4/hadoop-2.6.4.tar.gz
进入终端,然后使用wget http://archive.apache.org/dist/hadoop/common/hadoop-2.6.4/hadoop-2.6.4.tar.gz下载
如果觉得慢,可以使用阿里云的镜像源:
http://mirrors.aliyun.com/apache/hadoop/common/hadoop-3.2.1/hadoop-3.2.1.tar.gz
解压缩:sudo tar -zxvf hadoop-3.2.1.tar.gz
移动到目录:sudo mv hadoop-3.2.1 /usr/local/hadoop
查看目录:ll /usr/local/hadoop

(7)设置Hadoop环境变量

编辑bashrc:sudo vim ~/.bashrc
输入以下内容:

export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"
export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native:$JAVA_LIBRARY_PATH

让上述指令生效:source ~/.bashrc

(8)修改Hadoop配置文件

设置hadoop-env.sh配置文件:

sudo vim /home/hadoop/hadoop/etc/hadoop/hadoop-env.sh
将原本的JAVA_HOME

export JAVA_HOME=${JAVA_HOME}

改为:

export JAVA_HOME=/usr/lib/jvm/java-11-openjdk-amd64

设置core-site.xml文件

sudo vim /home/hadoop/hadoop/etc/hadoop/core-site.xml
configuration标签中加入

 <property>
    <name>fs.default.name</name>
    <value>hdfs://localhost:9000</value>
</property>

编辑YARN-site.xml

sudo vim /home/hadoop/hadoop/etc/hadoop/yarn-site.xml
configuration中加入

<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>
<property>
    <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
    <value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>

设置mapred-site.xml

复制模板文件:由mapred-site.xml.template至mapred-site.xml
sudo cp /home/hadoop/hadoop/etc/hadoop/mapred-site.xml.template /usr/local/hadoop/etc/hadoop/mapred-site.xml

编辑mapred-site.xml

sudo vim /home/hadoop/hadoop/etc/hadoop/mapred-site.xml
configurarion中加入

<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>

设置hdfs-site.xml

sudo vim /home/hadoop/hadoop/etc/hadoop/hdfs-site.xml
configurarion中输入

<property>
    <name>dfs.replication</name>
    <value>3</value>
</property>
<property>
    <name>dfs.namenode.name.dir</name>
    <value>file:/usr/local/hadoop/hadoop_data/hdfs/namenode</value>
</property>
<property>
    <name>dfs.datanode.data.dir</name>
    <value>file:/usr/local/hadoop/hadoop_data/hdfs/datanode</value>
</property>
<property>
    <name>dfs.namenode.http-address</name>
    <value>master:50070</value>
</property>

(9)创建并格式化HDFS目录

创建namenode数据存储目录

sudo mkdir -p /home/hadoop/hadoop/hadoop_data/hdfs/namenode

创建datanode数据存储目录

sudo mkdir -p /home/hadoop/hadoop/hadoop_data/hdfs/datanode

将hadoop目录所有者改为hduser

sudo chown tony:tony -R /home/hadoop/hadoop

格式化namenode

hadoop namenode -format

2.启动Hadoop

启动hdfs:start-dfs.sh
启动yarn:start-yarn.sh
或者同时启动:start-all.sh

3.打开界面

输入localhost:8088

4.分布式安装

(1)机器基本配置

首先,IP地址分别为:192.168.245.139,192.168.245.146,192.168.245.147
按照之前的步骤将三台机器装上hadoop
现在想要使用192.168.245.139作为master,其他为data1,2,3
将几台机器,更改服务器名称:sudo vim /etc/hostname,然后更改相应的名称
然后想要对几台机器进行绑定:
每台机器上输入:sudo vim /etc/hosts,然后在文件中增加

192.168.245.139  master
192.168.245.147  tony2
192.168.245.146  tony3
192.168.1.91     tony1

(2)data机器设置

设置HDFS名称

用于存取的时候使用:sudo vim /home/hadoop/hadoop/etc/hadoop/core-site.xml
将原来的

<property>
    <name>fs.default.name</name>
    <value>hdfs://localhost:9000</value>
</property>

改为

<property>
    <name>fs.default.name</name>
    <value>hdfs://master:9000</value>
</property>

设置yarn

使用sudo vim /home/hadoop/hadoop/etc/hadoop/yarn-site.xml
在原来的

<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>
<property>
    <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
    <value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>

基础上加上三个参数,然后变成

<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>
<property>
    <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
    <value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
    <name>yarn.resourcemanager.resource-tracker.address</name>
    <value>master:8025</value>
</property>
<property>
    <name>yarn.resourcemanager.scheduler.address</name>
    <value>master:8030</value>
</property>
<property>
    <name>yarn.resourcemanager.address</name>
    <value>master:8050</value>
</property>

设置mapred

sudo vim /home/hadoop/hadoop/etc/hadoop/mapred-site.xml
将原来的

<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>

改为

<property>
    <name>mapred.job.tracker</name>
    <value>master:54311</value>
</property>

设置hdfs

sudo vim /home/hadoop/hadoop/etc/hadoop/hdfs-site.xml
将原来的

<property>
    <name>dfs.replication</name>
    <value>3</value>
</property>
<property>
    <name>dfs.namenode.name.dir</name>
    <value>file:/usr/local/hadoop/hadoop_data/hdfs/namenode</value>
</property>
<property>
    <name>dfs.datanode.data.dir</name>
    <value>file:/usr/local/hadoop/hadoop_data/hdfs/datanode</value>
</property>

去掉namenode,改为

<property>
    <name>dfs.replication</name>
    <value>3</value>
</property>
<property>
    <name>dfs.datanode.data.dir</name>
    <value>file:/usr/local/hadoop/hadoop_data/hdfs/datanode</value>
</property>
<property>
 <name>dfs.permissions.enabled</name>
 <value>false</value>
 </property>
 <property>
 <name>dfs.webhdfs.enabled</name>
 <value>true</value>
 </property>

(3)master机器配置

master机器除了上面的修改之外,需要继续修改

hdfs设置

d
将原来的

<property>
    <name>dfs.replication</name>
    <value>3</value>
</property>
<property>
    <name>dfs.datanode.data.dir</name>
    <value>file:/usr/local/hadoop/hadoop_data/hdfs/datanode</value>
</property>

中的datanode改为namenode

<property>
    <name>dfs.replication</name>
    <value>3</value>
</property>
<property>
    <name>dfs.namenode.name.dir</name>
    <value>file:/usr/local/hadoop/hadoop_data/hdfs/namenode</value>
</property>

编辑master文件

sudo vim /home/hadoop/hadoop/etc/hadoop/masters
在文件中将名称改为master

编辑slaves文件

sudo vim /home/hadoop/hadoop/etc/hadoop/slaves
将文件中的名称改为data1,data2,data3

(4)初始化,创建hdfs目录

使用master,ssh连入data1,2,3
删除hdfs目录
sudo rm -rf /home/hadoop/hadoop/hadoop_data/hdfs
创建datanode目录
sudo mkdir -p /home/hadoop/hadoop/hadoop_data/hdfs/datanode
将目录所有者更改为hduser (这一步很重要,否则datanode启动不起来)
sudo chown -R hadoop:hadoop /home/hadoop/hadoop

(5)初始化namenode目录

删除hdfs目录
sudo rm -rf /home/hadoop/hadoop/hadoop_data/hdfs
创建namenode目录
sudo mkdir -p /home/hadoop/hadoop/hadoop_data/hdfs/namenode
将目录所有者更改为hduser (这一步很重要,否则namenode启动不起来)
sudo chown -R tony:tony /home/hadoop/hadoop
格式化namenode目录
hadoop namenode -format

(5)启动

方式与单机版一样

3.hadoop hdfs基本操作

hadoop fs -mkdir:创建目录
hadoop fs -ls:列出目录
hadoop fs -copyFromLocal:本地复制到HDFS
hadoop fs -put:复制到HDFS
hadoop fs -cat:列出目录下文件内容
hadoop fs -copyToLocal:将hdfs文件复制到本地
hadoop fs -get:将hdfs文件复制到本地
hadoop fs -cp:复制hdfs文件
hadoop fs -rm:删除hdfs文件

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 218,284评论 6 506
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,115评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,614评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,671评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,699评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,562评论 1 305
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,309评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,223评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,668评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,859评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,981评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,705评论 5 347
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,310评论 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,904评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,023评论 1 270
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,146评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,933评论 2 355