1.解压hadoop-2.8.1.tar.gz至/opt/software文件夹
2.配置环境变量并生效
[root@hadoop000 ~]# vi /etc/profile
export HADOOP_HOME=/opt/software/hadoop-2.8.1
export PATH=$HADOOP_HOME/bin:$PROTOC_HOME/bin:$FINDBUGS_HOME/bin:$MVN_HOME/bin:$JAVA_HOME/bin:$PATH
[root@hadoop000 ~]# source /etc/profile
[root@hadoop000 ~]# which hadoop
/opt/software/hadoop-2.8.1/bin/hadoop
3.配置core-site.xml和hdfs-site.xml
4.ssh 配置信任
5.格式化
hdfs namenode -format
ps:格式化时遇到了报错的问题
原来是因为没有配置/etc/hosts,导致出现unknownhost的问题
6.java home路径设置
[root@hadoop000 hadoop]# vi hadoop-env.sh
export JAVA_HOME=/usr/java/jdk1.8.0_45
7.进入sbin目录,执行start-dfs.sh脚本
8.jps
至此伪分布式部署完成
9.做一个简单的测试:
10.将三个进程的改为hadoop000启动
观察到namenode: localhost
datanode: localhost
secondarynamenode: 0.0.0.0
当对外提供服务和集群配置时,必须将localhost改为用户各自的ip才能与局域网其他用户进行交互
(1)修改namenode进程
vi core-site.xml
(2)修改datanode进程
vi slaves
(3)修改secondarynamenode进程
vi hdfs-site.xml
(4)重新启动HDFS
从这个问题上我们要学会在hadoop官网查看xml文件
通过windows访问hdfs界面 192.168.137.251:50070
二、如何设置window浏览器直接浏览hadoop000
1.在linux中配置/etc/hosts文件
.2.在windows中配置hosts文件
配置时先将hosts文件复制到桌面,编辑完后覆盖文件夹里的旧的hosts文件
3.在linux中开启httpd服务(没有的话yum源安装一下)
4.打开浏览器,输入http://192.168.137.251或者http://hadoop000都可以浏览