准备需要:IP已配置,已安装jdk
一、上传hadoop3.1.2至opt目录下解压
tar -zxvf hadoop3.1.2-tar.gz
//改名
mv hadoop3.1.2 hadoop
二、配置hadoop的基础运行环境:hadoop-env.sh(etc下的hadoop文件下)
export JAVA_HOME=/usr/java/latest
三、配置core-site.xml(sbin目录下)
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
四、配置hdfs-site.xml(sbin目录下)
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
五、配置免密登入
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 0600 ~/.ssh/authorized_keys
六、格式化hdfs
bin/hdfs namenode -format
七、设置hadoop用户名(start-dfs.sh和stop-dfs.sh sbin目录下)
export HDFS_DATANODE_USER=root
export HADOOP_SECURE_DN_USER=root
export HDFS_NAMENODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
八、启动hdfs
sbin/start-dfs.sh
如果启动后出现jdk环境或版本问题
which java 查看Java的实际生效范围
rm -rf 删掉它
in -s $JAVA_HOME /jdk的路径