1.安装 jdk,配置JAVA_HOME;
2.添加一个hadoop(用户名无要求)的普通用户,最好将其增加sudo权限;
3.设置各节点免密登录,关闭防火墙,SeLinux,(只要不是新安装的系统,一般都关闭了)
4.下载 官网的hadoop(版本2.6.5即可,稳定成熟,后面的版本也没有什么新特色) 二进制安装包 ,上传服务器,并解压
5.配置 HADOOP_HOME,修改 $HADOOP _HOME/etc/hadoop/hadoop-env.sh 的 变量 export JAVA_HOME=${JAVA_HOME} 改为实际的jdk目录
6.配置 core-site.xml hdfs-site.xml yarn-site.xml mapred-site.xml
7.配置slaves,并将安装包拷贝到其他节点
8.启动 ./sbin/start-dfs.sh ./sbin/start-yarn.sh start-all.sh是hdfs 和 yarn 一起启动