Hadoop安装与集群配置(二)

开机后将各个虚拟机的ip修改好之后,将三个节点的ip以及hostname都加上

可以使用xshell的工具,将命令一次性发送到各个窗口。三台虚拟机必须一致


准备工作完毕!开始集群配置

配置core-site.xml

在所有的节点上都应该修改/etc/hadoop/core-site.xml.

注意:需要修改tmp目录,不然默认是linux的tmp目录,这样会出现意想不到的错误,因为linux重启后,会删除/tmp目录下的内容。


这里是master上的配置信息,core-site.xml这个配置在其他几台slave 上必须保持跟master一致!


配置core-site.xml

在所有的节点上都应该修改/etc/hadoop/core-site.xml.注意:需要修改tmp目录,不然默认是linux的tmp目录。必须在各个机器上一定要保持此配置的一致性


配置内容

配置hdfs-site.xml

在master修改/etc/hadoop/hdfs-site.xml


配置内容

格式化HDFS:  hdfs namenode -format

启动集群

在master上启动hadoop-daemon.sh start namenode

在slave上启动hadoop-daemon.sh start datanode

启动后用hdfs dfsadmin -report观察集群配置情况,  或者在各台机器输入jps 查看是否启动成功。

启动成功!


查看端口号:netstat -ntlp

访问http://192.168.56.100:50070  查看集群情况。


集群
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容