bigdata-完全分布式环境搭建

hadoop完全分布式的安装


 1.环境准备

- jdk_1.7.0_79

- hadoop-2.5.1

- master和slave两个节点并配置好hosts文件和hostname


2.安装jdk


3.配置环境变量

在(.bash_profile)中配置java和hadoop的环境变量

4.配置ssh(重点)

master:

(1)ssh-keygen -t rsa -P ''

(2)scp .ssh/id_rsa.pub root@192.168.1.1:~    (ip地址为slave节点的ip)

slave:

(1)cat id_rsa.pub >> .ssh/authorized_keys


5.修改core-site.xml

<configuration>

<property>

      <name>fs.defaultFS</name>

      <value>hdfs://masteviVIr:9000</value>

</property>

<property>

       <name>hadoop.tmp.dir</name>

       <value>/opt/hadoop-2.5.1</value>

</property>

</configuration>


6.修改hdfs-site

<configuration>

<property>

<name>dfs.namenode.secondary.http-address</name>

<value>slave:50090</value>

</property>

<property>

<name>dfs.namenode.secondary.https-address</name>

<value>slave:50091</value>

</property>

</configuration>


7.配置masters和slaves

在 (/opt/software/hadoop-2.5.1/etc/hadoop) 目录下创建masters和slaves文件,并在masters中写入master,在slaves文件中写入master,slave(或者只写slave,这个是配置datanode的个数)

masters:

slaves:


8.将master 节点中的hadoop文件拷贝到slave节点中


9.格式化

hdfs namenode -format  

注意:

1.在启动hdfs之前需要先格式化,如果启动失败需要再次格式化

2.格式化之前需要删除生成的配置文件(在core-site.xml配置的那个)


10.启动 start-dfs.sh


11. 测试

http://master:50070(master为master节点的IP地址)



出现如上图所示结果,则配置成功

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容