大数据||启动HDFS HA的守护进程

请先参看规划HA的分布式集群服务器
HDFS HA配置详解

一定要严格按照顺序执行

严格按照顺序执行

说明:如果不安装启动顺序来就会出现,第五步的错误。切记需要把journalnode所有的节点启动完毕。要不就会出现

Active切换出错

启动顺序

  • Step1 :在各个JournalNode节点上,输入以下命令启动journalnode服务:

    $ sbin/hadoop-daemon.sh start journalnode


  • Step2:在[nn1]上,对其进行格式化,并启动:

$ bin/hdfs namenode -format


$ sbin/hadoop-daemon.sh start namenode


  • Step3:在[nn2]上,同步nn1的元数据信息:

$ bin/hdfs namenode -bootstrapStandby


$ bin/hdfs namenode -help

$ bin/hdfs namenode -bootstrapStandby
  • Step4:启动[nn2]:

$ sbin/hadoop-daemon.sh start namenode


  • Step5:将[nn1]切换为Active

    $ bin/hdfs haadmin -transitionToActive nn1
    $ bin/hdfs haadmin getServiceState nn1


  • Step6:在[nn1]上,启动所有datanode

    $ sbin/hadoop-daemons.sh start datanode

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容