大数据启动服务步骤(待更新)

hadoop

在3.2版本中 hdfs namenode -format 后,启动start-all.sh

[root@ hadoop01 ~]$jps
60498 SecondaryNameNode
60818 ResourceManager
61204 Jps
60093 NameNode

jps 查看没有 datanode ,需要使用

hdfs 命令 hdfs datanode 启动

[root@ hadoop01 ~]$jps
60498 SecondaryNameNode
60818 ResourceManager
61348 Jps
60093 NameNode
61247 DataNode

jps 查看没有 namenode ,需要使用

hdfs 命令 hdfs --daemon start namenode 启动 ,可能是hdfs文件没了,需要格式化hdfs namenode -format

  • hadoop command

hdfs dfs -ls / | hadoop fs -ls / 查看目录文件信息 。

hdfs dfs -mkdir /test 创建文件

hdfs dfs -put history.txt /test 上传文件到test目录

  • hadoop 安全模式

    hadoop dfsadmin -safemode leave 离开安全模式

    安全模式是hadoop的一种保护机制,在启动时,最好是等待集群自动退出,然后进行文件操作。

hive

前提

  • 安装JDK-略过
  • 安装Hadoop-略过
  • 安装Mysql-略过 docker 安装的数据库,docker 启动

hive map reduce

yarn --daemon start nodemanager

  • 在hive中可以查询hadoop文件目录

    dfs -ls -R /;
    
  • hive 连接用户问题

    user: ** is not allowed to impersonate anonymous,这个通常是因为Hadoop的hdfs需要配置用户代理:
    
    <property>
      <name>hadoop.proxyuser.**.hosts</name>
      <value>*</value>
    </property>
    <property>
      <name>hadoop.proxyuser.**.groups</name>
     <value>hadoop</value>
    </property>
    
  • hive启动服务端口,配置文件后 需要kill -9 ,在启动

    hive --service hiveserver2 >/dev/null  2>&1 & 
    
  • beeline

    beeline -u jdbc:hive2://192.168.31.225:10000/
    

37开 - 原创文章(已经在多平台发表),转载请标明出处

原文地址-99get81.com

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 1.简介 Hadoop是一款开源的大数据通用处理平台,其提供了分布式存储和分布式离线计算,适合大规模数据、流式数据...
    哦00阅读 916评论 0 0
  • 一、系统参数配置优化 1、系统内核参数优化配置 修改文件/etc/sysctl.conf,添加如下配置,然后执行s...
    张伟科阅读 3,812评论 0 14
  • Zookeeper用于集群主备切换。 YARN让集群具备更好的扩展性。 Spark没有存储能力。 Spark的Ma...
    Yobhel阅读 7,390评论 0 34
  • 之前的有点忘记了,这里在云笔记拿出来再玩玩.看不懂的可以留言 大家可以尝试下Ambari来配置Hadoop的相关环...
    HT_Jonson阅读 3,074评论 0 50
  • 小吉是位农村姑娘,高考落榜后,虽然父母劝她复读,但她还是毅然决定出去打工。 因为没有一技之长,小吉先到一家餐馆打工...
    李武_四川阅读 1,151评论 23 33