Hadoop-3.0.3 安装

Hadoop-3.0.3 安装

一 下载安装包

二配置Hadoop环境变量

/etc/profile 后面追加

export HADOOP_HOME=/data/hadoop-3.0.3

export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native

export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib:$HADOOP_COMMON_LIB_NATIVE_DIR"

三 修改

hadoop-env.sh文件

末尾追加:

export JAVA_HOME=/data/jdk1.8.0_172

export HADOOP_OPTS="-Djava.library.path=${HADOOP_HOME}/lib/native"

四 修改

core-site.xml

<configuration>

   <property>

        <name>fs.defaultFS</name>

        <value>hdfs://192.168.16.94:9000</value>

   </property>

   <property>

        <name>hadoop.tmp.dir</name>

        <value>file:/data/hadoop-3.0.3/tmp</value>

        <description>Abase for other temporary directories.</description>

   </property>

五、修改

hdfs-site.xml

<configuration>

    <property>

        <name>dfs.replication</name>

        <value>1</value>

    </property>

    <property>

        <name>dfs.namenode.name.dir</name>

        <value>file:/data/hadoop-3.0.3/namenode</value>

    </property>

    <property>

        <name>dfs.datanode.data.dir</name>

        <value>file:/data/hadoop-3.0.3/datanode</value>

    </property>

</configuration>

六、启动服务

nohup ${HADOOP_HOME}/sbin/hadoop-daemon.sh start datanode &nohup ${HADOOP_HOME}/sbin/hadoop-daemon.sh start namenode &

nohup ${HADOOP_HOME}/sbin/hadoop-daemon.sh start secondarynamenode &

七、jps 检查服务启动情况

八、对DataNode进行分块

hdfs namenode –format

九、执行

${HADOOP_HOME}/bin/hadoop checknative -a

若报错不能加载本地库问题。有可能是

原因是系统的glibc版本太低,软件编译时使用了较高版本的glibc引起的

解决方案如下:

1.使用命令  strings /lib64/libc.so.6 |grep GLIBC_  检查所有的版本

缺少GLIBC_2.14造成。

2. 下载编译环境

yum install svn autoconfautomake libtool cmake ncurses-devel openssl-devel gcc* 

下载 http://ftp.gnu.org/gnu/glibc/glibc-2.14.tar.gz ;

解压 mkdir build && cd build

配置  ../configure --prefix=/opt/glibc-2.14

执行  make && make install

3.配置  cp /etc/ld.so.c* /opt/glibc-2.14/etc/

4. 创建新的软连接  ln -sf /opt/glibc-2.14/lib/libc-2.14.so /lib64/libc.so.6

5.检查是否安装成功  strings /lib64/libc.so.6 | grep GLIBC

十、再次执行${HADOOP_HOME}/bin/hadoop checknative -a   检查是否OK 。

©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

  • 一、系统参数配置优化 1、系统内核参数优化配置 修改文件/etc/sysctl.conf,添加如下配置,然后执行s...
    张伟科阅读 9,242评论 0 14
  • 之前的有点忘记了,这里在云笔记拿出来再玩玩.看不懂的可以留言 大家可以尝试下Ambari来配置Hadoop的相关环...
    HT_Jonson阅读 8,265评论 0 50
  • 感冒发烧 空气干燥不通风(病毒易繁殖)是引起感冒最重要的原因,感冒一般是由病毒引起的,而不是气温,受凉不会让你感冒...
    萌骁鹿阅读 3,738评论 0 0
  • 恋爱的双方在终于决定分手时,通常会上演分分合合的戏码。 一般是女人提出分手,又迫不及待的挽回,说:“我还是不想和你...
    行者马丢丢阅读 4,001评论 0 3
  • 不尴不尬 在这里,它是一个人 虫吟,凤舞,拟人 春风和奏的梨花是雪,比喻 人是创造完了的,童话正在创造着,叙述 不...
    暮客雨阅读 1,778评论 0 1

友情链接更多精彩内容