Hadoop

core-site.xml

<configuration>
<property>
        <name>hadoop.tmp.dir</name>
        <value>file:/home/wangxiaotong/hadoop-2.7.5/tmp</value>
    </property>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://10.11.6.79:9000</value>
    </property>
    <property>
        <name>io.file.buffer.size</name>
        <value>131072</value>
    </property>
</configuration>

hdfs-site.xml

<configuration>
  <property>
        <name>dfs.replication</name>
        <value>3</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/home/wangxiaotong/hadoop-2.7.5/hdfs/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:/home/wangxiaotong/hadoop-2.7.5/hdfs/data</value>
    </property>
    <property>
        <name>dfs.webhdfs.enabled</name>
        <value>true</value>
    </property>
        <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>10.11.6.79:50090</value>
        </property>


        <property>
        <name>dfs.namenode.http-address</name>
        <value>10.11.6.79:50070</value>
        </property>
</configuration>

mapred-site.xml

<configuration>
 <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.address</name>
        <value>10.11.6.79:10020</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.webapp.address</name>
        <value>10.11.6.79:19888</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.done-dir</name>
        <value>/home/wangxiaotong/hadoop-2.7.5/history/done</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.intermediate-done-dir</name>
        <value>/home/wangxiaotong/hadoop-2.7.5/history/done_intermediate</value>
    </property>
</configuration>

yarn-site.xml

<configuration>

<!-- Site specific YARN configuration properties -->
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>10.11.6.79</value>
    </property>
    <property>
        <name>yarn.resourcemanager.address</name>
        <value>10.11.6.79:8032</value>
    </property>
    <property>
        <name>yarn.resourcemanager.scheduler.address</name>
        <value>10.11.6.79:8030</value>
    </property>
    <property>
        <name>yarn.resourcemanager.resource-tracker.address</name>
        <value>10.11.6.79:8031</value>
    </property>
    <property>
        <name>yarn.resourcemanager.admin.address</name>
        <value>10.11.6.79:8033</value>
    </property>
    <property>
        <name>yarn.resourcemanager.webapp.address</name>
        <value>10.11.6.79:8088</value>
    </property>
</configuration>

slaves

10.11.6.52
10.11.6.53
10.11.6.54
10.11.6.55
10.11.6.57
10.11.6.58
10.11.6.70
10.11.6.71
10.11.6.72
10.11.6.73
10.11.6.74
10.11.6.75
10.11.6.77
10.11.6.78

hadoop-env,yarn-env,mapred-env

export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.161-0.b14.el7_4.x86_64

配置Hadoop环境变量

export HADOOP_HOME=/home/wangxiaotong/hadoop-2.7.5
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

启动

hdfs namenode -format 格式化namenode
hadoop-daemons.sh start datanode 启动所有的数据节点
hadoop-daemon.sh start datanode 只启动当前的数据节点
start-all 启动所有服务hdfs+yarn
stop-all 停止所有服务
start-dfs.sh 启动hdfs

  • master节点进程:
2437 NameNode
2569 SecondaryNameNode
4778 Jps
31467 Kafka
31004 QuorumPeerMain
  • slave节点进程:
26576 DataNode
22563 QuorumPeerMain
23044 Kafka
29402 Jps

参考链接:http://blog.51cto.com/balich/2062052

读取

hdfs dfs -cat hdfs://centos7-dase-79:9000/flink-checkpoints/test.txt

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

  • 终极算法 关注微信号每天收听我们的消息终极算法为您推送精品阅读 前言 Hadoop 在大数据技术体系中的地位至关...
    Yespon阅读 130,835评论 12 168
  • 一、系统参数配置优化 1、系统内核参数优化配置 修改文件/etc/sysctl.conf,添加如下配置,然后执行s...
    张伟科阅读 9,234评论 0 14
  • 安装sshsudo apt-get install ssh sudo apt-gert install rsync...
    黑夜与繁星阅读 4,185评论 0 1
  • 1.装系统、配IP、装Java……假设最后是由2台机器组成的集群,主机名及IP配置如下: 其中,namenode为...
    炼狱的吹笛人阅读 3,247评论 0 0
  • 广中医偌大的校园春雨过后挺好看的,就是操场粗糙得风过尘土飞扬。吃饭时我们讲起高中时的志愿,医生说幸好没被国防...
    peng格林T阅读 2,817评论 0 0

友情链接更多精彩内容