hadoop入门

1.事先准备好一台linux虚拟机(网卡为仅主机模式,最小化安装)

#systemctl stop firewalld      //关闭防火墙
#systemctl disable firewalld      //防止开机自启

2.IPADDR 192.168.56.100/24 网关192.168.56.1

#vi /etc/sysconfig/network 
NETWORKING=yes
GATEWAY=192.168.56.1
#vi /etc/sysconfig/network-sripts/ifcfg-enp0s3
TYPE=Ethernet 
IPADDR=192.168.56.100 
NETMASK=255.255.255.0

3.用root连接Xshell,使用xftp上传jdk和hadoop
4.安装jdk和hadoop(检验是否成功)

#cd /usr/local
#rpm -ivh jkd-8u91-linux-64.rpm   //用Tab补齐
#cd /usr/
#java
#cd local
#ls
#tar -xvf hadoop-2.7.3.tar.gz   //注意用Tab补齐

#cd /usr/local
#ls
bin  games   hadoop-2.7.3.tar.gz  jdk-8u91-linux-x64.rpm  lib64    sbin   src
etc  hadoop  include              lib                     libexec  share
# cd hadoop
# cd etc
# ls
hadoop
# cd h*
# ls
capacity-scheduler.xml      httpfs-env.sh            mapred-env.sh
configuration.xsl           httpfs-log4j.properties  mapred-queues.xml.template
container-executor.cfg      httpfs-signature.secret  mapred-site.xml.template
core-site.xml               httpfs-site.xml          slaves
hadoop-env.cmd              kms-acls.xml             ssl-client.xml.example
hadoop-env.sh               kms-env.sh               ssl-server.xml.example
hadoop-metrics2.properties  kms-log4j.properties     yarn-env.cmd
hadoop-metrics.properties   kms-site.xml             yarn-env.sh
hadoop-policy.xml           log4j.properties         yarn-site.xml
hdfs-site.xml               mapred-env.cmd
#vim hadoop-env.sh   //配置hadoop环境
//将export JAVA_HOME=${JAVA_HOME}改写为export JAVA_HOME=/usr/java/default
#vim /etc/profile
//zai 末尾添加export PATH=$PATH:/usr/local/hadoop/bin:/usr/local/hadoop/sbin
#source /etc/profile   //执行改写的文件,使之生效
#hadoop

5.退出master,将master复制三台服务器:slave1,slave2,slave3
6.将三台服务器的Ip分别改为192.168.56.101,192.168.56.102,192.168.56.103,名字分别为slave1,slave2,slave3
查看是否都能ping通

systemctl stop firewalld   //关闭防火墙
systemctl disable firewalld   //关闭开机自启

7.master管理者另外三台服务器(slave1,2,3)(工具--发送键送到所以会话)

#cd /usr/local/hadoop/etc/hadoop
#vim core-site.xml    //四台都要
<configuration>
<property>
    <name>fs.defaultFS</name>   //名字
    <value>hdfs://master:9000</value>   //hdfs协议,9000为监听端口
</property>
</configuration>   
#vim /etc/hosts
192.168.56.100 master
192.168.56.101 slave1
192.168.56.102 slave2
192.168.56.103 slave3

//在master中
#hdfs namenode .format    //格式化
#hadoop-daemon.sh start namenode
starting namenode, logging to /usr/local/ha
# jps
3352 NameNode       //成功
3420 Jps  
    
//在slave1,2,3中
#hadoop-daemo.sh start datanode
starting datanode, logging to /usr/local/hadoop/logs/hadoop-root-datanode-slave1.out
#jps
3210 DataNode           //成功
3293 Jps

8.开启关闭集群命令

#hadoop-daemon.sh stop namenode   //关闭
#hadoop-daemon.sh start namenode   //开启
#jps  //用来观察进程情况

9.集中式管理添加所有机器

#vim slaves
slave1
slave2
slave3
#start-dfs.sh  //启动所有机器(需要输入密码)
#jps

10.ssh免密登录

#ssh slave1     //第一次需要输入密码
#exit
#cd    //进入根目录
#ls -la
#cd .ssh
#ssh-keygen -t rsa    //默认直接回车确认
#ls
id_rsa  id_rsa.pub  known_hosts    //id_rsa是root的私钥,id_rsa.pub是root的公钥
#ssh-copy-id slave1  //传递公钥
#ssh-copy-id slave2
#ssh-copy-id slave3
#ssh-copy-id master  //默认本机也是远程登录,所以也需要
stop-dfs.sh //关闭集群
start-dfs.sh //开启集群

11.上传一个文件,每个hdfs块文件备份2份,从节点的心跳检查时间间隔10秒

#ls
capacity-scheduler.xml      httpfs-env.sh            mapred-env.sh
configuration.xsl           httpfs-log4j.properties  mapred-queues.xml.template
container-executor.cfg      httpfs-signature.secret  mapred-site.xml.template
core-site.xml               httpfs-site.xml          slave
hadoop-env.cmd              kms-acls.xml             slaves
hadoop-env.sh               kms-env.sh               ssl-client.xml.example
hadoop-metrics2.properties  kms-log4j.properties     ssl-server.xml.example
hadoop-metrics.properties   kms-site.xml             yarn-env.cmd
hadoop-policy.xml           log4j.properties         yarn-env.sh
hdfs-site.xml               mapred-env.cmd           yarn-site.xml
#vim hdfs-site.xml     //修改多少个备份
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
# vim hdfs-site.xml
<property>
<name>dfs.namenode.heartbeat.recheck-interval</name>
<value>10000</value>   //每隔10000毫秒更新
</property>
#cd /usr/local
# ls
bin     hadoop-2.7.3.tar.gz     lib64    src
etc     include                 libexec
games   jdk-8u91-linux-x64.rpm  sbin
hadoop  lib                     share
# hadoop fs -put jdk-8u91-linux-x64.rpm /

12.hadoop.tmp.dir配置为/var/tmphadoop/
1.所有机器都要修改

#cd /tmp
#cd /usr/local/hadoop/etc/hadoop
#ls
#vim core-site.xml
<property>
    <name>hadoop.tmp.dir</name>
    <value>/var/hadoop</value>
</property>

2.namenode格式化

#hdfs namenode -format
#stop-dfs.sh
#start-dfs.sh

13.进入java配置
1.导入必要的包,新建class
(1).share--hadoop--common--hadoop-common-2.7.3jar
(2).share--hadoop--common--lib--全部
(3).share--hadoop--hdfs--hadoop-hdfs-2.7.3jar
2.新建文件

#cd
#vi hello.test
hello bj
hello sh
hello sz
hello AMD690G
#hadoop fs -put ./hello.txt /
# hadoop fs -ls /
Found 1 items
-rw-r--r--   2 root supergroup         41 2017-10-06 23:12 /hello.txt
#vim hdfs-site.xml
<property>
    <name>dfs.permissions.enabled</name>
    <value>false</value>
</property>
#stop-dfs.sh
#start-dfs.sh

全部代码

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;

public class hellohdfs2 {

    public static void main(String[] args) throws Exception{
        /*URL url = new URL("http://www.baidu.com");
        InputStream in = url.openStream();
        IOUtils.copyBytes(in, System.out , 4096, true);*/
        
        /*URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
        URL url = new URL("hdfs://192.168.56.10:9000/hello.txt");
        InputStream in = url.openStream();
        IOUtils.copyBytes(in, System.out , 4096, true);*/
        
        Configuration conf = new Configuration();
        conf.set("fs.defaultFS", "hdfs://192.168.56.10:9000");
        FileSystem fileSystem = FileSystem.get(conf);
        
        /*boolean success = fileSystem.mkdirs(new Path("/msb"));
        System.out.println(success);
        
        success = fileSystem.exists(new Path("/hello.txt"));
        System.out.println(success);  //判断文件是否存在
        
        success = fileSystem.delete(new Path("/msb"), true);
        System.out.println(success);  //删除目录
        
        success = fileSystem.exists(new Path("/msb"));
        System.out.println(success);*/   
        
        /*FSDataOutputStream out = fileSystem.create(new Path("/test.data"), true);
        FileInputStream fis = new FileInputStream("c:/test/core-site.xml");
        IOUtils.copyBytes(fis, out, 4096, true);*/
        
        /*FSDataOutputStream out = fileSystem.create(new Path("/test.data"), true);
        FileInputStream in = new FileInputStream("c:/test/core-site.xml");
        byte[] buf = new byte[4096];
        int len = in.read(buf);
        while(len !=-1) {
            out.write(buf, 0, len);
            len = in.read(buf);
        }
        in.close();
        out.close();*/
        
        FileStatus[] statuses = fileSystem.listStatus(new Path("/"));
        //System.out.println(statuses.length);
        for(FileStatus status : statuses) {
            System.out.println(status.getPath());
            System.out.println(status.getPermission());
            System.out.println(status.getReplication());
        }
    }

}

13.yarn

#cd /usr/local/hadoop/etc/hadoop
#vim yarn-site.xml    //四台都要
<property>
    <name>yarn.resourcemanager.hostname</name>
    <value>master</value>
</property>
 
<property>  
    <name>yarn.nodemanager.aux-services</name>  
    <value>mapreduce_shuffle</value>  
</property>  
 
<property>
    <name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>
    <value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>


//namenode上配置mapred-site.xml(要复制)
#vi mapred-site.xml
<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>


#start-yarn.sh
#jps
8225 NameNode
8418 SecondaryNameNode
8870 ResourceManager
9134 Jps
#vim mapred-site.xml
<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>
#vi input.txt
hello java
hello java
hello c
hello c++
hello python
hello java
#cd 
# vi input.txt
# hadoop fs -mkdir /wcinput
# hadoop fs -put input.txt /wcinput/
# hadoop fs -ls /wcinput
Found 1 items
-rw-r--r--   2 root supergroup         64 2017-10-07 00:22 /wcinput/input.txt
#find /usr/local/hadoop -name *example*.jar      //查找示例文件
#hadoop jar /usr/local/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.3.jar wordcount /wcinput/input.txt /wcoutput

通过网页来观察该job的运行情况
192.168.56.10:8088

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,362评论 5 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,330评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,247评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,560评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,580评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,569评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,929评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,587评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,840评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,596评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,678评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,366评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,945评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,929评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,165评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,271评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,403评论 2 342

推荐阅读更多精彩内容