马士兵Hadoop学习

软件包位置

https://pan.baidu.com/s/1pLFVWkr

文档地址

http://www.mashibing.com/hadoop_install.html
http://www.mashibing.com/hadoop_test.html
http://www.mashibing.com/hdfs_java.html
http://www.mashibing.com/yarn_test.html
http://www.mashibing.com/map_reduce.html

IP 地址设置

master:  192.168.56.101
slave1:  192.168.56.102
slave2:  192.168.56.103
slave3:   192.168.56.104

上传文件。

解压jdk

#rpm -ivh jdk-8u91-linux-x64.rpm
#cd /usr
#ls
#java
#cd

解压hadoop

#tar -xvf hadoop-2.7.3.tar.gz
#mv hadoop-2.7.3 hadoop 
#mv hadoop /usr/local

配置

#vi /usr/local/hadoop/etc/hadoop/hadoop-env.sh
把export JAVA_HOME=${JAVA_HOME}改成export JAVA_HOME=/usr/java/default,然后:wq保存退出。
#vi /etc/profile
//在最下面加入:
  export PATH=$PATH:/usr/local/hadoop/bin:/usr/local/hadoop/sbin
source /etc/profile

关机复制三台。

关闭防火墙。

#systemctl stop firewalld
#systemctl disable firewalld

启用

#vi /usr/local/hadoop/etc/hadoop/core-site.xml
<property>
             <name>fs.defaultFS</name>
              <value>hdfs://master:9000</value>
     </property>
#vi /etc/hosts
192.168.56.101 master
192.168.56.102 slave1
192.168.56.103 slave2
192.168.56.104 slave3
#hdfs namenode -format
master:
#hadoop-daemon.sh start namenode
#jps
slaves:
#hadoop-daemon.sh start datanode
#jps

查看集群情况

#hdfs dfsadmin -report | more
用浏览器浏览
192.168.56.101:50070

集中式管理集群。

关闭集群。

master:
#hadoop-daemon.sh stop namenode
#jps
slaves:
#hadoop-daemon.sh stop datanode
#jps

master

#vi /usr/local/hadoop/etc/hadoop/slaves
slave1
slave2
slave3
#start-dfs.sh
slaves:
#jps

设置免密登录(master)

#cd .ssh
#ssh-keygen -t rsa
#ssh-copy-id slave1
#ssh-copy-id slave2
#ssh-copy-id slave3
#ssh-copy-id master
#stop-dfs.sh
#start-dfs.sh

对文件进行增删改查操作

#hadoop fs -ls /
#cd /usr/local
#ll
#hadoop fs -put ./hadoop-2.7.3.tar.gz /
#hadoop fs -ls /

修改默认属性

#cd hadoop/etc/hadoop
#vi hdfs-site.xml
<property>
              <name>dfs.replication</name>
              <value>2</value>
</property>
#cd /usr/local
#hadoop fs -put ./jdk-8u91-Linux-x64.rpm /
#hadoop fs -ls /

修改检查时间

#cd hadoop/etc/hadoop
#vi hdfs-site.xml
<property>
          <name>dfs.namenode.heartbeat.recheck-interval</name>
          <value>10000</value>
</property>
#stop-dfs.sh
#start-dfs.sh

修改配置文件,所有机器都改

 /usr/local/hadoop/etc/hadoop
#vi /usr/local/hadoop/etc/hadoop/core-site.xml
<property>
          <name>hadoop.tmp.dir</name>
          <value>/var/hadoop</value>
</property>
#hdfs namenode -format
#cd
vi hello.txt
#hadoop fs -put ./hello.txt /
#hadoop fs -ls /

用eclipse打开,file,new ,project,java project,HelloHDFS

-DHADOOP_USER_NAME=root
image.png

导入用到的包

image.png
lib下的所有包
image.png
public static void main(String[] args) throws Exception {
        URL url = new URL("http://www.baidu.com");
        InputStream in = url.openStream();
        IOUtils.copyBytes(in,System.out,4096,true);
URL url = new URL("hdfs://192.168.56.101:9000/hello.txt");
        InputStream in = url.openStream();
        IOUtils.copyBytes(in,System.out,4096,true);
URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
        URL url = new URL("hdfs://192.168.56.101:9000/hello.txt");
        InputStream in = url.openStream();
        IOUtils.copyBytes(in,System.out, 4096,true);
Configuration conf = new Configuration();
        conf.set("fs.defaultFS","hdfs://192.168.56.101:9000");
        FileSystem fileSystem = FileSystem.get(conf);

新建一个目录

boolean success = fileSystem.mkdirs(new Path("/xuehuai"));
        System.out.println(success);

master

#hadoop fs -ls /

判断存不存在

success = fileSystem.exists(new Path("/hello.txt"));
        System.out.println(success);

删除一个文件

success = fileSystem.delete(new Path("/msb"),true);
        System.out.println(success);
master:
#cd /usr/local/hadoop/etc/hadoop
#vi hdfs-site.xml
<property>
        <name>dfs.permissions.enabled</name>
        <value>false</value>
</property>
#hadoop-daemon.sh stop namenode
#hadoop-daemon.sh start namenode
FSDataOutputStream out = fileSystem.create(new Path("/test.data"),true);
        FileInputStream fis = new FileInputStream("d:/test1/hive-env.sh.template");
        IOUtils.copyBytes(fis, out, 4096,true);

master:
#hadoop fs -ls /
#hadoop fs -text /test.data
#hadoop fs -rm /test.data
FSDataOutputStream out = fileSystem.create(new Path("/test.data"),true);
        FileInputStream in = new FileInputStream("d:/test1/hive-env.sh.template");
        byte[] buf = new byte[4096];
        int len = in.read(buf);
        while(len != -1) {
            out.write(buf,0,len);
            len = in.read(buf);
        }
        in.close();
        out.close();

}

}

配置计算调度系统yarn和计算引擎mr

配置yarn(所有)

#vi /usr/local/hadoop/etc/hadoop/yarn-site.xml
<property>
      <name>yarn.resourcemanager.hostname</name>
      <value>master</value>
</property>
<property>
      <name>yarn.nodemanager.aux-services</name>
      <value>mapreduce_shuffle</value>
</property>
<property>
      <name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>
      <value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>

配置mapreduce.(所有)

#cp /usr/local/hadoop/etc/hadoop/mapred-site.xml.template /usr/local/hadoop/etc/hadoop/mapred-site.xml
#vi /usr/local/hadoop/etc/hadoop/mapred-site.xml
<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>
#start-yarn.sh   //master

浏览器:192.168.56.101:8088

3、上传文件

#vi input.txt
#hadoop fs -mkdir /input
#hadoop fs -put input.txt /input
#hadoop fs -ls /input
#find /usr/local/hadoop -name *example*.jar
#hadoop jar /usr/local/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.3.jar wordcount /input/input.txt /output
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 213,099评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,828评论 3 387
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 158,540评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,848评论 1 285
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,971评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,132评论 1 291
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,193评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,934评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,376评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,687评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,846评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,537评论 4 335
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,175评论 3 317
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,887评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,134评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,674评论 2 362
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,741评论 2 351

推荐阅读更多精彩内容