Hadoop入门(一):hadoop的安装

开源地址:https://github.com/bigbeef
个人博客:http://blog.cppba.com

1.安装JDK

2.配置SSH无密码登陆

1.ssh-keygen -t rsa //然后一路回车

//把id_rsa.pub 复制到node机器(现在是本机,不需要这一步操作).
2.scp ~/.ssh/id_rsa.pub root@127.0.0.1:~/.ssh

3.切换到node机器:

4.cd /root/.ssh

//生成authorized_keys.
5.cat id_rsa.pub >> authorized_keys

//把authorized_keys scp到Master(现在是本机,不需要这一步操作)
6.scp ~/.ssh/authorized_keys root@127.0.0.1:~/.ssh

//然后把所有机器 .ssh/ 文件夹权限改为700,authorized_keys文件权限改为600
7.
chmod 700 ~/.ssh
chmod 600 ~/.ssh/authorized_keys

8.ssh root@127.0.0.1  //验证ssh,不需要输入密码即可登录

3.安装Hadoop

1.官网下载hadoop压缩包(这里是hadoop-2.7.3.tar.gz)

2.解压

tar -zxvf hadoop-2.7.3.tar.gz

3.修改hadoop配置文件

cd /opt/hadoop-2.7.3/etc/hadoop

(1).配置hadoop-env.sh
# The java implementation to use.
#export JAVA_HOME=${JAVA_HOME}
export JAVA_HOME=/usr/java/jdk1.8.0_121(自己的jdk路径)

(2).//修改配置core-site.xml
vi core-site.xml

<configuration>
<!--配置hdfs的namenode(老大)的地址-->
 <property>
    <name>fs.defaultFS</name>
    <value>hdfs://localhost:9000</value>
    <description>HDFS的URI,文件系统://namenode标识:端口号</description>
</property>

<!--配置hadoop运行时产生数据的存储目录,不是临时的数据-->
<property>
    <name>hadoop.tmp.dir</name>
    <value>/hadoop/tmp</value>
    <description>namenode上本地的hadoop临时文件夹</description>
</property>
</configuration>

(3).修改配置hdfs-site.xml
<configuration>
<property>
    <name>dfs.replication</name>
    <value>1</value>
    <description>副本个数,配置默认是3,应小于datanode机器数量</description>
</property>
</configuration>

(4).修改mapred-site.xml

mv mapred-site.xml.template mapred-site.xml

vi mapred-site.xml

<configuration>
<!--指定mapreduce运行在yarn模型上-->
<property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
</property>
</configuration>

(5).配置yarn-site.xml
<configuration>
<property>
        <name>yarn.resourcemanager.hostname</name>
        <value>127.0.0.1</value>
</property>
<!--mapreduce执行shuffle时获取数据的方式-->
<property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
</property>
</configuration>

4.启动hadoop
(1)格式化namenode

bin/hdfs namenode -format

(2)启动NameNode 和 DataNode 守护进程

sbin/start-dfs.sh

(3)启动ResourceManager 和 NodeManager 守护进程

sbin/start-yarn.sh

(4)jps命令查看进程


4.访问

127.0.0.1:50070
127.0.0.1:8088
如果可以访问表示配置成功

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 版权声明:本文为博主原创文章,未经博主允许不得转载。 目录-[-]1 先决条件2 实验环境搭建 21 准备工...
    三三At你阅读 858评论 0 3
  • 1 目的将hadoop 2.7.1 安装到 166、167、168 三台机器上2 提供环境练习环境192.168....
    灼灼2015阅读 3,456评论 4 40
  • 看着我 这被泪水洗净的脸,这被痛苦扭曲的脸 您知道,我已回头 祈祷, 忏悔 请求您,不要再让孤独环绕在我身旁 带...
    Masker7W阅读 167评论 0 2
  • 我只在今天 把陈述的石头搬上山顶 无论它 是否陈述 用矛盾为诗操戈 伐倒镜面的桥的旗帜的树 倒向苟活的墓碑 把堆在...
    小李说的没错阅读 207评论 1 1