一.Ubuntu ssh 配置
1.安装好Ubuntu系统后,输入ifconfig命令 查看虚拟机IP地址,即192.168.225.130,并在外部利用ping 命令 测试是否可以ping通 虚拟机地址
2.查看是否安装了ssh 服务
命令 : ps -e|grep ssh
如果没有安装的话,安装ssh服务
命令: sudo apt-get install openssh-server
安装成功后,执行 ps -e|grep ssh 查看是否有sshd 服务启动
打开Xshell ssh连接工具,主机地址填写虚拟机的ip地址,端口号:22 ,连接时需要输入ubuntu用户名和密码,输入登陆即可
二.配置本机Ubuntu ssh免密登陆 ,尽量不用root用户配置
1. 生成秘钥(注意切换到当前用户目录)
2.赋予 authorized_keys 文件权限
chmod 600 .ssh/authorized_keys
三、java环境配置
1.切换到 /usr/local文件夹,新建java文件夹
进入 /usr/local文件夹: cd /usr/local
创建 java文件夹: sudo mkdir java (因为非root用户 默认没有创建文件夹权限,所以需要使用sudo)
2.使用 xftp工具将java linux 版本压缩包 上传,解压到 /usr/local/java文件夹下,在xftp上传jdk 包到 /usr/local/java 文件夹下的时候,因为当前用户没有读写权限,所以会上传失败,所以上传前要给予当前用户java文件夹的读写权限
命令:sudo chmod 777 /usr/local/java
然后jdk 上传成功后,在 /usr/local/java 文件夹下执行命令:
tar -zxvf 压缩包包名 如图下所示
3、配置环境变量
更改 /etc/profile 文件,添加java环境配置
命令
此处的坑:
ubuntu下 vi输入方向键会变成ABCD,这是ubuntu预装的是vim tiny版本,安装vim full版本即可解决
先卸载vim-tiny:
sudo apt-get remove vim-common
再安装vim full:
sudo apt-get install vim
在末尾加入以下配置(JAVA_HOME 后的路径就是jdk的文件位置)
#set Java environment
export JAVA_HOME=/usr/local/java/jdk1.8.0_161
export JRE_HOME=$JAVA_HOME/jre
exportCLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
修改完之后保存关闭,然后执行下面命令,使刚刚改过的文件生效
source /etc/profile
通过测试Java -version 命令测试一下是否安装成功,如下安装成功
四.Hadoop 单机版安装
1.下载 hadoop2.6.0 版本
百度云下载地址:
链接: https://pan.baidu.com/s/1g5No0C_OmmpJqKH4Is7Zqw
提取码: wndv
官网下载地址:
2.创建hadoop文件夹,并把下载好的hadoop压缩包移动到该文件夹下
命令:
cd /usr/local
创建 hadoop文件夹
sudo mkdir hadoop
给予 当前用户 读写权限
sudo chmod 777 /usr/local/hadoop
用xftp 将hadoop 的压缩包上传到该文件夹下,并进行解压
tar -zxvf 压缩包包名
3.修改 ~/.bashrc文件,添加hadoop 和jdk 环境变量配置
命令 :
修改 ~/.bashrc文件
sudo vi /.bashrc
添加以下内容: jdk 安装路径配置自己的 Hadoop 的安装路径也配置自己的
#HADOOP VARIABLES START
export JAVA_HOME=/usr/local/java/jdk1.8.0_161
export HADOOP_INSTALL=/usr/local/hadoop/hadoop-2.6.0
export PATH=$PATH:$HADOOP_INSTALL/bin
export PATH=$PATH:$HADOOP_INSTALL/sbin
export HADOOP_MAPRED_HOME=$HADOOP_INSTALL
export HADOOP_COMMON_HOME=$HADOOP_INSTALL
export HADOOP_HDFS_HOME=$HADOOP_INSTALL
export YARN_HOME=$HADOOP_INSTALL
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_INSTALL/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_INSTALL/lib"
#HADOOP VARIABLES END
在/etc/profile 中添加Hadoop 配置
命令:vi /etc/profile
添加如下配置:
# set hadoop environment
export HADOOP_HOME=/usr/local/hadoop/hadoop-2.6.0
export PATH=$PATH:$HADOOP_HOME/bin
添加完毕后,
命令: source /etc/profile
令文件立即生效
4.修改hadoop-2.6.0 文件夹下的hadoop-env.sh
vi /usr/local/hadoop/hadoop-2.6.0/etc/hadoop/hadoop-env.sh
修改hadoop-env.sh 的 java 环境变量配置
5.进入 hadoop-2.6.0 文件夹下 ,创建input 目录
创建input 目录
sudo mkdir input
测试准备:
将 hadoop-2.6.0 文件夹下 的ReadMe.txt拷贝到input文件夹中
命令:
cp README.txt /usr/local/hadoop/hadoop-2.6.0/input/
6.测试:
执行命令:
bin/hadoop jar share/hadoop/mapreduce/sources/hadoop-mapreduce-examples-2.6.0-sources.jar org.apache.hadoop.examples.WordCount input output
执行后可看到mapreduce 打印:
然后再执行:
cat output/*
查看字符统计结果
五、Hadoop WebUI配置 对 NameNode 和 DataNode 查看:
1.修改core-site.xml 添加如下配置
命令: vi core-site.xml
<property>
<name>fs.defaultFS</name>
<!-- 这里填的是你自己的ip,端口默认-->
<value>hdfs://192.168.225.130:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<!-- 这里填的是你自定义的hadoop工作的目录,端口默认-->
<value>/usr/local/hadoop/hadoop-2.6.0/tmp</value>
</property>
<property>
<name>hadoop.native.lib</name>
<value>false</value>
<description>Should native hadoop libraries, if present, be used.</description>
</property>
如下图所示
2.编辑 hdfs-site.xml 添加如下内容
命令:vi hdfs-site.xml
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.secondary.http.address</name>
<!--这里是你自己的ip,端口默认-->
<value>192.168.225.130:50090</value>
</property>
如下图所示:
3.复制默认的mapred-site.xml.template配置命名为mapred-site.xml
命令:cp mapred-site.xml.template ./mapred-site.xml
编辑mapred-site.xml 添加如下配置
命令:vi mapred-site.xml
添加配置:
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
如下图所示:
4.配置yarn-site.xml
命令:vi yarn-site.xml
添加如下配置:
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.resourcemanager.hostname</name>
<!-- 自己的ip端口默认 -->
<value>192.168.225.130</value>
</property>
<!-- reducer获取数据的方式 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
如下图所示:
5.配置好之后切换到sbin目录下
cd /usr/local/hadoop/hadoop-2.6.0/sbin/
格式化hadoop文件格式,执行命令 hadoop namenode -format,成功之后启动
启动成功如下图所示
6.启动
命令: ./start-all.sh
启动成功:
7.使用 jps 查看进程,能看到这些进程证明启动成功了
命令:jps
8.通过ip访问:
http://192.168.225.130:50070/
文件权限设置详解:
数字表示不同用户或用户组的权限。
第一个数字代表du档案zhi拥有者。
第二个数字代表群组。
第三个数字代表其他。
在Linux中我们有三种常用权限:可读、可写以及可执行,用数字表示的话就是:可读 = 4,可写=2,可执行=1
例:755
第一个数字7是档案拥有者的权限(可读+可写+可执行=4+2+1)
第二个数字5是群组的权限(可读+可执行=4+1)
第三个数字5是其他人的权限(可读+可执行=4+1)