2019-06-08

写文章


Hadoop数据分析平台实战——010hadoop介绍安装

本课程有以下几个目标:

第一:对hadoop没有了解的学员来说,可以帮助其了解在一般工作中hadoop的基本用法,以及对如何用hadoop有一定的了解。

第二:对hadoop有了解的学员来说,其一可以帮助学员加深对hadoop的了解,其二可以让学员对hadoop的实际应用场景有一个比较深入的了解。

Hadoop的主要应用场景

这里说的hadoop指的是以hadoop为中心的hadoop生态圈。

场景1:数据分析平台

场景2:推荐系统

场景3:业务系统的底层存储系统

场景4:业务监控系统

...............................

什么是数据分析平台

数据分析的主要目标是为公司提供一系列的网站指标,期望能够帮助到运维、技术等各个不同部门了解公司网站的情况。比如:当一个网站的注册方式修改后,我们发现访客转会员的比例降低了,那么我们可能就可以得出一个结论:“可能是用户觉得这种注册方式太麻烦而导致,不想注册了。”,这个时候我们可能就需要重新设计注册页面了。

数据分析这种平台比较适合电商类的网站,其他类型的相比较而言对这种类型的平台需求就低一点。主要原因是影响电商的主要因素有以下几个:第一,访客转会员率;第二,会员留存率;第三,会员购买率(复购率)。

数据分析平台主体架构

数据分析平台主体架构.png

数据平台的最终产出

need-to-insert-img

分析报表

Hadoop简单介绍

Hadoop是apache基金会组织的一个顶级项目,

其核心为HDFS和MapReduce,HDFS为海量的数据提供存储,而MapReduce为海量的数据提供计算,

官网:http://hadoop.apache.org

在Apache Hadoop的基础上,Cloudera公司将其进行商业化改进和更新,它的发行版本就是CDH(Cloudera Distribution Hadoop),

CDH官网:http://www.cloudera.com

hadoop2.5.0-cdh5.3.6

CDH4.x: http://archive.cloudera.com/cdh4/cdh/4/

CDH5.x: http://archive.cloudera.com/cdh5/cdh/5/

CDH5.3.6文档:http://archive.cloudera.com/cdh5/cdh/5/hadoop-2.5.0-cdh5.3.6/

Apache Hadoop :http://archive.apache.org/dist/hadoop/common

Apache Hadoop文档:http://hadoop.apache.org/docs

JDK下载地址 :http://www.oracle.com/technetwork/java/javase/archive-139210.html

Hadoop伪分布式环境搭建

安装步骤:

1. 创建用户,使用hadoop用户

2. 修改主机名以及ssh免密码登录

3. jdk安装

4. hadoop安装

Hadoop环境搭建-创建用户

步骤:(root用户密码为123456)

1. 使用useradd hadoop添加用户

2. 使用passwd hadoop设置用户密码,密码为abc123_

3. 给用户赋予使用sudo命令的权限。

4. chmod u+w /etc/sudoers

6. vim /etc/sudoers

7. 在root ALL=(ALL) ALL下面加上一行hadoop ALL=(ALL) ALL。(分隔的是制表符)

8. chmod u-w /etc/sudoers

need-to-insert-img

image.png

need-to-insert-img

image.png

need-to-insert-img

image.png

Hadoop环境搭建-修改主机名以及ssh免密码登录

步骤:(使用hadoop用户登录)

    1. 使用sudo hostname hh修改主机名,当前生效,重启后失效。

    2. 使用vim /etc/sysconfig/network修改主机名,重启生效。

    3. 在/etc/hosts文件中添加主机名对于的ip地址。

    4. 使用ssh-keygen -t rsa生成ssh秘钥。dsa

    5. 进入.ssh文件夹,创建authorized_keys文件,并将id_rsa.pub的内容添加到文件中去,修改文件权限为600(必须)。

    6. ssh hh验证

SSH免密登录教程https://www.jianshu.com/p/8515c5602811

need-to-insert-img

image.png

need-to-insert-img

image.png

Hadoop环境搭建-JDK安装

步骤:

1. 复制jdk压缩包到softs文件夹中2. 解压tar -zxvf softs/jdk-7u79-linux-x64.tar.gz3. 创建软连接sudo ln -s /home/hadoop/bigdater/jdk1.7.0_79 /usr/local/jdk4. 配置相关环境变量vim ~/.bash_profile: JAVA_HOME, CLASSPATH, PATH。全局生效配置文件/etc/profile。5. 使环境变量生效source~/.bash_profile7. 验证java version/ javac version

need-to-insert-img

image.png

need-to-insert-img

image.png

Hadoop环境搭建-hadoop安装

步骤:

1. 下载hadoop安装包并复制到到softs文件夹中。

2. 解压tar -zxvf softs/hadoop-2.5.0-cdh5.3.6.tar.gz,并创建数据保存文件hdfs(~/bigdater/hadoop-2.5.0-cdh5.3.6/hdfs/)。

3. 配置hadoop-env.sh mapred-env.sh yarn-env.sh文件

4. 配置基本环境变量core-site.xml文件

5. 配置hdfs相关变量hdfs-site.xml文件

7. 配置mapre相关环境变量mapred-site.xml文件

8. 配置yarn相关环境变量yarn-site.xml文件

9. 配置datanode相关变量slaves文件

10. 配置hadoop相关环境变量

need-to-insert-img

image.png

Hadoop环境搭建-hadoop启动

步骤:

1. 第一次启动hadoop之前需要格式化namenode节点,命令为hadoopnamenode-format。2. 两种方式启动start-all.sh或者start-hdfs.shstart-yarn.sh。3. 查看是否启动成功。

格式化提示信息

need-to-insert-img

格式化提示信息.png

Hadoop环境搭建-验证hadoop是否启动成功

步骤:

1. 验证hadoop是否启动成功有两种方式,第一种:通过jps命令查看hadoop的进行是否启动,第二种:查看web界面是否启动显示正常内容。

2. 验证hadoop对应的yarn(MapReduce)框架是否启动成功:直接运行hadoop自带的example程序。

创建一个test.txt

echo"welcome to join us bjsxt 尚学堂 优效学院 优效聚名师 学习更有效">> test.txthadoop dfs -put test.txt /

使用hadoop自带的mapreduce程序验证:/home/hadoop/bigdater/hadoop-2.5.0-cdh5.3.6/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0-cdh5.3.6.jar

将文件内容添加上去后执行:hadoop jar hadoop-mapreduce-examples-2.5.0-cdh5.3.6.jar wordcount /test.txt output/wordcount

执行完成以后运行 hadoop dfs -text output/wordcount/part-*

中途遇到了一个问题

hadoop Unhealthy Nodes问题解决

http://www.jianshu.com/p/a01c0bf5dd6a

是磁盘空间不足导致的,清空回收站之后就好了,晕死

AlbertMP:mapreduce Albert$ hadoop dfs -text output/wordcount/part-*DEPRECATED: Use of this script to execute hdfscommandis deprecated.Instead use the hdfscommandforit.17/08/27 23:49:15 WARN util.NativeCodeLoader: Unable to load native-hadoop libraryforyour platform... usingbuiltin-java classeswhereapplicablebjsxt  1join    1to  1us  1welcome 1优效学院    1优效聚名师  1学习更有效  1尚学堂 1

问题:

1.如果virtualbox无法选择64位操作系统安装,问题就是机器没有开始cpu虚拟化。bios需要设置一些信息。参考网站:http://jingyan.baidu.com/article/8ebacdf0df465b49f65cd5d5.html

配置信息参考

第一步:配置hadoop-env.sh    export JAVA_HOME=/usr/local/jdk    export HADOOP_PID_DIR=/home/hadoop/bigdater/hadoop-2.5.0-cdh5.3.6/hdfs/tmp第二步:配置mapred-env.sh    export HADOOP_MAPRED_PID_DIR=/home/hadoop/bigdater/hadoop-2.5.0-cdh5.3.6/hdfs/tmp第三步:配置yarn-env.sh    export YARN_PID_DIR=/home/hadoop/bigdater/hadoop-2.5.0-cdh5.3.6/hdfs/tmp第四步:配置core-site.xml文件fs.defaultFShdfs://hh:8020hadoop.tmp.dir/home/hadoop/bigdater/hadoop-2.5.0-cdh5.3.6/hdfs/tmp第五步:配置hdfs-site.xml文件dfs.replication1dfs.namenode.name.dir/home/hadoop/bigdater/hadoop-2.5.0-cdh5.3.6/hdfs/namedfs.namenode.data.dir/home/hadoop/bigdater/hadoop-2.5.0-cdh5.3.6/hdfs/datadfs.permissions.enabledfalse第六步:创建mapred-site.xml文件,直接执行命令cp mapred-site.xml.templete mapred-site.xml第七步:配置mapred-site.xml文件mapreduce.framework.nameyarn第八步:配置yarn-site.xml文件yarn.nodemanager.aux-servicesmapreduce_shuffle第九步:配置slaves指定datanode节点,将localhost改成主机名第十步:修改环境变量文件".base_profile",并使其生效    ###### hadoop 2.5.0    export HADOOP_HOME=/home/hadoop/bigdater/hadoop-2.5.0-cdh5.3.6/    export HADOOP_PREFIX=$HADOOP_HOME    export HADOOP_COMMON_HOME=$HADOOP_PREFIX    export HADOOP_CONF_DIR=$HADOOP_PREFIX/etc/hadoop    export HADOOP_HDFS_HOME=$HADOOP_PREFIX    export HADOOP_MAPRED_HOME=$HADOOP_PREFIX    export HADOOP_YARN_HOME=$HADOOP_PREFIX    export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

我爱编程

Spring Boot 面试,一个问题就干趴下了!

最近栈长面试了不少人,其中不乏说对 Spring Boot 非常熟悉的,然后当我问到一些 Spring Boot 核心功能和原理的时候,没人能说得上来,或者说不到点上,可以说一个问题就问趴下了! 这是我的问题: 我看你上面写了熟悉 Spring Boot,那你能讲下为什么我...

 Java技术栈

Java 常见面试题整理

操作系统 说一下线程和进程,它们的区别 同步和异步的区别 阻塞和非阻塞的区别 操作系统中死锁的四个必要条件 mmap和普通文件读写的区别,mmap的注意点 CPU密集型和IO密集型的区别 Linux linux 用过的命令 kill 用法,某个进程杀不掉的原因(进入内核态,...

 tobeTopCoder

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容