Docker+Spark+Jupyter=文本数据处理逻辑测试平台容器化

写在前面

之前写过一篇“Spark+Jupyter=在线文本数据处理逻辑测试平台”
[http://www.jianshu.com/p/bbd4190089e7]

这几天要把这玩意儿放到我自己的阿里云上线,供一些正在学习Python文本处理的基友们试用,然后按着之前的步骤又配了一次环境。这台服务器配置渣网速慢,光编译scipy就假死了好几次。就算有着自己写的教程一步步来都要烦死了。

生无可恋的我摊在桌子上,目光扫到了一本书——《Docker技术入门与实战》,心中突然就有一个作死的想法:干脆把这玩意儿容器化好了,数据处理+Spark听起来就很吸引人啊有木有。

说干就干,结合之前的教程我决定再来一次Docker版本的文本数据处理逻辑测试平台搭建。

事实上你可以把这篇文章看作是Docker入门操作的教程,因为里面主要讲述的是Docker的部署,修改与提交

准备工作

使用Docker的话其实是很有好处的,在Docker的镜像站里已经有人家搭好的基础款jupyter镜像,我们只需要往里面添加Spark环境即可。
同样默认使用的是Ubuntu或者Debian的机器,并且知道Docker是用来干什么的即可。

安装Docker

目前新版本的Ubuntu和Debian应该都能直接使用apt-get安装docker,运行以下命令即可

$apt-get -y install docker.io

之后输入

$service docker status
$service docker start

确保docker服务已启动
如果docker没有创建/usr/bin/docker的话,运行

ln -sf /usr/bin/docker.io /usr/local/bin/docker

镜像下载

前面说过Docker的镜像站上已经有基于Jupyter的数据处理镜像可供下载了,这镜像分成两个版本:

  • dataquestio/python3-starter
  • dataquestio/python2-starter

由于我的朋友大部分使用的是Py2,所以我选择了dataquestio/python2-starter这个版本,至于Py3如果有需要后期在jupyter里添加kernel即可。
运行

$docker pull dataquestio/python2-starter

坐等进度条跑完之后执行

$docker images

即可看到目前所有的镜像,我们很高兴的看到dataquestio/python2-starter已经在列表里了

内容添加

首先要准备三样东西:

  • hadoop2.6.0.tar.gz
  • spark-1.6.1-bin-hadoop2.6.tar.gz
  • scala-2.10.6.tar.gz

我们要把这三个文件放到容器里去,所以首先我们要运行容器

docker run -v /your/file/path:/mnt dataquestio/python2-starter

这行命令的主要作用是运行容器并将你的文件路径挂载到容器系统的/mnt路径下,这里如果不懂的话建议查查docker容器的运行原理。
之后这个终端会打印出jupyter的运行信息,表示docker已经开始时运作。保留这个终端新建一个终端窗口,执行

$docker ps

会看到shell打印出所有正在运行的容器的信息,其中第一项是容器的id,复制并执行

$docker exec -it yourcontainerid /bin/bash

你会发现你的shell已经进入容器并可以对容器环境进行操作了,进入/mnt并按照上一篇教程
[http://www.jianshu.com/p/bbd4190089e7]
对spark环境进行配置,不过这个容器并没有安装Java,所以你需要执行

$add-apt-repository ppa:webupd8team/java
$apt-get update
$apt-get install oracle-java8-installer

并在之后对bashrc或者bash_profile进行修改时加入JAVA_HOME的配置

export JAVA_HOME=/usr/lib/jvm/java-8-oracle"
export PATH=$PATH:$JAVA_HOME/bin

打包镜像

在spark配置好并确定你的jupyter能正常使用pyspark之后退出容器的shell,执行

docker ps

你会发现容器的id已经改变,这说明这个容器已经被你添加过内容,不再是之前你下载的镜像,所以你需要将这个容器打包成一个新镜像,之后你就可以在任意装有docker的平台上部署自己的容器了。
打包容器使用docker commit命令

docker commit -m "Added Spark Support" -a "Author: yourname" $newCotainerID $newImagename

如果顺利的话命令会返回新的docker镜像id信息,执行

docker images

即可查看你的新镜像

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

  • Docker — 云时代的程序分发方式 要说最近一年云计算业界有什么大事件?Google Compute Engi...
    ahohoho阅读 15,723评论 15 147
  • 最近在学习大数据技术,朋友叫我直接学习Spark,英雄不问出处,菜鸟不问对错,于是我就开始了Spark学习。 为什...
    Plokmijn阅读 26,786评论 6 26
  • 转载自 http://blog.opskumu.com/docker.html 一、Docker 简介 Docke...
    极客圈阅读 13,595评论 0 120
  • 十一月的第一天,抖个机灵天天相见,会不会增进彼此的好感度?即使,路灯下看不清对方的脸。
    Eeyore阅读 1,837评论 0 0
  • 夜空的寂静 没有风儿的寂静 本是夏季夜晚的天堂 只因为这里 又或是雨去风来 却给人一种忘乎 这里有你也有我 窸窸窣...
    山水云烟话轻尘阅读 1,544评论 0 1

友情链接更多精彩内容