Spark从入门到精通35:在eclipse中直接使用spark-submit提交Spark任务

通常在开发Spark任务的时候,都是先在本地主机的IDE中开发完Spark任务,然后上传到Spark集群,最后通过命令行提交并运行,这样很不方便。本节就来介绍一种直接在Eclipse IDE中通过调用外部工具spark-submit来直接提交spark任务的简便方法。

这里以提交Python任务为例进行说明环境搭建。(Java和Scala类似)

1.下载安装Eclipse Scala IDE

为了便于说明,我直接在Spark集群测试环境的master节点上装上图形化界面。然后去Scala IDE官网下载Linux对应版本的eclipse并安装。这个过程很简单,不做详述。

2.安装PyDev插件

启动Eclipse,依次点击Help —— Install New Software… —— Add —— Name输入:PyDev,Location输入:https//dl.bintray.com/fabioz/pydev/7.1.0/ —— OK —— 在列出的资源中勾选PyDev —— next —— next —— 选择”I accept …” —— Finish。耐心等待安装完成,然后重启Eclipse即可。

3.设置字符串替代变量

启动Eclipse,依次点击Window —— Preferences —— Run/Debug —— String Substitution —— New —— Name输入:SPARK_HOME,Value输入:Spark实际安装位置 —— OK。

以同样的方式,设置HADOOP_CONF_DIR变量,值为Hadoop配置文件的路径;设置PYSPARK_PYTHON,值为anaconda安装目录下的bin/python。

4.设置Python解释器路径

依次点击Window —— Preferences —— PyDev —— Interpreter —— Python Interpreter —— Browse for Python/pypy exe —— Interpreter Name输入Python3,Interpreter Executable输入anaconda安装目录下的bin/python3 —— OK —— 在列出的依赖中选择所有 —— OK即可。

5.设置anaconda中的链接库路径

依次点击Window —— Preferences —— PyDev —— Interpreter —— Python Interpreter —— Libraries —— New Folder —— 路径:anaconda安装目录下的lib/python3.7/site-packages —— OK。如此即可使用anaconda中包含的所有Python模块。

6.设置Spark Python的链接库

依次点击Window —— Preferences —— PyDev —— Interpreter —— Python Interpreter —— Libraries —— New Egg/Zip(s) —— 选择路径:spark家目录下的python/lib/中的pyspark.zip和py4j-*.zip两个zip包——OK。如此即可使用pyspark和spark-submit。

7.设置环境变量

依次点击Window —— Preferences —— PyDev —— Interpreter —— Python Interpreter —— Environment —— new —— Name输入:SPARK_HOME,Value输入:${SPARK_HOME},即之前配置字符串替代量。

同理,配置环境变量:HADOOP_CONF_DIR=${HADOOP_CONF_DIR},PYSPARK_PYTHON={PYSPARK_PYTHON}。

8.新建PyDev项目

依次点击 File —— New —— Project… —— PyDev —— PyDev Project —— next —— Project Name:PythonSpark —— Project Type:Python —— Finish。一个工程就建好了。

下面是一个WordCount.py程序:

# -*- coding: UTF-8 -*-
from pyspark import SparkContext
from pyspark import SparkConf

def SetLogger( sc ):
    logger = sc._jvm.org.apache.log4j
    logger.LogManager.getLogger("org"). setLevel( logger.Level.ERROR )
    logger.LogManager.getLogger("akka").setLevel( logger.Level.ERROR )
    logger.LogManager.getRootLogger().setLevel(logger.Level.ERROR)

def SetPath(sc):
    global Path
    if sc.master[0:5]=="local" :
        Path="file:/root/workspace/PythonProject/"
    else:
        Path="hdfs://master:9000/workspace/PythonProject/"
#如果要在cluster模式运行(hadoop yarn 或Spark Stand alone),先把数据文件上传到HDFS目录

def CreateSparkContext():
    sparkConf = SparkConf()\
                .setAppName("WordCounts")                         \
                .set("spark.ui.showConsoleProgress", "false") 

    sc = SparkContext(conf = sparkConf)
    print("master="+sc.master)
    SetLogger(sc)
    SetPath(sc)
    return (sc)


if __name__ == "__main__":
    print("开始运行RunWordCount")
    sc=CreateSparkContext()

    print("开始读取文本文件...")
    textFile = sc.textFile(Path+"data/README.md")
    print("文本文件共"+str(textFile.count())+"行")

    countsRDD = textFile                                     \
                  .flatMap(lambda line: line.split(' ')) \
                  .map(lambda x: (x, 1))                    \
                  .reduceByKey(lambda x,y :x+y)

    print("文字统计共"+str(countsRDD.count())+"项数据")
    print("开始存储到文本文件...")
    try:
        countsRDD.saveAsTextFile(Path+ "data/output")
    except Exception as e:
        print("输出目录已经存在,请先删除原有目录")
    sc.stop()

9.通过外部工具运行spark-submit

依次点击:Run——External Tools——External Tools Configurations… ——Program —— 新建 —— Name:spark-submit ——Main ——Location:spark-submit的完整路径,Working Directory:{workspace_loc}/{project_name},Arguments:–driver-memory 1g –master local[4] {resource_name}{string_prompt}——run。即可以local模式提交Spark任务。其他模式类似。

10.查看结果

控制台:

开始运行RunWordCount
master=local[*]
开始读取文本文件…
文本文件共95行
文字统计共260项数据
开始存储到文本文件…

# ls data/output/
part-00000 part-00001 _SUCCESS

# head data/output/part-00000
(u'', 67)
(u'when', 1)
(u'R,', 1)
(u'including', 3)
(u'computation', 1)
(u'using:', 1)
(u'guidance', 2)
(u'Scala,', 1)
(u'environment', 1)
(u'only', 1)

# head data/output/part-00001
(u'help', 1)
(u'Hadoop', 3)
(u'high-level', 1)
(u'find', 1)
(u'web', 1)
(u'Shell', 2)
(u'how', 2)
(u'graph', 1)
(u'run:', 1)
(u'should', 2)

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 217,734评论 6 505
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,931评论 3 394
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,133评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,532评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,585评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,462评论 1 302
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,262评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,153评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,587评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,792评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,919评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,635评论 5 345
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,237评论 3 329
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,855评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,983评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,048评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,864评论 2 354

推荐阅读更多精彩内容