pyspark报错:FileNotFoundError: [WinError 2] 系统找不到指定的文件。

问题:

写了一个简单的pyspark小程执行到

sc = SparkContext("local", "test")

报错:FileNotFoundError: [WinError 2] 系统找不到指定的文件。

解决问题(以idea为例):

    1,确认安装spark(例如本人安装的spark-2.2.0-bin-hadoop2.7),如果没有安装的话去spark官网下载一个,并解压即可。

    2,点击idea菜单栏的run

    3,点击Edit Configurations

4,点红圈。。。

5,点击加号 

6.添加

name:SPARK_HOME       

value:刚才解压的spark路径

7,在次运行问题解决!!希望可以帮到你

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • pyspark.sql模块 模块上下文 Spark SQL和DataFrames的重要类: pyspark.sql...
    mpro阅读 9,538评论 0 13
  • 首先需要安装Java 下载安装并配置Spark 从官方网站Download Apache Spark™下载相应版本...
    LJasperliet阅读 9,639评论 0 2
  • http://spark.apache.org/docs/latest/api/python/index.html...
    mpro阅读 6,151评论 0 4
  • 一个多月的地铁阅读时光,阅读《Spark for python developers》电子书,不动笔墨不看书,随手...
    abel_cao阅读 2,848评论 1 8
  • Scala语法 至于scala语法而言,大致上和Java的语法类似,增加了一些函数式编程,具体语法可以参考Scal...
    卡卡xx阅读 2,944评论 0 1