问题:
写了一个简单的pyspark小程执行到
sc = SparkContext("local", "test")
报错:FileNotFoundError: [WinError 2] 系统找不到指定的文件。
解决问题(以idea为例):
1,确认安装spark(例如本人安装的spark-2.2.0-bin-hadoop2.7),如果没有安装的话去spark官网下载一个,并解压即可。
2,点击idea菜单栏的run
3,点击Edit Configurations
4,点红圈。。。
5,点击加号
6.添加
name:SPARK_HOME
value:刚才解压的spark路径
7,在次运行问题解决!!希望可以帮到你