win10上安装pyspark攻略与我遇到的问题到成功安装

##1【工具准备】

  1,jdk1.8

  2,spark-2.2.0-bin-dadoop2.7

  3,hadoop-2.7.1.tar

  4,winutils


下载链接:https://pan.baidu.com/s/1c1L3i6W 密码:xs7k

##安装每部分

1.java安装并配置,java的环境变量,

如果java安装在这个目录:C:\Program Files\Java,请按上图修改,不然最后cmd下打开hadoop,会报错如下


2.分别解压安装spark和hadoop如下步骤如网页:http://blog.csdn.net/yaoqiwaimai/article/details/59114881


特别注意:查看c:\tmp\hive是否存在,不存在的话请创建避免犯错,

3.全部安装完毕后,cmd输入:



返回结果


恭喜你,安装成功


感谢您的观看。

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容