-
安装pyspark
- 通过拷贝pyspark包安装
- 源目录:D:\software\spark-2.2.0-bin-hadoop2.6\python\pyspark
- 目标目录:D:\software\Anaconda3\Lib\site-packages
安装py4j
-
新建wordcount
# coding:utf8 from __future__ import print_function from operator import add from pyspark.sql import SparkSession if __name__ == "__main__": spark = SparkSession \ .builder \ .appName('PythonWordCount') \ .getOrCreate() path = "D:\\workspace\\IdeaProjects\\learning\\src\\main\\resources\\word_count.txt" lines = spark.read.text(path).rdd.map(lambda r: r[0]) counts = lines.flatMap(lambda x: x.split(' ')) \ .map(lambda x: (x, 1)) \ .reduceByKey(add) output = counts.collect() for (word, count) in output: print("%s: %i" % (word, count)) spark.stop() 运行验证
wordcount
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。