Spark本地/集群执行wordcount程序

[

在spark shell中编写WordCount程序

.

执行步骤

  1. 将spark.txt文件上传到hdfs上 /usr/local hadoop fs -put
  2. 打包maven项目
  3. 将打包后的jar包上传到机器
  4. 编写 spark-submit 脚本
  5. 执行脚本,提交spark应用到集群执行

hadoop fs -put spark.txt /spark.txt
http://spark1:50070 查看


如果要在集群上运行,则需要修改代码中的两处:

  1. 将 setMaster() 方法删掉,他会自己去连接
  2. 将对象是本地文件改成hdfs上的文件
    SparkConf conf = new SparkConf().setAppName("wordCountCluster");
    JavaSparkContext sc = new JavaSparkContext(conf);
    JavaRDD<String> lines = sc.textFile("hdfs://spark1:9000/spark.txt");
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • iOS8.0以后,苹果推出了WKWebView,相比原来的UIWebView,WKWebView的体验有较大的提升...
    忠橙_g阅读 6,646评论 0 0
  • 写的
    TLM_Sandy阅读 1,683评论 0 0
  • 周末会友时一起看的,时长两小时,看完凌晨三点,好在中途她没睡着陪我看完了。故事开始于一个附近建有军事基地的小镇上,...
    panda1893阅读 3,064评论 0 0
  • 天公作美。 许瑞光翻了翻他的手机日历,发现这一天正是八月十五。 月圆之夜,这是西方传说中狼人会变身的日子。传说凡是...
    半点正经阅读 1,878评论 0 0