Spark实例-通过HDFS文件实时统计

通过Spark Streaming,实时监控HDFS目录,发现有文件时,实时进行计算。

package com.spark.streaming

import org.apache.spark.SparkConf
import org.apache.spark.streaming.StreamingContext
import org.apache.spark.streaming.Seconds

/*
 *
 * 通过HDFS文件实时统计
 */
object HDFSWordCount extends App {
  val conf = new SparkConf()
  .setAppName("HDFSWordCount")
  //.setMaster("hdfs://hadoop01:9000/")
  val ssc = new StreamingContext(conf,Seconds(5))

  val lines = ssc.textFileStream("hdfs://hadoop01:9000/wordcount_dir")
  val words = lines.flatMap(line=>line.split(" "))
  val paris = words.map((_,1))
  val wordCount=paris.reduceByKey(_+_)
  wordCount.print()
  ssc.start()
  ssc.awaitTermination()
  ssc.stop()
}
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容