Spark 运行架构

Spark 运行架构

解决原始数据乱码的问题

  1. 使用atom可以检查出文件的编码格式为gb2312
  2. 使用iconv可以直接转码,遇到错误忽略掉即可
  3. 将文件导入hdfs上

The filesystem under path '/hdfs/user/data/SogouQ3_utf8.txt' is HEALTHY

最热门的查询词排行 top10

  1. 选取第三个字段,做一个wordcount,然后交换(key,value)-> (value, key),按照现有的key排序,排序完成后,再一次交换(k ,v),最后选取前10
  2. 具体代码
package io.github.week3

import org.apache.spark.{SparkContext, SparkConf}

/**
  * Created by sunyonggang on 16/4/22.
  */
class TermsTop {

}
object TermsTop {
  def main(args: Array[String]) {
    val conf = new SparkConf().setAppName("TermsTop10").setMaster("spark://gg01:7077")
    val sc = new SparkContext(conf)

    val logRDD = sc.textFile("hdfs://gg01:9000/hdfs/user/data/SogouQ3_utf8.txt")

    //统计其中的搜索词,并排序前10
    val wc = logRDD.map(line => line.split("\t")).filter(_.length == 6).map(line => (line(2), 1)).reduceByKey(_ + _)
    val termsTop = wc.map(word => (word._2, word._1)).sortByKey(false).map(word => (word._2, word._1)).take(10)

    for (term <- termsTop) {
      println(term)
    }
  }
}

3.结果:

16/04/23 10:52:38 INFO DAGScheduler: ResultStage 4 (take at TermsTop.scala:20) finished in 0.462 s
16/04/23 10:52:38 INFO DAGScheduler: Job 1 finished: take at TermsTop.scala:20, took 4.698771 s
(百度,77627)
(baidu,36564)
(人体艺术,29598)
(4399小游戏,23306)
(优酷,20847)
(qq空间,20677)
(新亮剑,19205)
(馆陶县县长闫宁的父亲,17842)
(公安卖萌,16612)
(百度一下 你就知道,15212)
16/04/23 10:52:38 INFO SparkContext: Invoking stop() from shutdown hook
16/04/23 10:52:38 INFO SparkUI: Stopped Spark web UI at http://192.168.199.150:4040

用户查询排行 top10

  1. 同第一个问题,只不过选取第二个字段
  2. 具体代码
package io.github.week3

import org.apache.spark.{SparkContext, SparkConf}

/**
  * Created by sunyonggang on 16/4/22.
  */

class UsersTop {

}
object UsersTop {
  def main(args: Array[String]) {
    val conf = new SparkConf().setAppName("TermsTop10").setMaster("spark://gg01:7077")
    val sc = new SparkContext(conf)

    val logRDD = sc.textFile("hdfs://gg01:9000/hdfs/user/data/SogouQ3_utf8.txt")

    //统计其中的user id,并排序前10
    val wc = logRDD.map(line => line.split("\t")).filter(_.length == 6).map(line => (line(1), 1)).reduceByKey(_ + _)
    val termsTop = wc.map(word => (word._2, word._1)).sortByKey(false).map(word => (word._2, word._1)).take(10)

    for (term <- termsTop) {
      println(term)
    }
  }
}

3.结果

16/04/23 10:56:31 INFO DAGScheduler: ResultStage 4 (take at UsersTop.scala:21) finished in 1.511 s
16/04/23 10:56:31 INFO DAGScheduler: Job 1 finished: take at UsersTop.scala:21, took 5.284386 s
(ac65768b987c20b3b25cd35612f61892,20385)
(9faa09e57c277063e6eb70d178df8529,11653)
(02a8557754445a9b1b22a37b40d6db38,11528)
(cc7063efc64510c20bcdd604e12a3b26,2571)
(b64b0ec03efd0ca9cef7642c4921658b,2355)
(7a28a70fe4aaff6c35f8517613fb5c67,1292)
(b1e371de5729cdda9270b7ad09484c4f,1277)
(f656e28e7c3e10c2b733e6b68385d5a2,1241)
(7eab8caf9708d68e6964220e2f89e80d,1181)
(c72ce1164bcd263ba1f69292abdfdf7c,1120)
16/04/23 10:56:31 INFO SparkContext: Invoking stop() from shutdown hook
16/04/23 10:56:31 INFO SparkUI: Stopped Spark web UI at http://192.168.199.150:4040

网站访问排行版(不用区分二级域名) top50

  1. 选取第六个字段,截取一级域名,然后与前面两个问题一样的解决方案
  2. 具体代码
package io.github.week3

import org.apache.spark.{SparkContext, SparkConf}

/**
  * Created by sunyonggang on 16/4/22.
  */
class WebsiteTop50 {

}
object WebsiteTop50 {
  def main(args: Array[String]) {
    val conf = new SparkConf().setAppName("TermsTop10").setMaster("spark://gg01:7077")
    val sc = new SparkContext(conf)

    val logRDD = sc.textFile("hdfs://gg01:9000/hdfs/user/data/SogouQ3_utf8.txt")

    //统计其中的website,并排序前50
    val wc = logRDD.map(line => line.split("\t")(5)).map(website => getFirstDomainFromWebsite(website)).reduceByKey(_ + _)
    val termsTop = wc.map(word => (word._2, word._1)).sortByKey(false).map(word => (word._2, word._1)).take(50)

    for (term <- termsTop) {
      println(term)
    }
  }
  def getFirstDomainFromWebsite(line : String) : (String , Int) = {
    val regex = """(\w+\:\/\/.*?\/)(.*)""".r
    val regex(domain, seconddomain) = line
    (domain, 1)
  }
}

3.结果,(ps:上面的正则表达式可能不够健壮)

16/04/23 11:00:46 INFO DAGScheduler: Job 1 finished: take at WebsiteTop50.scala:20, took 2.012784 s
(http://zhidao.baidu.com/,584230)16/04/23 11:00:46 INFO TaskSetManager: Finished task 0.0 in stage 4.0 (TID 27) in 688 ms on 192.168.199.146 (1/1)
16/04/23 11:00:46 INFO TaskSchedulerImpl: Removed TaskSet 4.0, whose tasks have all completed, from pool

(http://tv.sogou.com/,290795)
(http://wenwen.soso.com/,287967)
(http://baike.baidu.com/,229051)
(http://www.youku.com/,158918)
(http://www.baidu.com/,148608)
(http://wenku.baidu.com/,127176)
(http://www.tudou.com/,125944)
(http://tieba.baidu.com/,124058)
(http://v.youku.com/,122190)
(http://www.docin.com/,74127)
(http://www.4399.com/,70430)
(http://blog.sina.com.cn/,67190)
(http://www.ranwen.com/,55428)
(http://tv.sohu.com/,51935)
(http://v.ku6.com/,43433)
(http://www.tvmao.com/,41431)
(http://hi.baidu.com/,41347)
(http://www.360doc.com/,41164)
(http://iask.sina.com.cn/,40803)
(http://www.56.com/,37227)
(http://www.hao123.com/,32477)
(http://www.qiyi.com/,31019)
(http://ishare.iask.sina.com.cn/,30783)
(http://www.tianya.cn/,30571)
(http://www.7k7k.com/,29045)
(http://www.douban.com/,27587)
(http://www.booksky.org/,26782)
(http://detail.zol.com.cn/,26401)
(http://qzone.qq.com/,26036)
(http://www.qire123.com/,25440)
(http://www.12306.cn/,25383)
(http://cf.qq.com/,24262)
(http://www.qidian.com/,24115)
(http://blog.163.com/,23254)
(http://www.xixiwg.com/,22503)
(http://www.a67.com/,21706)
(http://weibo.com/,20811)
(http://dzh.mop.com/,20431)
(http://detail.china.alibaba.com/,20351)
(http://kankan.xunlei.com/,18656)
(http://dl.pconline.com.cn/,18310)
(http://bbs1.people.com.cn/,17534)
(http://news.ifeng.com/,17442)
(http://news.shangdu.com/,16957)
(http://news.xinhuanet.com/,16621)
(http://dnf.qq.com/,16427)
(http://item.taobao.com/,15764)
(http://roll.sohu.com/,15588)
(http://www.qzone.cc/,15236)
16/04/23 11:00:46 INFO SparkContext: Invoking stop() from shutdown hook
16/04/23 11:00:46 INFO SparkUI: Stopped Spark web UI at http://192.168.199.150:4040
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,172评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,346评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,788评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,299评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,409评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,467评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,476评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,262评论 0 269
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,699评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,994评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,167评论 1 343
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,827评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,499评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,149评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,387评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,028评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,055评论 2 352

推荐阅读更多精彩内容

  • 基本概念 *& RDD 是弹性分布式数据集,【我也不太清楚这个概念】。是一个分布式抽象内存的概念,提供了一种高度受...
    起个什么呢称呢阅读 2,142评论 0 2
  • 1.架构如图9-5所示,Spark运行架构包括集群资源管理器(Cluster Manager)、运行作业任务的工作...
    d33911380280阅读 1,024评论 0 2
  • 基础概念 RDD:弹性分布式数据集(Resilient Distributed Dataset)它是分布式内存的抽...
    ppmoon阅读 726评论 0 50
  • Spring Cloud为开发人员提供了快速构建分布式系统中一些常见模式的工具(例如配置管理,服务发现,断路器,智...
    卡卡罗2017阅读 134,644评论 18 139
  • Spark SQL, DataFrames and Datasets Guide Overview SQL Dat...
    Joyyx阅读 8,327评论 0 16