函数传递(序列化)

初始化工作是在Driver端进行的,而实际运行程序是在Excutor端进行的。
跨进程通信,是需要序列化的

算子前面的在Driver执行
算子里面的在Excutor执行

spark在执行作业之前,会先进行闭包检测,目的在于对闭包所使用的变量是否序列化进行检测。

package com.atguigu

import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

object Action {
  def main(args: Array[String]): Unit = {
    val conf: SparkConf = new SparkConf().setMaster("local[*]").setAppName("ADCount")

    val sc = new SparkContext(conf)

    val rdd: RDD[String] = sc.parallelize(Array("hadoop","spark","hive","atguigu"))

    //创建一个Search对象
    val search = new Search("h")

    //使用第一个过滤函数并打印结果

    val match1RDD: RDD[String] = search.getMatch1(rdd)

    match1RDD.collect().foreach(println)

  }
}

/***************************************/
class Search(query:String) {
  //过滤出包含字符串的数据
  def isMatch(s:String): Boolean ={
    s.contains(query)
  }

  //过滤出包含字符串的RDD
  def getMatch1(rdd: RDD[String]):RDD[String] = {
    rdd.filter(isMatch)
  }

  //过滤出包含字符串的RDD
  def getMatch2(rdd:RDD[String]):RDD[String] = {
    rdd.filter(x => x.contains(query))//query在Driver端创建的, 如果使用getMatch2没有序列化也会报错。
  }
}


报错:
Exception in thread "main" org.apache.spark.SparkException: Task not serializable
-object not serializable (class: com.atguigu.Search, value: com.atguigu.Search@660591fb)

Search对象未序列化错误。原因是: val search = new Search("h")在Driver端声明,所以Seach对象在Driver端,而getMatch1中的算子filter中的(isMatch)在算子里面,所以在Excutor端执行。需要将在Driver端的Seach对象发送到Excutor端,所以需要序列化。


混入Serializable特质,实现序列化。

class Search(query:String) extends Serializable {
  //过滤出包含字符串的数据
  def isMatch(s:String): Boolean ={
    s.contains(query)
  }

  //过滤出包含字符串的RDD
  def getMatch1(rdd: RDD[String]):RDD[String] = {
    rdd.filter(isMatch)
  }

  //过滤出包含字符串的RDD
  def getMatch2(rdd:RDD[String]):RDD[String] = {
    rdd.filter(x => x.contains(query))
  }
}

hadoop
hive

二、

package com.atguigu

import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

object Action {
  def main(args: Array[String]): Unit = {
    val conf: SparkConf = new SparkConf().setMaster("local[*]").setAppName("ADCount")

    val sc = new SparkContext(conf)

    val rdd: RDD[String] = sc.parallelize(Array("hadoop","spark","hive","atguigu"))

    //创建一个Search对象
    val search = new Search("h")

    //使用第一个过滤函数并打印结果

    val match2RDD: RDD[String] = search.getMatch2(rdd)

    match2RDD.collect().foreach(println)




  }
}


class Search(query:String) {
  //过滤出包含字符串的数据
  def isMatch(s:String): Boolean ={
    s.contains(query)
  }

  //过滤出包含字符串的RDD
  def getMatch1(rdd: RDD[String]):RDD[String] = {
    rdd.filter(isMatch)
  }

  //过滤出包含字符串的RDD
  def getMatch2(rdd:RDD[String]):RDD[String] = {
    val q = query
    rdd.filter(x => x.contains(q))
  }
}


hadoop
hive
为什么 val q = query中间变量传递以下就没有出错了呢?
原因:x => x.contains(q)在Excutor端执行,q在算子filter之外声明的,也就是在Driver端声明的,将q传往Excutor端,为啥不要序列化呢?因为q是一个String类型,能够序列化。

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AM...
    大佛爱读书阅读 2,857评论 0 20
  • Part 1 1. Spark计算模型 1.1 Spark程序模型 首先通过一个简单的实例了解Spark的程序模型...
    ZyZhu阅读 2,334评论 0 1
  • JAVA序列化机制的深入研究 对象序列化的最主要的用处就是在传递,和保存对象(object)的时候,保证对象的完整...
    时待吾阅读 10,931评论 0 24
  • Zookeeper用于集群主备切换。 YARN让集群具备更好的扩展性。 Spark没有存储能力。 Spark的Ma...
    Yobhel阅读 7,357评论 0 34
  • D3资金占总资产比率 一、在已做好的D1财报里,在资产负债表里找出相关数据计算如下: 永辉超市(601933): ...
    总在成长阅读 315评论 0 0