spark 动态UDF加载实现(1)

本文参考了这篇文章实现,但是这篇文章使用过程中,local模式是没问题的,但是发生了cluster模式序列化问题,询问了作者也没给回复,所以这里给出了解决方案

https://www.jianshu.com/p/56ff9549d19a

我试了好几个网站,发布都有问题,这里我把文章拆成三个部分,解决发布问题,如果有人真心想解决这个问题,请耐心的看完三个文章

背景

  在推荐算法业务中,需要使用SparkSql,对存储在hive的离线数据进行处理,制作用户特征,然后入库到redis,我们做了一套离线特征入库的sql化的系统,可以将用户需要入库的特征,通过sql提取出来,选取对应的入库特征类型、引擎即可入库特征,实现自动化入库离线特征的效果

  但是业务往往需要一些个性化的数据处理,平台不能全部注册好用户需要的方法,所以我们做了一套udf、jar管理系统,用户启动任务后,动态的去加载用户jar来实现自定义UDF的逻辑,下面是具体做法

具体思路

  通过调研之后,我决定使用spark的函数注册接口  spark.udf.register,分别构造函数名称、UDF1(这里目前只需要输入参数为一种的业务,所以不用去实现UDF2....等)、返回类型  returnType

  具体方法参数 (name:String,f:UDF1[_,_],returnType:DataType),你可以自行查看

  找到注册函数,一切都好办了,我只需要动态的加载用户的jar里面的udf,通过反射去构造UDF1即可实现函数注册,**这里需要注意的是UDF1实现的时候必须实现序列化,否则就会报序列化错误**

其中加载jar、识别输入、输出、方法体、构造UDF1使用如下代码

val url=newURL("file:xxx")
valurls=Array(url)
var myClassLoader:URLClassLoader=newURLClassLoader(urls,scala.reflect.runtime.universe.getClass.getClassLoader)
varIType=method.getParameterTypes.map(JavaTypeInference.inferDataType).map(_._1).head
valiputType=method.getParameterTypes.head.getName
varRtype=JavaTypeInference.inferDataType(method.getReturnType)._1
val zz = myClassLoader.loadClass(className)
case class TempUDF() extends UDF1[Object,Any] with Serializable{
        override def call(v1: Object): Any = {
          val m1 = zz.getDeclaredMethods.filter(_.getName.equals(methodName)).head
          m1.invoke(zz.newInstance(), v1)
        }
      }

下面是具体实现


import java.net.{URL, URLClassLoader}

import org.apache.spark.sql.types._

import org.apache.spark.sql.catalyst.{JavaTypeInference, ScalaReflection}

import org.slf4j.{Logger, LoggerFactory}

import scala.collection.JavaConverters._

import scala.collection.JavaConversions._

import scala.collection.mutable

import java.lang.reflect.{Method, ParameterizedType}

import org.apache.spark.sql.api.java.UDF1

/**

  * @author liangwt

  * @create 2020/11/16

  * @since 1.0.0

  * @Description :

  */

case class ClassInfo(clazz: Class[_], instance: Any, function: UDF1[Object,Any]) extends Serializable

object ScalaGenerateFunctions {

  val logger: Logger = LoggerFactory.getLogger(getClass)

  private var myClassLoader: URLClassLoader = null

  def apply(urls: Array[URL]): Unit = {

    //scala.reflect.runtime.universe.getClass.getClassLoader

    //Thread.currentThread().getContextClassLoader()

    myClassLoader = new URLClassLoader(urls, scala.reflect.runtime.universe.getClass.getClassLoader)

  }

  @transient private lazy val classMap = new mutable.HashMap[(String,String,String), ClassInfo]()

  def genetateFunction(methodName: String, className: String,jarName:String) = {

    if (!classMap.contains((className,methodName,jarName))) {

      val zz = myClassLoader.loadClass(className)

      case class TempUDF() extends UDF1[Object,Any] with Serializable{

        override def call(v1: Object): Any = {

          val m1 = zz.getDeclaredMethods.filter(_.getName.equals(methodName)).head

          m1.invoke(zz.newInstance(), v1)

        }

      }

      logger.info("*************************************************************************")

      logger.info(s"动态编译$jarName $className $methodName 成功")

      logger.info("*************************************************************************")

      classMap.put((className,methodName,jarName), ClassInfo(zz, zz.newInstance(), new TempUDF()))

    }

    val (iType, rType) = getDataType(methodName, className,jarName)

    (classMap((className,methodName,jarName)).function, iType, rType)

  }

private def getDataType(methodName: String, className: String,jarName:String) = {

    val method = classMap((className,methodName,jarName)).clazz.getMethods.filter(_.getName.equals(methodName)).head

    var IType = method.getParameterTypes.map(JavaTypeInference.inferDataType).map(_._1).head

    val iputType= method.getParameterTypes.head.getName

    IType=iputType match {

      //todo

      //这里有点问题,获取不到注册函数中,Seq中的类型,后续有方法可以识别的话,可替换,目前只支持基本类型的转换

      case "scala.collection.Seq"=>{

        val inputGenericType=method.getGenericParameterTypes.head

        val contentType=inputGenericType.asInstanceOf[ParameterizedType].getActualTypeArguments.head.getTypeName

        ArrayType(TypeUtil(contentType))

      }

      case "scala.collection.Map" | "scala.collection.immutable.Map" | "scala.collection.mutable.Map"  |"scala.Map" | "java.util.Map"=>

        {

          val inputGenericType=method.getGenericParameterTypes.head.getTypeName

          val keyType = inputGenericType.substring(inputGenericType.indexOf("<"))

          val valueType = inputGenericType.substring(inputGenericType.indexOf(","))

          MapType(TypeUtil(keyType), TypeUtil(valueType))

        }

      case _=>IType

    }

var Rtype = JavaTypeInference.inferDataType(method.getReturnType)._1

    Rtype = method.getReturnType.getName match {

      //spark不支支持java Map,这里支持

      case "scala.collection.Map" | "scala.collection.immutable.Map" | "scala.collection.mutable.Map"  |"scala.Map" | "java.util.Map" => {

        val rGenericType = method.getGenericReturnType.getTypeName

        val keyType = rGenericType.substring(rGenericType.indexOf("<"))

        val valueType = rGenericType.substring(rGenericType.indexOf(","))

        MapType(TypeUtil(keyType), TypeUtil(valueType))

      }

      case "scala.collection.Seq" |"scala.Seq"=>{

        val rGenericType = method.getGenericReturnType.getTypeName

        ArrayType(TypeUtil(rGenericType.substring(rGenericType.indexOf("<")+1,rGenericType.indexOf(">"))))

      }

      case _=>Rtype

      //todo

      //后面还有seq,参考 ScalaReflection 支持的类型进行支持,因为在 JavaTypeInference 中无法通过

      //private val mapType = TypeToken.of(classOf[JMap[_, _]]) 来构造DataType,这里还需要再细致得到看下代码,有优化空间

    }

    (IType, Rtype)

  }

  private def TypeUtil(str: String): DataType = {

    str match {

      case f if (f.contains("String")) => StringType

      case f if (f.contains("Double")) => DoubleType

      case f if (f.contains("Float")) => FloatType

      case f if (f.contains("Integer") || f.contains("Int")) => IntegerType

      case f if (f.contains("Char")) => FloatType

      case f if (f.contains("Boolean")) => BooleanType

      case f if (f.contains("Long")) => LongType

      case f if (f.contains("Float")) => FloatType

      case f if (f.contains("Float")) => FloatType

      case f if (f.contains("Object")) => StringType

      case _ => throw new Exception(s"unSupport Type $str")

    }

  }

}
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 218,451评论 6 506
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,172评论 3 394
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,782评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,709评论 1 294
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,733评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,578评论 1 305
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,320评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,241评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,686评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,878评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,992评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,715评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,336评论 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,912评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,040评论 1 270
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,173评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,947评论 2 355

推荐阅读更多精彩内容

  • > 昨天有位大哥问小弟一个Spark问题,他们想在不停Spark程序的情况下动态更新UDF的逻辑,他一问我这个问题...
    kikiki5阅读 93评论 0 3
  • > 昨天有位大哥问小弟一个Spark问题,他们想在不停Spark程序的情况下动态更新UDF的逻辑,他一问我这个问题...
    kikiki5阅读 107评论 0 2
  • > 昨天有位大哥问小弟一个Spark问题,他们想在不停Spark程序的情况下动态更新UDF的逻辑,他一问我这个问题...
    kikiki4阅读 421评论 0 1
  • > 昨天有位大哥问小弟一个Spark问题,他们想在不停Spark程序的情况下动态更新UDF的逻辑,他一问我这个问题...
    kikiki5阅读 135评论 0 3
  • 本文整理自来自阿里巴巴的沐远的分享,由大数据技术与架构进行整理和分享。 场景需求和挑战 面临的场景 金融风控 用户...
    王知无阅读 293评论 0 9