spark dataframe操作大全

取某一列的分位数

#Python:
df.approxQuantile("x", [0.5], 0.25)
#Scala:
df.stat.approxQuantile("x", Array(0.5), 0.25)
#第一个参数是列名,第二个参数为分位数,第三个参数为精度, 0表示完全没有误差

取出a_df中有,b_df中没有的行

a_df.except(b_df)

spark json array string

//假设string长成下面这样子
        import spark.implicits._
        import org.apache.spark.sql.types._
        import org.apache.spark.sql.functions._
        val egDF = Seq("""[{"text": "哈哈哈哈哈", "no": "hehe"},{"text": "嘻嘻嘻嘻", "no": "2"}]""",
            """[{"text": "噢噢噢噢", "no": "1"},{"text": "嘎嘎嘎嘎", "no": "2"}]""").toDF("value")
        val schema = ArrayType(StructType(
            Seq(StructField("text", StringType),StructField("no", StringType))
        ))
        val jsonDF = egDF.withColumn("text_no_arr", from_json(col("value"), schema)).
            withColumn("text_no", explode(col("text_no_arr"))).select(col("text_no")("text"))

// example2
        val egDF = Seq("""{"text": "哈哈哈哈哈", "no": "hehe"}""",
            """{"text": "噢噢噢噢", "no": "1"}""").toDF("value")
        val schema = StructType(
            Seq(StructField("text", StringType),StructField("no", StringType))
        )
        val jsonDF = egDF.withColumn("text_no_arr", from_json(col("value"), schema)).
            select(col("text_no_arr")("text"))

spark sql在读取hive表数据结构的时候经常会遇到struct类型的列,这种情况下对于后续数据处理是非常不方便的,下面给出一个将struct类型转为spark里面自定义的class类型的例子

//struct类型的字段处理成case class类型 
import spark.implicits._
case class Location(lat: Double, lon: Double)
val eg_df = Seq((10, Location(35, 25)), (20, Location(45, 35))).toDF
// 方法一
val eg_ds = eg_df.map { row =>
        (row: @unchecked) match {
            case Row(a: Int, Row(b: Double, c: Double)) => (a, Location(b, c))
        }
  }
// 方法二
val eg_ds2 = eg_df.map(row => {
        (row.getInt(0), Location(row.getStruct(1).getDouble(0), row.getStruct(1).getDouble(1)))
    })

spark添加一列自增的id,使用rdd中的zipWithIndex方法


image.png
  // 在原Schema信息的基础上添加一列 “id”信息
    val schema: StructType = dataframe.schema.add(StructField("id", LongType))
    // DataFrame转RDD 然后调用 zipWithIndex
    val dfRDD: RDD[(Row, Long)] = dataframe.rdd.zipWithIndex()
    val rowRDD: RDD[Row] = dfRDD.map(tp => Row.merge(tp._1, Row(tp._2)))
    // 将添加了索引的RDD 转化为DataFrame
    val df2 = spark.createDataFrame(rowRDD, schema)
    df2.show()

scala class和json string相互转换

case class DeviceSeqObj(device_id: String,
                            text_id_click_seq: String,
                            text_tag_click_seq: String
                           )

val pushClickSeqFeatureDF = pushClickSeqFeature(jobConfig, spark).as[DeviceSeqObj].
            map(row => {
                val device_id = row.device_id
                val gson = new Gson
                val device_push_seq_feature = gson.toJson(row, classOf[DeviceSeqObj])

                (device_id, device_push_seq_feature)
            }).toDF("device_id", "feature")

val df = pushClickSeqFeatureDF.map(row => {
            val feature = row.getString(row.fieldIndex("feature"))
            val gson = new Gson
            val device_push_seq_feature = gson.fromJson(feature, classOf[DeviceSeqObj])

            device_push_seq_feature
        })

spark dag图计算优化可能会改变执行顺序

val opPushDF = deviceInfo.join(broadcast(opTextDS), "explore"). 
withColumn("isSelected", isSelectedUDF(col("flow_ratio"))).
where(col("isSelected") === 1)
由于udf依赖的列只在opTextDS中出现,因此代码执行过程中会先在opTextDS中选出一部分行,然后和deviceInfo进行join
而事实上,我们期望的执行的效果是对于device+text的pair对进行随机选择。
这个种情况下可以冗余一个deviceInfo中的字段,确保udf在join之后生效
    val opPushDF = deviceInfo.join(broadcast(opTextDS), "explore").
      withColumn("isSelected", isSelectedUDF(col("device_id"),col("flow_ratio"))).
      where(col("isSelected") === 1)
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,816评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,729评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 158,300评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,780评论 1 285
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,890评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,084评论 1 291
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,151评论 3 410
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,912评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,355评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,666评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,809评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,504评论 4 334
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,150评论 3 317
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,882评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,121评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,628评论 2 362
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,724评论 2 351

推荐阅读更多精彩内容