PySpark 常用语句

from pyspark.sql import functions as F

from pyspark.sql.functions import lower, col # 小写

from pyspark.sql.functions import upper, col  # 大写

from pyspark.sql.functions import lit # 增加列

from pyspark.sql.functions import when # ifelse

from pyspark.sql.functions import split, explode, concat, concat_ws  # split(列数据的分割), explode(一行分成多行) concat,concat_ws(列数据合并)

from pyspark.sql.types import StringType # 导入数据类型

from pyspark.sql.functions import UserDefinedFunction # 定义函数

from pyspark.sql.functions import desc #降序排列

from pyspark.sql.functions import trim # 去空格

a.createOrReplaceTempView("a")

a = spark.sql("select * from a").cache() # 生成pyspark的dataframe

a.show(10) # 查看数据head

df = df.dropDuplicates()   /  df.select('A_field').distinct().count()  # 去重

a.count()  # 行数

a.columns # 查看列名

a.dtypes # 查看字段类型

a.printSchema()  # 查看数据结构

a.withColumnRenamed("CUST_ID",'ShipToNumber').withColumnRenamed("SKU",'SKUNumber')  # 修改列名

a.select('col').describe().show()  # 选择某列summariy

b1 = b.drop("col").show()  # 删除某列

a.filter(a.col== 504943)  # 筛选满足条件的行数

a.filter(col.UPDT_DT >= '2020-01-05') \

.filter(col.INSTIT_NM == 'Unknown').show()  # 多条件筛选(and 必须换行)

a1= a.filter(lower(a.current_pagename).like('products:%') # 筛选以a开头的记录

方法一:# 时间戳转换成日期格式

a= a.withColumn('UPDT_DT',F.to_date(a.UPDT_DT))

a= a.withColumn('CRT_DT',F.to_date(a.CRT_DT))

方法二:# 时间戳转换成日期格式

a.select('UPDT_DT').withColumn("UPDT_DT_1",col("UPDT_DT").cast("date"))                                

from pyspark.sql.functions import lower, col # 字段转换成小写

WEB_USER = spark.table('WEB_USER').withColumn('CONTACT_ID_1', lower(col('WEB_USER.CONTACT_ID')))  # 小写去空格

a.withColumn("USER_NM", upper(trim(col("USER_NM")))).show()  # 操作在dataframe上  

  # 去除开头和结尾的空格

def single_space(col):

    return F.trim(F.regexp_replace(col, " +", " "))

  # 去除中间的空格

def remove_all_whitespace(col):

    return F.regexp_replace(col, "\\s+", "")

spark.table('a').withColumn('a1', lower(remove_all_whitespace(single_space(col("USER_NM"))))).show()  # 操作Table上

from pyspark.sql.types import StringType

from pyspark.sql.functions import UserDefinedFunction

to_none = UserDefinedFunction(lambda x: None, StringType())

a1= a.withColumn('new_column', to_none(a['login'])

a.sort('CONTACT_ID_1','USER_NM_1',ascending = False).show() #降序排列  默认为升序 (同升同降)

a.sort(WEB_USER_3.CONTACT_ID_1.desc(),WEB_USER_3.USER_NM_1.asc()).show() # 自定义升降

a.groupBy('CONTACT_ID_1').agg(f.count('CONTACT_ID_1').alias('count')).sort(desc('count')).show() #分组

a.groupBy("login").count().sort(desc("count")).show()                                                                   

df.groupBy('level').agg(sf.concat_ws(',', sf.collect_list(df.name))).show()

from pyspark.sql.functions import when # ifelse

df = df.withColumn("profile", when(df.age >= 40,"Senior") .otherwise("Executive")) # ifelse

frame3_1 = WEB_USER_3.withColumn("name_length", f.length(WEB_USER_3.USER_NM_1)) # 新生成一列 (查看每个字段的字符长度)

ST_SKU_1.withColumn('Input',F.lit('Viewed')).show()                                                                   

from pyspark.sql.functions import lit

new_df = df1.withColumn('newCol', lit(0)).show() # 新列为0

new_df = fy_cx_sessions_2.withColumn('new_column_1', lit(None).cast(StringType()))  #新列为NULL

df = df1.join(df2, ta.name == tb.name, how='inner'/'outer'/'left'/'right')  # 表连接

df.show()

from pyspark.sql.functions import split, explode, concat, concat_ws # 列数据的分割

df_split = df.withColumn("s", split(df['score'], " ")) #切分字段score,生成为s

df_split.show()                           

ST_SKU_2.withColumn('STSKU',concat(ST_SKU_2['ShipToNumber'],ST_SKU_2['SKUNumber'])) #列数据合并 (没有分隔符) 

a.withColumn('STSKU',concat_ws("",a['ShipToNumber'],a['SKUNumber'])) #列数据合并 (指定分隔符)                                                                   

from pyspark.sql.functions import split, explode, concat, concat_ws # 把数据拉竖(melt)

a1= a.withColumn("SKU", explode(split(a['prod_list'], ","))) # 把数据拉竖(R:melt)


from pyspark.sql.functions import pandas_udf,pandasUDFType

@pandas_udf("user string,PL string,Order_Number integer",pandasUDFType.GROUPED_MAP)

def data_partiotion(df):

  V=df.select('Order_Number')

  return spark.createDataFrame()

df.withColumn("datetime", col("datetime").cast("timestamp"))

    .groupBy("userId", "memberId")

    .agg(max_("datetime"))                                                                   

#注意事项

1 filter (命名)                                                                   

test = a.groupBy('USER_NM').agg(F.count('USER_NM').alias('count')).sort(desc('count'))

test.filter(test.count > 1).show()  会报错:'>' not supported between instances of 'method' and 'int'

修改成:test.filter(test['count'] > 1).show()

报错原因:'count'为默认方法,名字冲突                                                                 

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,319评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,801评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,567评论 0 319
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,156评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,019评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,090评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,500评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,192评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,474评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,566评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,338评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,212评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,572评论 3 298
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,890评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,169评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,478评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,661评论 2 335

推荐阅读更多精彩内容