pyspark中类似于pandas的按列分组并应用函数的方法是什么?

4

我有一个Spark DataFrame,我想在groupby之后计算变量的唯一值数量。

在pandas中,我可以这样获取:df.groupby('UserName').apply(lambda x: x['Server'].nunique())

df是一个PySpark DataFrame时,我该如何获得相同的结果?

2个回答

3
您可以使用aggcountDistinct进行操作:
df.groupBy('UserName').agg(countDistinct('Server').alias('Server'))

2

因此,您可以使用@pandas_udf在Pyspark中实现类似于pandas.groupby().apply的相同逻辑,这是一种矢量化方法,比简单的UDF更快。

from pyspark.sql.functions import pandas_udf,PandasUDFType

df3 = spark.createDataFrame(
[("a", 1, 0), ("a", -1, 42), ("b", 3, -1), ("b", 10, -2)],
("key", "value1", "value2")
)

from pyspark.sql.types import *

schema = StructType([
    StructField("key", StringType()),
    StructField("avg_value1", DoubleType()),
    StructField("avg_value2", DoubleType()),
    StructField("sum_avg", DoubleType()),
    StructField("sub_avg", DoubleType())
])

@pandas_udf(schema, functionType=PandasUDFType.GROUPED_MAP)
def g(df):
    gr = df['key'].iloc[0]
    x = df.value1.mean()
    y = df.value2.mean()
    w = df.value1.mean() + df.value2.mean()
    z = df.value1.mean() - df.value2.mean()
    return pd.DataFrame([[gr]+[x]+[y]+[w]+[z]])

df3.groupby("key").apply(g).show()

您可以在def内部使用所有pandas直接函数。

您将获得以下结果:

+---+----------+----------+-------+-------+
|key|avg_value1|avg_value2|sum_avg|sub_avg|
+---+----------+----------+-------+-------+
|  b|       6.5|      -1.5|    5.0|    8.0|
|  a|       0.0|      21.0|   21.0|  -21.0|
+---+----------+----------+-------+-------+

因此,您可以在分组数据中对其他字段进行更多计算,并以列表格式将它们添加到数据框中。


网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接