如何在Spark SQL中计算总数的百分比

5

考虑以下数据:

Name | Flag
A    | 0
A    | 1
A    | 0
B    | 0
B    | 1
B    | 1

我想把它转换为:
Name | Total | With Flag | Percentage
A    | 3     | 1         | 33%
B    | 3     | 2         | 66%

最好使用Spark SQL。

1个回答

6
例如像这样:

比如说:

val df = sc.parallelize(Seq(
  ("A", 0), ("A", 1), ("A", 0),
  ("B", 0), ("B", 1), ("B", 1)
)).toDF("Name", "Flag")

df.groupBy($"Name").agg(
  count("*").alias("total"),
  sum($"flag").alias("with_flag"),
  // Do you really want to truncate not for example round?
  mean($"flag").multiply(100).cast("integer").alias("percentage"))

// +----+-----+---------+----------+
// |name|total|with_flag|percentage|
// +----+-----+---------+----------+
// |   A|    3|        1|        33|
// |   B|    3|        2|        66|
// +----+-----+---------+----------+

或者:

df.registerTempTable("df")
sqlContext.sql("""
  SELECT name, COUNT(*) total, SUM(flag) with_flag, 
         CAST(AVG(flag) * 100 AS INT) percentage
  FROM df
  GROUP BY name""")

// +----+-----+---------+----------+
// |name|total|with_flag|percentage|
// +----+-----+---------+----------+
// |   A|    3|        1|        33|
// |   B|    3|        2|        66|
// +----+-----+---------+----------+

1
@LokeshKumarP df.groupBy($"Name").agg(avg(($"Flag" > 50).cast("int"))) - zero323
你能简单地解释一下上述声明的作用吗? - Lokesh Kumar P
@LokeshKumarP $ ("Flag" > 50)。cast("int") 创建一个 {0,1} 指标变量。其余部分就是平均水平。 - zero323

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接