import numpy as np
data = [
(1, 1, None),
(1, 2, float(5)),
(1, 3, np.nan),
(1, 4, None),
(1, 5, float(10)),
(1, 6, float("nan")),
(1, 6, float("nan")),
]
df = spark.createDataFrame(data, ("session", "timestamp1", "id2"))
期望输出
每列nan/null计数的数据框
注意:我在Stack Overflow上发现的之前的问题只检查null而不是nan,这就是为什么我创建了一个新的问题。
我知道我可以使用Spark中的isnull()
函数来查找Spark列中Null值的数量,但如何在Spark数据框中找到Nan值呢?
scala
的解决方案? - DachuanZhao