正在进行的工作
SPARK-30569 - 添加调用percentile_approx的DSL函数
Spark 2.0+:
您可以使用实现了Greenwald-Khanna算法的approxQuantile
方法:
Python:
df.approxQuantile("x", [0.5], 0.25)
Scala:
df.stat.approxQuantile("x", Array(0.5), 0.25)
最后一个参数是相对误差。数字越低,结果越准确,计算成本越高。
自Spark 2.2(SPARK-14352)开始,它支持在多个列上进行估算:
df.approxQuantile(["x", "y", "z"], [0.5], 0.25)
df.approxQuantile(Array("x", "y", "z"), Array(0.5), 0.25)
使用approx_percentile
函数,底层方法也可以用于SQL聚合(全局和分组):
> SELECT approx_percentile(10.0, array(0.5, 0.4, 0.1), 100);
[10.0,10.0,10.0]
> SELECT approx_percentile(10.0, 0.5, 100);
10.0
Spark < 2.0
Python
正如我在评论中提到的,如果数据相对较小,像在您的情况下,那么简单地本地收集和计算中位数可能不值得大费周折:
import numpy as np
np.random.seed(323)
rdd = sc.parallelize(np.random.randint(1000000, size=700000))
%time np.median(rdd.collect())
np.array(rdd.collect()).nbytes
在我的几年旧的计算机上,大约需要0.01秒和约5.5MB的内存。
如果数据规模更大,则排序将成为限制因素,因此除了获得精确值之外,最好是对其进行取样、收集和本地计算。但如果您真的想使用Spark,可以尝试类似以下代码(如果我没有弄错的话):
from numpy import floor
import time
def quantile(rdd, p, sample=None, seed=None):
"""Compute a quantile of order p ∈ [0, 1]
:rdd a numeric rdd
:p quantile(between 0 and 1)
:sample fraction of and rdd to use. If not provided we use a whole dataset
:seed random number generator seed to be used with sample
"""
assert 0 <= p <= 1
assert sample is None or 0 < sample <= 1
seed = seed if seed is not None else time.time()
rdd = rdd if sample is None else rdd.sample(False, sample, seed)
rddSortedWithIndex = (rdd.
sortBy(lambda x: x).
zipWithIndex().
map(lambda (x, i): (i, x)).
cache())
n = rddSortedWithIndex.count()
h = (n - 1) * p
rddX, rddXPlusOne = (
rddSortedWithIndex.lookup(x)[0]
for x in int(floor(h)) + np.array([0L, 1L]))
return rddX + (h - floor(h)) * (rddXPlusOne - rddX)
还有一些测试:
np.median(rdd.collect()), quantile(rdd, 0.5)
np.percentile(rdd.collect(), 25), quantile(rdd, 0.25)
np.percentile(rdd.collect(), 75), quantile(rdd, 0.75)
(750069.25, 750069.25)
最后,让我们定义中位数:
from functools import partial
median = partial(quantile, p=0.5)
目前为止还不错,但在本地模式下没有任何网络通信需要花费4.66秒。可能有改进的方法,但为什么要费心呢?
语言无关(Hive UDAF):
如果您使用的是HiveContext
,则可以使用Hive UDAF。对于整数值:
rdd.map(lambda x: (float(x), )).toDF(["x"]).registerTempTable("df")
sqlContext.sql("SELECT percentile_approx(x, 0.5) FROM df")
使用连续的数值:
sqlContext.sql("SELECT percentile(x, 0.5) FROM df")
在 percentile_approx
函数中,您可以传递一个额外的参数以确定要使用的记录数量。
np.median
可以在本地计算中位数并在几分之一秒内完成。当然,您可以按照您所描述的进行排序和索引,但我猜它会慢大约一个数量级。 - zero323