栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 面试经验 > 面试问答

Python-如何使用Spark查找中位数和分位数

面试问答 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

Python-如何使用Spark查找中位数和分位数

正在进行的工作

SPARK-30569 - 添加DSL功能调用percentile_approx

Spark 2.0+:

你可以使用approxQuantile实现Greenwald-Khanna算法的方法:

Python:

df.approxQuantile("x", [0.5], 0.25)

Scala:

df.stat.approxQuantile("x", Array(0.5), 0.25)

最后一个参数是相对误差。数字越低,结果越准确,计算量也越多。

从Spark 2.2(SPARK-14352)开始,它支持对多个列的估算:

df.approxQuantile(["x", "y", "z"], [0.5], 0.25)

df.approxQuantile(Array("x", "y", "z"), Array(0.5), 0.25)

底层方法也可以用于使用

approx_percentile
功能的SQL聚合(全局和摸索)中:

> SELECt approx_percentile(10.0, array(0.5, 0.4, 0.1), 100); [10.0,10.0,10.0]> SELECT approx_percentile(10.0, 0.5, 100); 10.0

Spark < 2.0
Python

正如我在评论中提到的那样,很可能不值得大惊小怪。如果数据相对较小(如你的情况),则只需在本地收集和计算中位数即可:

import numpy as npnp.random.seed(323)rdd = sc.parallelize(np.random.randint(1000000, size=700000))%time np.median(rdd.collect())np.array(rdd.collect()).nbytes

在我使用了几年的旧计算机上,大约需要0.01秒的时间,大约需要5.5MB的内存。

如果数据大得多,排序将是一个限制因素,因此与其获取确切的值,不如直接在本地进行采样,收集和计算。但是,如果你真的想要使用Spark,可以使用以下方法解决问题(如果我没有弄乱任何东西):

from numpy import floorimport timedef quantile(rdd, p, sample=None, seed=None):    """Compute a quantile of order p ∈ [0, 1]    :rdd a numeric rdd    :p quantile(between 0 and 1)    :sample fraction of and rdd to use. If not provided we use a whole dataset    :seed random number generator seed to be used with sample    """    assert 0 <= p <= 1    assert sample is None or 0 < sample <= 1    seed = seed if seed is not None else time.time()    rdd = rdd if sample is None else rdd.sample(False, sample, seed)    rddSortedWithIndex = (rdd.        sortBy(lambda x: x).        zipWithIndex().        map(lambda (x, i): (i, x)).        cache())    n = rddSortedWithIndex.count()    h = (n - 1) * p    rddX, rddXPlusOne = (        rddSortedWithIndex.lookup(x)[0]        for x in int(floor(h)) + np.array([0L, 1L]))    return rddX + (h - floor(h)) * (rddXPlusOne - rddX)

和一些测试:

np.median(rdd.collect()), quantile(rdd, 0.5)## (500184.5, 500184.5)np.percentile(rdd.collect(), 25), quantile(rdd, 0.25)## (250506.75, 250506.75)np.percentile(rdd.collect(), 75), quantile(rdd, 0.75)(750069.25, 750069.25)

最后让我们定义中位数:

from functools import partialmedian = partial(quantile, p=0.5)

到目前为止还算不错,但是在本地模式下需要4.66 s,而没有任何网络通信。可能有改善的方法,但是为什么还要麻烦呢?

与语言无关(Hive UDAF):

如果使用

HiveContext
,也可以使用Hive UDAF。具有整数值:

rdd.map(lambda x: (float(x), )).toDF(["x"]).registerTempTable("df")sqlContext.sql("SELECt percentile_approx(x, 0.5) FROM df")

具有连续值:

sqlContext.sql("SELECt percentile(x, 0.5) FROM df")

在其中

percentile_approx
可以传递一个附加参数,该参数确定要使用的记录数。



转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/634995.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号