栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 面试经验 > 面试问答

如何在PySpark中使用窗口功能?

面试问答 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

如何在PySpark中使用窗口功能?

要使用窗口功能,您必须先创建一个窗口。定义与普通SQL几乎相同,这意味着您可以定义顺序,分区或同时定义两者。首先让我们创建一些虚拟数据:

import numpy as npnp.random.seed(1)keys = ["foo"] * 10 + ["bar"] * 10values = np.hstack([np.random.normal(0, 1, 10), np.random.normal(10, 1, 100)])df = sqlContext.createDataframe([   {"k": k, "v": round(float(v), 3)} for k, v in zip(keys, values)])

确保您正在使用

HiveContext
(仅限Spark <2.0):

from pyspark.sql import HiveContextassert isinstance(sqlContext, HiveContext)

创建一个窗口:

from pyspark.sql.window import Windoww =  Window.partitionBy(df.k).orderBy(df.v)

相当于

(PARTITION BY k ORDER BY v)

在SQL中。

根据经验,窗口定义应始终包含

PARTITION BY
子句,否则Spark会将所有数据移至单个分区。
ORDERBY
某些功能是必需的,而在不同情况下(通常是聚合)可能是可选的。

还有两个可选选项,可用于定义窗口span-

ROWS BETWEEN
RANGE BETWEEN
。在这种特定情况下,这些对我们没有用。

最后,我们可以将其用于查询:

from pyspark.sql.functions import percentRank, ntiledf.select(    "k", "v",    percentRank().over(w).alias("percent_rank"),    ntile(3).over(w).alias("ntile3"))

注意,这

ntile
与分位数没有任何关系。



转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/660689.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号