栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 面试经验 > 面试问答

从SPARK中的另一个RDD返回最大N个值的RDD

面试问答 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

从SPARK中的另一个RDD返回最大N个值的RDD

RDD

一个快速但不是特别有效的解决方案是跟随

sortByKey
使用
zipWithIndex
filter

n = 3rdd = sc.parallelize([(4, 'a'), (12, 'e'), (2, 'u'), (49, 'y'), (6, 'p')])rdd.sortByKey().zipWithIndex().filter(lambda xi: xi[1] < n).keys()

如果n与RDD大小相比相对较小,则更有效的方法是避免完全排序:

import heapqdef key(kv):    return kv[0]top_per_partition = rdd.mapPartitions(lambda iter: heapq.nlargest(n, iter, key))top_per_partition.sortByKey().zipWithIndex().filter(lambda xi: xi[1] < n).keys()

如果键远小于值,并且最终输出的顺序无关紧要,则

filter
方法可以正常工作:

keys = rdd.keys()identity = lambda x: xoffset = (keys    .mapPartitions(lambda iter: heapq.nlargest(n, iter))    .sortBy(identity)    .zipWithIndex()    .filter(lambda xi: xi[1] < n)    .keys()    .max())rdd.filter(lambda kv: kv[0] <= offset)

同样,如果出现平局,它将不会保留确切的n值。

Dataframes

您可以

orderBy
limit

from pyspark.sql.functions import colrdd.toDF().orderBy(col("_1").desc()).limit(n)


转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/659799.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号