栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 面试经验 > 面试问答

使用PySpark将JSON文件读取为Pyspark Dataframe吗?

面试问答 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

使用PySpark将JSON文件读取为Pyspark Dataframe吗?

Json字符串变量

如果您将 json字符串作为变量, 则可以

simple_json = '{"results":[{"a":1,"b":2,"c":"name"},{"a":2,"b":5,"c":"foo"}]}'rddjson = sc.parallelize([simple_json])df = sqlContext.read.json(rddjson)from pyspark.sql import functions as Fdf.select(F.explode(df.results).alias('results')).select('results.*').show(truncate=False)

这会给你

+---+---+----+|a  |b  |c   |+---+---+----+|1  |2  |name||2  |5  |foo |+---+---+----+

Json字符串作为文件中的单独行(sparkContext和sqlContext)

如果 文件中json字符串作为单独的行, 则可以 使用sparkContext将其读入rdd [string]
,如上所述,其余过程与上述相同

rddjson = sc.textFile('/home/anahcolus/IdeaProjects/pythonSpark/test.csv')df = sqlContext.read.json(rddjson)df.select(F.explode(df['results']).alias('results')).select('results.*').show(truncate=False)

Json字符串作为文件中的单独行(仅适用于sqlContext)

如果您 在文件中将JSON字符串作为单独的行, 则只能使用

sqlContext
。但是这个过程是复杂的 ,你必须创建模式 为它

df = sqlContext.read.text('path to the file')from pyspark.sql import functions as Ffrom pyspark.sql import types as Tdf = df.select(F.from_json(df.value, T.StructType([T.StructField('results', T.ArrayType(T.StructType([T.StructField('a', T.IntegerType()), T.StructField('b', T.IntegerType()), T.StructField('c', T.StringType())])))])).alias('results'))df.select(F.explode(df['results.results']).alias('results')).select('results.*').show(truncate=False)

这应该给你与上述结果相同

我希望答案是有帮助的



转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/375809.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号