栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 面试经验 > 面试问答

遇到缺少功能时,Apache Spark引发NullPointerException

面试问答 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

遇到缺少功能时,Apache Spark引发NullPointerException

看起来您正在使用的模块将空字符串转换为null,并且在某些时候将下游处理弄乱了。乍一看,它看起来像是PySpark错误。

如何解决?一个简单的解决方法是在索引之前删除空值:

features.na.drop()

或将空值替换为某些占位符:

from pyspark.sql.functions import col, whenfeatures.withColumn(    "x0", when(col("x0").isNull(), "__SOME_PLACEHOLDER__").otherwise(col("x0")))

另外,您可以使用

spark-csv
。它高效,经过测试,而且不能将空字符串转换为
nulls

features = (sqlContext.read    .format('com.databricks.spark.csv')    .option("inferSchema", "true")    .option("header", "true")    .load("tmp.csv"))


转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/652979.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号