以下是Java中的示例代码。您需要使用
spark.read().text(String path)方法读取文件,然后调用
split函数。
import static org.apache.spark.sql.functions.split;public class SparkSample { public static void main(String[] args) { SparkSession spark = SparkSession .builder() .appName("SparkSample") .master("local[*]") .getOrCreate(); //Read file Dataset<Row> ds = spark.read().text("c://tmp//sample.csv").toDF("value"); ds.show(false); Dataset<Row> ds1 = ds.select(split(ds.col("value"), ",")).toDF("new_value"); ds1.show(false); ds1.printSchema(); }}


