对我来说,它可以使用:
spark.conf.set("spark.sql.session.timeZone", "UTC")它告诉spark SQL将UTC用作时间戳的默认时区。例如,我在spark SQL中使用了它:
select *, cast('2017-01-01 10:10:10' as timestamp) from sometable我知道它在2.0.1中不起作用。但适用于Spark 2.2。我
SQLTransformer也用了,它起作用了。
我不确定流。

对我来说,它可以使用:
spark.conf.set("spark.sql.session.timeZone", "UTC")它告诉spark SQL将UTC用作时间戳的默认时区。例如,我在spark SQL中使用了它:
select *, cast('2017-01-01 10:10:10' as timestamp) from sometable我知道它在2.0.1中不起作用。但适用于Spark 2.2。我
SQLTransformer也用了,它起作用了。
我不确定流。