正如您发布的链接中所述,我遇到了完全相同的问题,并经历了许多可能的解决方案,但当时没有任何效果。通过运行spark-shell命令,它将在C:中创建tmp
hive目录,并最终发现权限存在问题。我确保我的HADOOP_HOME设置正确并且包含 bin winutils.exe,然后将tmp
hive移至%HADOOP_HOME% bin下并重新启动命令提示符。这终于解决了问题,但请记住要以管理员身份运行cmd。希望这会有所帮助,我。

正如您发布的链接中所述,我遇到了完全相同的问题,并经历了许多可能的解决方案,但当时没有任何效果。通过运行spark-shell命令,它将在C:中创建tmp
hive目录,并最终发现权限存在问题。我确保我的HADOOP_HOME设置正确并且包含 bin winutils.exe,然后将tmp
hive移至%HADOOP_HOME% bin下并重新启动命令提示符。这终于解决了问题,但请记住要以管理员身份运行cmd。希望这会有所帮助,我。