1、org.apache.hadoop.security.AccessControlException: Permission denied: user=root, access=EXECUTE
spark 建表或者使用hive的jdbc driver的时候出现问题:
解决:
关闭Hdfs的安全检查(permission checking):将hdfs-xml中 dfs.permissions 属性的值设置为 false 。但是这种方法的弊端是会导致Hdfs系统中所有的安全特性都被禁用,使Hdfs的安全性降低。在hdfs 的config中搜索就行了
2、failed strict managed table checks due to the following reason: Table is marked as a managed table but is not transactional.
参考: ambari 集群 遇到的一些问题



