当hive on spark 两个相同来源的子查询join时 一般会翻译出错,解决办法就是将其中一个子查询缓存到内存中 另外一个不缓存,或者升级hive版本,或者使用MR引擎。
比如
with t2 as(select distinct a as new_id from t1 where d <=100)
在去join 另外一个来自相同表的子查询
t2 right join
(select a,b,c… from t1 where t1.c=1 ) t3

当hive on spark 两个相同来源的子查询join时 一般会翻译出错,解决办法就是将其中一个子查询缓存到内存中 另外一个不缓存,或者升级hive版本,或者使用MR引擎。
比如
with t2 as(select distinct a as new_id from t1 where d <=100)
在去join 另外一个来自相同表的子查询
t2 right join
(select a,b,c… from t1 where t1.c=1 ) t3