初次尝试在etc/profile 中添加
export HADOOP_CLASSPATH=hadoop classpath
并source,发现没有起效
再次尝试在flink/bin/start-cluster.sh中添加
export HADOOP_CLASSPATH=hadoop classpath
即生效
运行flink run时也存在相同问题
衍生:配置此环境变量后,不用在lib中添加hadoop,hive等相关jar包,自动获取当前环境依赖

初次尝试在etc/profile 中添加
export HADOOP_CLASSPATH=hadoop classpath
并source,发现没有起效
再次尝试在flink/bin/start-cluster.sh中添加
export HADOOP_CLASSPATH=hadoop classpath
即生效
运行flink run时也存在相同问题
衍生:配置此环境变量后,不用在lib中添加hadoop,hive等相关jar包,自动获取当前环境依赖