flink sql中持久化hivecatalog 的依赖项
下载maven地址 以及官网地址依赖配置 https://nightlies.apache.org/flink/flink-docs-release-1.12/zh/dev/table/connectors/hive/
org.apache.flink flink-connector-hive_2.11 1.12.3 provided org.apache.flink flink-table-api-java-bridge_2.11 1.12.3 provided org.apache.hive hive-exec ${hive.version} provided
flink-sql-connector-hive
将以上依赖添加到你的项目中
代码如下
1: 如果报错HADOOP_HOME不存在,在HADOOP官网下载对应的HADOOP 到开发环境,配置HADOOP_HOME环境变量
2: HADOOP下载地址:https://archive.apache.org/dist/hadoop/common/
3: 如果报winutils.exe 不存在 在https://github.com/vhma/winutils下载对应的 winutils.exe 放到hadoop的bin目录下
以上设置完 运行完程序你就可以在hive的对应数据库看到你的表了



