- 第一个坑 :前提需要
- 第二个坑: 网上教程不详细说明
- 注意:HIVE_HOME是需要在系统环境中配置的。
mysql , hadoop均正常运行 且完成 hdfs的文件上传实验。
第二个坑: 网上教程不详细说明-
NoSuchMethod :这个问题三版本不兼容的缘故。那么目前hadoop官方最新也将3.x,hive官方支持的也是3.x,为何还不兼容。
https://blog.csdn.net/qq_44766883/article/details/108582781
由这个连接可以知道hive里面lib的驱动包没有更新或者说与hadoop不一直,修改即可。 -
Required table missing : “Version“ in Catalog ““ Schema ““:这个问题就是缺少初始化
cd 到hive目录的bin文件夹下 执行 schematool -dbType mysql -initSchema -
初始化出错失败 这种一般是配置问题引起。
首先看 hadoop下 etc/hadoop/hadoop-env.sh 有无配置
HIVE的conf到CLASSPATH
原支持
export HADOOP_CLASSPATH=$HADOOP_CLASSPATHexport HADOOP_CLASSPATH=$HIVE_HOME/conf:$HADOOP_CLASSPATH
注意:HIVE_HOME是需要在系统环境中配置的。另一种错误可能由配置引起
进入hive目录的conf中修改hive-site.xml进行修改参数:
**
配置 hive-site.xml:
类型 hive.metastore.db.type MYSQL 用户名 javax.jdo.option.ConnectionUserName root 密码 javax.jdo.option.ConnectionPassword root 路径URL localhost = 127.0.0.1 不存在时自动创建 javax.jdo.option.ConnectionURL jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true 驱动 javax.jdo.option.ConnectionDriverName com.mysql,cj.jdbc.Driver 版本检查 hive.metastore.schema.verification false
请不要直接复制 复制name 然后在 hive-site.xml 里面 ctrl + F 查找关键字修改 value 配置完成后 重启hadoop stop-all.sh start-all.sh 再启动hive。
此时发现出现了路径问题
搜索到这个帖子
https://blog.csdn.net/wangbaomi/article/details/108326482
完美解决。
以上问题解决后我的hive正常启动了(只有一些警告)。 如有其他问题欢迎小伙伴评论区评论,有遇到同样问题并解决的同学帮忙回答下。



