栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

Spark3.1.2高可用部署

Spark3.1.2高可用部署

Spark3.1.2高可用部署文档
解压、改名
tar -zxvf spark-3.1.2-bin-hadoop2.7.tgz -C /opt/
cd /opt/
mv spark-3.1.2-bin-hadoop2.7/ spark
cd spark/conf
添加Hadoop配置文件的软链接
ln -s /opt/hadoop/etc/hadoop/core-site.xml
ln -s /opt/hadoop/etc/hadoop/hdfs-site.xml
添加hive-site.xml配置文件
touch hive-site.xml
vim hive-site.xml
hive-site.xml




	javax.jdo.option.ConnectionURL
	jdbc:mysql://server3:3306/hive_db?createDatabaseIfNotExist=true&useSSL=false
	JDBC connect string for a JDBC metastore


	javax.jdo.option.ConnectionDriverName
	com.mysql.jdbc.Driver
	Driver class name for a JDBC metastore


	javax.jdo.option.ConnectionUserName
	root
	username to use against metastore database


	javax.jdo.option.ConnectionPassword
	123456
	password to use against metastore database


	datanucleus.schema.autoCreateTables
	true


启动Hive初始化元数据仓库(需要安装Hive2.3.x)

注:spark初始化元数据仓库不太聪明,自己去hive安装目录手动初始化吧。

初始化命令
schematool -dbType mysql -initSchema
编辑spark-env.sh

添加如下配置

export HADOOP_CONF_DIR=/opt/hadoop/etc/hadoop
export JAVA_HOME=/opt/jdk
export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER
-Dspark.deploy.zookeeper.url=server1:2181,server2:2181,server3:2181
-Dspark.deploy.zookeeper.dir=/spark"
编辑workers

这里我已经配置了ip映射

节点IP映射名
节点1server1
节点2server2
节点3server3

workers内容

server1
server2
启动Spark 在节点3输入
sbin/start-all.sh
在节点2输入
sbin/start-master.sh
测试检查

浏览器输入服务器Master节点IP,8080端口,查看Spark的WebUI如下

这里浏览器也做了IP映射

server2:8080
测试与Hive的集成 启动Spark sql之前别忘记打开hive的元数据服务,不知道怎么打开,启动hive也行
bin/spark-sql 
--master spark://server3:7077 
--driver-class-path /opt/mysql-connector-java-5.1.49/mysql-connector-java-5.1.49-bin.jar
show databases;
show tables;
启动元数据服务的命令如下
hive --service metastore

注:启动之后别退出,另开一会话窗口就行了

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/286042.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号