上传flink安装包到指定目录本次安装是基于CDH环境下安装
flink相关jar包下载:flink1.11.1版本下载
hadoop连接jar包:连接包下载直达通道
如果嫌麻烦,百度网盘直达车:
链接: flink相关jar包
提取码:1234
使用Xftp上传到指定位置
解压jar包tar -zxvf flink-1.11.1-bin-scala_2.11.tgz修改配置文件
cd flink-1.11.1/conf/ vim flink-conf.yaml修改如下配置
以防默认8081端口号被占用修改默认端口号
vim masters
实现高可用配置两台主节点
vim workers下载hadoop连接jar包
cd flink-1.11.1/bin/ wget https://repo.maven.apache.org/maven2/org/apache/flink/flink-shaded-hadoop-2-uber/2.6.5-10.0/flink-shaded-hadoop-2-uber-2.6.5-10.0.jar
如果不想下载最上面有链接地址
分发配置完成flink包scp -r flink-1.11.1/ srv192:`pwd` scp -r flink-1.11.1/ srv193:`pwd`hdfs创建存储的目录文件夹
sudo -u hdfs hadoop fs -chown root / hadoop fs -mkdir -p /flink/ha hadoop fs -ls / hadoop fs -ls /flink启动flink
bin/start-cluster.shjps查看是否启动成功 查看WEBUI页面
http://10.1.50.191:8082
自此搭建配置完成,自行测试HA,如有疑问请在下方留言,或者私信都可以



