软件环境虚拟机:VMware® Workstation 16 Pro
操作系统:Centos-7.6
虚机要求:2核cpu,2g内存,不然初始化master会警告部署规划
192.168.31.10 master
192.168.31.127 worker1
192.168.11.182 worker2
系统基础准备Kubernetes 版本: 1.19.2
docker 版本:19.03.0
使用kubeadm 进行安装
网络插件:选择网络插件:https://kubernetes.io/docs/concepts/cluster-administration/addons/
选择calico https://docs.projectcalico.org/v3.9/getting-started/kubernetes/
# (1)关闭防火墙 为了方便 (学习方便部署,生产慎重) systemctl stop firewalld && systemctl disable firewalld # (2)关闭selinux setenforce 0 sed -i 's/^SELINUX=enforcing$/SELINUX=permissive/' /etc/selinux/config # (3)关闭swap swapoff -a sed -i '/swap/s/^(.*)$/#1/g' /etc/fstab # (4)配置iptables的ACCEPT规则 iptables -F && iptables -X && iptables -F -t nat && iptables -X -t nat && iptables -P FORWARD ACCEPT # (5)将桥接的IPV4流量传递到iptables的链 cat <修改hostname 及 hosts文件/etc/sysctl.d/k8s.conf net.bridge.bridge-nf-call-ip6tables = 1 net.bridge.bridge-nf-call-iptables = 1 EOF sysctl --system
sudo hostnamectl set-hostname master/worker1/worker2 vi /etc/hosts 192.168.31.10 master 192.168.31.127 worker1 192.168.31.182 worker2安装docker 更新yum
yum -y update安装依赖
yum install -y conntrack ipvsadm ipset jq sysstat curl iptables libseccomp yum install -y yum-utils device-mapper-persistent-data lvm2设置docker仓库
sudo yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo设置阿里云镜像加速器
sudo mkdir -p /etc/docker
sudo tee /etc/docker/daemon.json <<-'EOF'
{
"registry-mirrors": ["https://e2arlqef.mirror.aliyuncs.com"]
}
EOF
sudo systemctl daemon-reload
ps: 把括号中的换成你自己的。如下图获取
安装docker# 先查询可用版本,然后指定版本安装。否则安装的是最新版本 yum list docker-ce --showduplicates|sort -r yum install -y docker-ce-19.03.0 docker-ce-cli-19.03.0 containerd.io启动docker
sudo systemctl start docker && sudo systemctl enable docker安装K8s 配置yum 源
cat <安装 kubeadm, kubelet and kubectl/etc/yum.repos.d/kubernetes.repo [kubernetes] name=Kubernetes baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64 enabled=1 gpgcheck=0 repo_gpgcheck=0 gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg EOF
yum list kubeadm --showduplicates|sort -r # 查询版本 yum install -y kubelet-1.19.2 kubeadm-1.19.2 kubectl-1.19.2 --nogpgcheck systemctl start kubelet systemctl enable kubeletdocker和k8s设置同一个cgroup
# docker
vi /etc/docker/daemon.json
"exec-opts": ["native.cgroupdriver=systemd"],
systemctl restart docker
# kubelet,这边如果发现输出directory not exist,也说明是没问题的,继续往下进行即可
sed -i "s/cgroup-driver=systemd/cgroup-driver=cgroupfs/g" /etc/systemd/system/kubelet.service.d/10-kubeadm.conf
systemctl enable kubelet && systemctl start kubelet
初始化master
ps. 上面全部步骤都是需要三台节点同样的操作。初始化master只需在master 节点操作即可
kubeadm init --apiserver-advertise-address=192.168.31.10 --image-repository registry.aliyuncs.com/google_containers --kubernetes-version v1.19.2 --service-cidr=10.1.0.0/16 --pod-network-cidr=10.244.0.0/16
初始化完成后会有如下日志:
To start using your cluster, you need to run the following as a regular user:
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
https://kubernetes.io/docs/concepts/cluster-administration/addons/
Then you can join any number of worker nodes by running the following on each as root:
kubeadm join 192.168.31.10:6443 --token 2olp0m.9c3fbj4s1fubniw0
--discovery-token-ca-cert-hash sha256:e54a79067f4d2edce5f95af82eb1f84b86b8954d6dbff21d732547676d04a01f
记得保存好最后kubeadm join的信息
根据初始化完成的日志执行:
mkdir -p $HOME/.kube sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config sudo chown $(id -u):$(id -g) $HOME/.kube/config
配置命令自动补全
yum install -y bash-completion source /usr/share/bash-completion/bash_completion source <(kubectl completion bash) echo "source <(kubectl completion bash)" >> ~/.bashrc
此时kubectl cluster-info查看一下是否成功
等待一会儿,同时可以发现像etc,controller,scheduler等组件都以pod的方式安装成功了
注意:coredns没有启动,需要安装网络插件
kubectl get pods -n kube-system安装calico
# 在k8s中安装calico 也可以wget下载到本地 kubectl applya -f https://docs.projectcalico.org/v3.9/manifests/calico.yaml # 确认一下calico是否安装成功 kubectl get pods --all-namespaces -w踩坑
安装完成后发现 node节点ping不通pod的ip 。 网上查询说是多个网卡的情况下需要指定网卡
修改这里,指定网卡。
安照上述修改完成后依然不行。
解决方法:
#查看路由 路由缺失 tunl0的路由 route -n #查看网卡 tunl0 消失 ifconfig #在所有宿主机节点执行命令 systemctl restart NetworkManager ifconfig tunl0 upWoker 节点加入
kubeadm join 192.168.31.10:6443 --token yu1ak0.2dcecvmpozsy8loh
--discovery-token-ca-cert-hash sha256:5c4a69b3bb05b81b675db5559b0e4d7972f1d0a61195f217161522f464c307b0
等待几分钟后在mster 节点查看状态。 ready 就表示加入成功了
kubectl get nodes
至此,集群就搭建成功了。
k8s 扩展插件安装 metrics-servermetrics-server 是一个资源指标监控的插件。
可以从这里获取对应版本的 yaml
wget https://github.com/kubernetes-sigs/metrics-server/releases/download/v0.5.1/components.yaml
修改,yaml,添加如下配置。 这里是指定不验证客户端证书(学习方便部署,生产慎重)
# 部署 kubectl apply -f components.yaml # 查看 kubectl top nodes kubectl top pods -n kube-system踩坑
执行。 kubectl top nodes. 只显示了一个节点的信息
一开始以为是那里出了问题,搞了好久。也没弄好。现在也不知道啥原因。
后来拿三台云服务器,同样的版本又试了一次,是可以的
难道是环境问题吗?求大佬解答。
换了一个网络插件,使用flannel解决。
其他踩坑-
执行 kubeadm reset 后重新init maste 。 然后子节点加入时报错
执行 下面命令解决
sysctl -w net.ipv4.ip_forward=1



