本文提供ansible-playbooks及相关所有k8s组件资源用来帮助读者用ansible构建二进制kubernetes1.14,调试有问题的伙伴可以私聊作者哈。
集群包含calico、nginx-ingress、HA
提供资源有kubernetes-1.14二进制安装包、docker18/rpm包、calico所需镜像、nginx-ingress所需镜像、cfssl包等
执行tree ansible-playbooks 可以在files目录下查看所需资源,后续会继续完善本文
百度网盘地址:https://pan.baidu.com/s/1KAUOY7NWnGXrDmqSd1LVPA 密码:nhbl
github地址https://github.com/yuenandi/k8s/tree/master
kubernetes-server-linux-amd64.tar.gz
复制到ansible-k8s/roles/kube-apiserver/files/
mv /image/file/* /ansible-k8s/roles/image/file
mv kubernetes-server-linux-amd64.tar.gz k8s/ansible-k8s/roles/kube-apiserver/files
mv etcd-v3.3.12-linux-amd64.tar.gz k8s/ansible-k8s/roles/etcd/files
mv docker-18.09.5.tar.gz k8s/ansible-k8s/roles/docker/files
mv /image/file/* /ansible-k8s/roles/image/file
生产环境建议如上配置,是否在master上部署kubelet\kube-proxy\docker\calico,可根据资源自行判断,服务器配置根据服务需求进行调整。
1、etcd节点x3 : 注意etcd必须是奇数个节点
2、master节点x3 : 没有奇数偶数的限制,后面可以根据实际情况再增加节点数,
3、node节点x1: 真正应用负载的节点,后面可以根据实际情况很方便的增加节点数
本文为了展示,服务器配置如下:
在每台节点上执行:
cat <> /etc/hosts
192.168.33.1 k8s-master1
192.168.33.2 k8s-master2
192.168.33.3 k8s-master3
192.168.33.4 k8s-node1
192.168.33.5 k8s-node2
192.168.33.6 k8s-node3
192.168.33.7 k8s-node4
192.168.33.8 k8s-node5
EOF
定义变量,关闭shell后该变量会消失需要重新执行
ms="k8s-master1 k8s-master2 k8s-master3" && \
oms="k8s-master2 k8s-master3" &&\
ns="k8s-node1 "
生成并拷贝证书
ssh-keygen -t rsa && \
for i in $ms $ns; do ssh-copy-id -i ~/.ssh/id_rsa.pub $i; done
for host in $ms $ns; do
ssh $host "hostnamectl set-hostname $host";
Done
解压tar -zxvf ansible.tar.gz
将nodePrepare.sh拷贝到其他节点:
for host in $ms $ns; do
scp -r ~/tmp/nodePrepare,sh root@$host:/root/tmp/nodePrepare.sh";
done
for host in $ms $ns; do
ssh $host "sh /root/tmp/nodePrepare.sh";
done
注意:若配置未生效,重启机器生效
设置ansible的部署节点:
cat>>/etc/ansible/hosts<
执行:ansible all -m ping -u root
如图所示
如果有失败节点,请检查ssh免秘是否执行成功。
设置xxx/ansible-k8s/stage文件,更改环境地址。
根据自己的机器更改stage文件。
之后执行
ansible-playbook -i /root/tmp/ansible-playbooks/ansible-k8s/stage -u root /root/tmp/ansible-playbooks/ansible-k8s/kubernetes.yml
在master节点执行如下命令
kubectl get cs
kubectl get nodes --all-namespaces
所有node状态为ready表示集群安装完成
kubectl get pod -n kube-system
calico 与 coredns pod搭建成功
route -n 查看tunl0网络,成功,节点可以ping通podIP
kubectl get pod -n ingress-nginx
vi my-nginx.yaml
apiVersion: apps/v1
kind: Deployment*
metadata:
name: my-nginx
spec:
replicas: 2
selector:
matchLabels:
k8s-app: my-nginx
template:
metadata:
labels:
k8s-app: my-nginx
spec:
containers:
- name: my-nginx
image: nginx:1.9
ports:
- containerPort: 80
---
apiVersion: v1
kind: Service
metadata:
name: my-nginx
labels:
k8s-app: my-nginx
spec:
type: NodePort
ports:
- port: 8080
targetPort: 80
protocol: TCP
name: http
- port: 443
protocol: TCP
name: https
selector:
k8s-app: my-nginx
vi my-nginx-ingress.yaml
apiVersion: extensions/v1beta1
kind: Ingress
metadata:
name: submodule-checker-ingress
spec:
rules:
- host: nginx.weave.pub
http:
paths:
- backend:
serviceName: my-nginx
servicePort: 80
kubectl create -f my-nginx-ingress.yaml && kubectl create -f my-nginx.yaml
vi /etc/hosts
ingress部署成功
检验coredns可以部署busybox的pod,进入pod,用nslookup查看dns是否可以得到clusterIP
以上如有问题,可以通过kubectl describe pod XXX或者systemctl status XXX进行查看问题并解决,也可以journalctl -u XXX查看日志信息
后续会继续详写nfs、ceph、hostpath等volum;基于POD运行的registry镜像仓库;calico、ingress详解;ELK等,有兴趣的小伙伴可以加入探讨。
doc of ansible
使用Ansible + kubeadm部署K8S集群
二进制部署Kubernetes-v1.14.1集群