k8s-基础篇

搭建k8s环境

Myapp镜像部署
扩容pod
自愈
负载均衡
DNS
外网访问
滚动更新
YAML方式部署
独立部署pod
RS副本控制器
Deployment-自动扩容
Deployment-更新版本
Deployment-回滚版本
daemonset
job
cronJob
初始化容器

链接:https://pan.baidu.com/s/1U_AWBEXsjESZ2eDPIH4TFA
提取码:gmze

网盘里有一些配置文件和系统组件可以自行下载使用。环境搭建很麻烦,如果发现失败可与我联系或按照文档重试几次。以下步骤是完全可用的!

搭建k8s环境

环境准备

环境3台centos虚拟机每台虚拟机2核2G,一个master两个node。搭建k8s环境如没有特殊说明所有操作均在三个节点同时操作。

#1、给每一台机器设置主机名
hostnamectl set-hostname k8s-master01
hostnamectl set-hostname k8s-node01
hostnamectl set-hostname k8s-node02
#查看主机名
hostname
#配置IP host映射关系
vi /etc/hosts
192.168.66.10 k8s-master01
192.168.66.11 k8s-node01
192.168.66.12 k8s-node02
 
#2、安装依赖环境,注意:每一台机器都需要安装此依赖环境
yum install -y conntrack ntpdate ntp ipvsadm ipset jq iptables curl sysstat
libseccomp wget vim net-tools git iproute lrzsz bash-completion tree bridge-
utils unzip bind-utils gcc
 
#3、安装iptables,启动iptables,设置开机自启,清空iptables规则,保存当前规则到默认规则
# 关闭防火墙
systemctl stop firewalld && systemctl disable firewalld
# 置空iptables
yum -y install iptables-services && systemctl start iptables && systemctl enable
iptables && iptables -F && service iptables save
 
#4、关闭selinux
#闭swap分区【虚拟内存】并且永久关闭虚拟内存
swapoff -a && sed -i '/ swap / s/^\(.*\)$/#\1/g' /etc/fstab
#关闭selinux
setenforce 0 && sed -i 's/^SELINUX=.*/SELINUX=disabled/' /etc/selinux/config
 
#5、调整内核参数,对于k8s
cat > kubernetes.conf <
net.bridge.bridge-nf-call-iptables=1
net.bridge.bridge-nf-call-ip6tables=1
net.ipv4.ip_forward=1
net.ipv4.tcp_tw_recycle=0
vm.swappiness=0
vm.overcommit_memory=1
vm.panic_on_oom=0
fs.inotify.max_user_instances=8192
fs.inotify.max_user_watches=1048576
fs.file-max=52706963
fs.nr_open=52706963
net.ipv6.conf.all.disable_ipv6=1
net.netfilter.nf_conntrack_max=2310720
EOF
#将优化内核文件拷贝到/etc/sysctl.d/文件夹下,这样优化文件开机的时候能够被调用
cp kubernetes.conf /etc/sysctl.d/kubernetes.conf
#手动刷新,让优化文件立即生效
sysctl -p /etc/sysctl.d/kubernetes.conf
 
#6、调整系统临时区 --- 如果已经设置时区,可略过
#设置系统时区为中国/上海
timedatectl set-timezone Asia/Shanghai
#将当前的 UTC 时间写入硬件时钟
timedatectl set-local-rtc 0
#重启依赖于系统时间的服务
systemctl restart rsyslog
systemctl restart crond
 
#7、关闭系统不需要的服务
systemctl stop postfix && systemctl disable postfix
 
#8、设置日志保存方式
#1).创建保存日志的目录
mkdir /var/log/journal
#2).创建配置文件存放目录
mkdir /etc/systemd/journald.conf.d
#3).创建配置文件
cat > /etc/systemd/journald.conf.d/99-prophet.conf <
[Journal]
Storage=persistent
Compress=yes
SyncIntervalSec=5m
RateLimitInterval=30s
RateLimitBurst=1000
SystemMaxUse=10G
SystemMaxFileSize=200M
MaxRetentionSec=2week
ForwardToSyslog=no
EOF
#4).重启systemd journald的配置
systemctl restart systemd-journald
 
#9、kube-proxy 开启 ipvs 前置条件
modprobe br_netfilter
cat > /etc/sysconfig/modules/ipvs.modules <
#!/bin/bash
modprobe -- ip_vs
modprobe -- ip_vs_rr
modprobe -- ip_vs_wrr
modprobe -- ip_vs_sh
modprobe -- nf_conntrack_ipv4
EOF
##使用lsmod命令查看这些文件是否被引导
chmod 755 /etc/sysconfig/modules/ipvs.modules && bash
/etc/sysconfig/modules/ipvs.modules && lsmod | grep -e ip_vs -e
nf_conntrack_ipv4

部署docker

curl -sSL https://get.daocloud.io/docker | sh
systemctl enable docker && systemctl start docker

kubeadm[一键安装k8s]

#1、安装kubernetes的时候,需要安装kubelet, kubeadm等包,但k8s官网给的yum源是
packages.cloud.google.com,国内访问不了,此时我们可以使用阿里云的yum仓库镜像。
cat < /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF
#2、安装kubeadm、kubelet、kubectl
yum install -y kubeadm-1.15.1 kubelet-1.15.1 kubectl-1.15.1
# 启动 kubelet
systemctl enable kubelet && systemctl start kubelet

集群安装

网盘中有镜像文件kubeadm-basic.images

#1、导入镜像脚本代码 (在任意目录下创建sh脚本文件:image-load.sh)
#!/bin/bash
#注意 镜像解压的目录位置
ls /root/kubeadm-basic.images > /tmp/images-list.txt
cd /root/kubeadm-basic.images
for i in $(cat /tmp/images-list.txt)
do
docker load -i $i
done
rm -rf /tmp/images-list.txt
#2、修改权限,可执行权限
chmod 755 image-load.sh
#3、开始执行,镜像导入
./image-load.sh
k8s-基础篇_第1张图片

k8s部署 

#初始化主节点 --- 只需要在主节点执行
#1、拉去yaml资源配置文件
kubeadm config print init-defaults > kubeadm-config.yaml 
#2、修改yaml资源文件
localAPIEndpoint:
advertiseAddress: 192.168.66.10 # 注意:修改配置文件的IP地址
kubernetesVersion: v1.15.1 #注意:修改版本号,必须和kubectl版本保持一致
networking:
# 指定flannel模型通信 pod网段地址,此网段和flannel网段一致
podSubnet: "10.244.0.0/16"
serviceSubnet: "10.96.0.0/12"
#指定使用ipvs网络进行通信
---
apiVersion: kubeproxy.config.k8s.io/v1alpha1
kind: kubeProxyConfiguration
featureGates:
SupportIPVSProxyMode: true
mode: ipvs
#3、初始化主节点,开始部署
kubeadm init --config=kubeadm-config.yaml --experimental-upload-certs | tee
kubeadm-init.log
#注意:执行此命令,CPU核心数量必须大于1核,否则无法执行成功
#4、初始化成功后执行如下命令
#创建目录,保存连接配置缓存,认证文件
mkdir -p $HOME/.kube
#拷贝集群管理配置文件
cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
#授权给配置文件
chown $(id -u):$(id -g) $HOME/.kube/config 

flflannel插件

#部署flannel网络插件 --- 只需要在主节点执行
#1、下载flannel网络插件
wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-
flannel.yml
#2、部署flannel
kubectl create -f kube-flannel.yml 
k8s-基础篇_第2张图片

节点Join

节点加入需要token和sha256,在主节点上执行以下命令获取。

创建token

kubeadm token create

m9rrtc.2cm48k5w6ymsprwt

查看token可能有多个,选择一个没有过期的即可

kubeadm token list 

获取 CA 证书 sha256 编码 hash 值

openssl x509 -pubkey -in /etc/kubernetes/pki/ca.crt | openssl rsa -pubin -outform der 2>/dev/null | openssl dgst -sha256 -hex | sed 's/^.* //'

4a77cfd6f9e2a16a7a45351369275f102b9986b469d3f9f9865a87050e4bf0dc

在子节点执行以下命令

kubeadm join 主机IP:6443 --token 59mzkj.26xap2hzdhm74ptq --discovery-token-ca-cert-hash sha256:18acdb7c02c6ea696307fde451f44ea0d216e6ccb6777a2a87002d7d45f3845c

在主节点查看。我这里node2虚拟机关闭了,电脑不行。正常情况下都是Ready

k8s-基础篇_第3张图片
 
注意:如果master或node节点的ip变化了。
kubeadm reset 重置节点
master则重复k8s部署和flflannel插件两个步骤。
node则重复节点join步骤

Myapp镜像部署

需要在master和node上配置docker镜像。

https://cr.console.aliyun.com/cn-hangzhou/instances/mirrors?accounttraceid=0cd89c7411274ee48cb11fad06368ba3fxyw

k8s-基础篇_第4张图片

创建pod(部署服务) : kubectl run myapp --image=ikubernetes/myapp:v1 --port=80 --replicas=2 (replicas指定pod数量默认1)

查询pod创建详细信息: kubectl describe pod myapp-554864fdf4-f4gw9

查询pod: kubectl get pod

查询pod详细信息: kubectl get pod -o 

k8s-基础篇_第5张图片

Kubectl run 首先创建deployment对象,kubectl run 指令执行后创建了3个资源对象(deployment,rs,pod)

注意: 上面这条指令没有指定副本数量,默认创建了1个pod。如果只有master节点则创建失败,至少有一个node

如果要删除彻底删除pod需要先删除deployment,然后pod会自动删除。

kubectl delete deployment myapp

k8s-基础篇_第6张图片

扩容pod

kubectl scale deployment myapp --replicas=4

k8s-基础篇_第7张图片

也可以再次缩容

自愈

K8s管理的pod不仅仅可以一键式部署,一键式扩容,同时k8s管理的pod还具有自愈能力。也就是说当pod发生故障,宕机,k8s将会自动对pod件重建,因此k8s的pod的副本永远处于高可用状态。

删除所有的pod,查看pod是否还存在: kubectl delete pod –all

k8s-基础篇_第8张图片

负载均衡

k8s-基础篇_第9张图片

Pod有多个副本,访问pod副本必须实现负载均衡访问,那么这个负载均衡访问是通过service来实现的。因此对一组pod副本创建一个service,进行负载均衡

对一组pod副本创建service: kubectl expose deployment myapp --port=30000 --target-port=80

kubectl get svc

k8s-基础篇_第10张图片

k8s-基础篇_第11张图片

通过测试发现,k8s默认使用轮训策略。

kubectl delete svc/myapp 删除service

k8s-基础篇_第12张图片

DNS

安装k8s时候,安装dns组件,dns(域名解析服务器,根据域名解析出真实ip地址,通过dns可以通过服务名进行相互的访问)

在容器内部通过服务名访问其他容器

kubectl exec -it myapp-554864fdf4-wsr7h -- sh

k8s-基础篇_第13张图片

wget myapp:30000(service名称) --- 测试通过,说明可以通过服务名称,访问到外部网络,因此dns服务器是ok的。

k8s-基础篇_第14张图片

外网访问

Service 和pod 之间的通信都属于局域网通信访问。无法对外网直接提供服务,service是一个虚拟化的概念,是一个虚拟IP地址,没有与之对应的物理硬件资料,无法直接对外网提供服务,必须借助于物理硬件资源进行数据包转发。

kubectl edit svc myapp  --- 编辑service对应资源对象配置文件,通过修改ip类型,来绑定物理端口。

k8s-基础篇_第15张图片

可以发现32727就是我们所开辟物理端口,此端口可以在配置文件中自定义,也可以默认即可,默认端口范围:30000 – 32767

滚动更新

项目迭代,不停的发布新的版本,如何实现不停机更新。一键式更新操作.滚动更新,发现访问时候,已经是v2版本的服务.原来的pod开始没有关闭

等到新版本的pod发布后才把老版本删除。

k8s-基础篇_第16张图片

YAML方式部署

通过yaml配置文件方式一键部署服务。yaml的详细配置在网盘连接里有。YAML语法规范.md

现在我们要部署一个Nginx服务,先拉去一个docker镜像,其实可以让k8s自己下载,但是我要给Nginx打一个tag 

docker pull nginx

编写yaml文件在网盘链接中有

apiVersion: apps/v1 
kind: Deployment 
metadata:
  name: nginx-deployment
  namespace: default
spec:
  replicas: 2
  selector:
    matchLabels:
      app: mynginx
      release: stable
      env: test
  template:
    metadata:
      labels:
        app: mynginx
        release: stable
        env: test
    spec:
      containers:
      - name: my-nginx
        image: nginx:v1
        imagePullPolicy: IfNotPresent
        ports:
        - name: http
          containerPort: 80
View Code

kubectl apply -f nginx-deploy.yaml 执行脚本

编写service.yaml

apiVersion: v1 
kind: Service
metadata:
   name: nginx-svc
   namespace: default
spec:
   type: NodePort
   selector:
     app: mynginx
     release: stable
     env: test
   ports:
   - name: http
     port: 80
     targetPort: 80
     nodePort: 30003
View Code

k8s-基础篇_第17张图片

独立部署pod

自主式的pod: 单独定义一个pod,这个没有没有副本控制器管理,也没有对应deployment,可以直接删除pod并且不会自愈。

apiVersion: v1
kind: Pod
metadata:
 name: init-pod
 labels:
   app: myapp
spec:
 containers:
 - name: myapp
   image: ikubernetes/myapp:v1
View Code

kubectl apply -f init-pod.yaml 执行脚本

k8s-基础篇_第18张图片

RS副本控制器

ReplicationController (RC)用来确保容器应用的副本数始终保持在用户定义的副本数,即如果有容器异常退出,会自动创建新的Pod来替代;而如果异常多出来的容器也会自动回收;

在新版本的Kubernetes中建议使用Replicaset来取代ReplicationController. ReplicaSet跟 ReplicationController没有本质的不同,只是名字不一样,并且ReplicaSet支持集合式的selector;

apiVersion: extensions/v1beta1 
kind: ReplicaSet 
metadata:
  name: frontend 
spec:
  replicas: 3
  selector:
    matchLabels: 
      tier: frontend 
  template:
    metadata:
      labels:
        tier: frontend
    spec:
      containers:
        - name: myapp
          image: ikubernetes/myapp:v1
View Code

k8s-基础篇_第19张图片

pod删除后可以自愈

k8s-基础篇_第20张图片

修改pod的标签后pod就会脱离RS而RS也会重新生成一个pod

k8s-基础篇_第21张图片

删除副本控制器后pod也会删除

k8s-基础篇_第22张图片

Deployment-自动扩容

Deployment可以保证在升级时只有一定数量的Pod是down的。默认的,它会确保至少有比期望的Pod数量少一个是up状态(最多一个不可用)

Deployment同时也可以确保只创建出超过期望数量的一定数量的Pod,默认的,它会确保最多比期望的Pod数量多一个的Pod是up的(最多1个surge )

apiVersion: extensions/v1beta1 
kind: Deployment 
metadata:
  name: nginx-deployment 
spec:
  replicas: 3
  template:
    metadata:
      labels:
        app: nginx 
    spec:
      containers: 
        - name: myapp
          image: ikubernetes/myapp:v1
View Code

k8s-基础篇_第23张图片

kubectl autoscale deployment nginx-deployment --min=2 --max=5 --cpu-percent=80

这条指令是说最少两个pod最多5个单个pod的cpu使用率达到80则创建副本。

k8s-基础篇_第24张图片

Deployment-更新版本

kubectl set image deployment appdeployment(deployment名称) nginx(container名称)=ikubernetes/myapp:v2(要更新的镜像) 

Deployment-回滚版本

kubectl rollout undo deployment appdeployment(deployment名称)

daemonset

确保只运行一个副本,运行在集群中每一个节点上。而deployment可能只将pod运行在一个节点上。daemonset没有RS

apiVersion: apps/v1
kind: DaemonSet
metadata:
  name: my-deamon
  namespace: default
  labels: 
    app: daemonset
spec:
  selector:
    matchLabels:
      app: my-daemonset
  template:
    metadata:
      labels:
        app: my-daemonset
    spec:
      containers:
      - name: myapp
        image: ikubernetes/myapp:v1
View Code

k8s-基础篇_第25张图片

job

job负责处理任务,即仅执行一次的任务,下面这个job从仓库拉去一个镜像,执行一个循环打印。

apiVersion: batch/v1
kind: Job
metadata:
  name: job-demo
spec:
  template:
    metadata:
      name: job-demo
    spec:
      restartPolicy: Never
      containers:
      - name: counter
        image: busybox
        command:
        - "bin/sh"
        - "-c"
        - "for i in 9 8 7 6 5 4 3 2 1; do echo $i; done"
View Code

k8s-基础篇_第26张图片

cronJob

cronJob其实就是在`Job`的基础上加上了时间调度,我们可以:在给定的时间点运行一个任务,也可以周期性地在给定时间点运行。

以下配置是1分钟创建一个job执行

apiVersion: batch/v1beta1
kind: CronJob
metadata:
  name: cronjob-demo
spec:
  schedule: "*/1 * * * *"
  jobTemplate:
    spec:
      template:
        spec:
          restartPolicy: OnFailure
          containers:
          - name: hello
            image: busybox
            args:
            - "bin/sh"
            - "-c"
            - "for i in 9 8 7 6 5 4 3 2 1; do echo $i; done"
View Code

k8s-基础篇_第27张图片

初始化容器

Pod能够持有多个容器,应用运行在容器里面,但是它也可能有一个或多个先于应用容器启动的Init容器。Init容器与普通的容器非常像,除了如下两点:1 Init容器总是运行到成功完成为止 2 每个Init容器都必须在下一个Init容器启动之前成功完成

如果Pod的Init容器失败,Kubernetes会不断地重启该Pod,直到Init容器成功为止。然而,如果Pod对应的restartPolicy为Never,它不会重新启动。

以下配置为初始化容器休眠2分钟后创建。然后应用容器才会创建

apiVersion: v1
kind: Pod
metadata:
 name: init-pod
 labels:
   app: myapp
spec:
 containers:
 - name: myapp
   image: nginx
 initContainers:
 - name: init-mydb
   image: nginx
   command: ['sh', '-c', 'echo -n "running at " && date +%T && sleep 120']
View Code

 

你可能感兴趣的:(k8s-基础篇)