这是我转载的一个博主写的 K8s 常用命令大全,里面详细介绍了 K8s 的命令。如果看了我写的入门基础篇文章,想了解更多命令可以看以下的文章。
Kubernetes kubectl 命令表【中文网址】
Kubernetes kubectl 命令表
要使用和维护Kubernetes集群,最常用且直接的方式,就是使用自带的命令行工具Kubectl。
下面图片是一个总览,熟悉后可以用于勾起记忆。
注:下面命令虽然整理的相对较全,但知道这些命令并不等于知道kucectl的使用了,还是很有必要系统的学习k8s,熟悉整个流程,下面命令更适合当手册使用,你知道你要干什么,记不住命令,ok没问题,来这ctrl+f搜索关键字即可,也可以当复习用,加深命令的作用。
[root@master ~]# kubectl create -f demo-deployment.yaml
[root@master ~]# kubectl create -f demo-service.yaml
[root@master ~]# kubectl delete -f demo-deployment.yaml
[root@master ~]# kubectl delete -f demo-service.yaml
[root@master ~]# kubectl delete 具体的资源名称
kubectl get pod --all-namespaces和kubectl get pods -A
一样效果,都是查看所有命名空间的pod【可以加上-owide
,查看运行在哪个主机上】。
[root@master ~]# kubectl get all
[root@master ~]# kubectl get pod --all-namespaces
#下面就是详细信息了
[root@master1-163 ~]# kubectl get pods -A -owide
NAMESPACE NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
kube-system calico-kube-controllers-78d6f96c7b-nwbmt 1/1 Running 0 16h 10.244.139.67 worker-165 <none> <none>
kube-system calico-node-nh977 1/1 Running 0 16h 192.168.59.162 master2-162 <none> <none>
kube-system calico-node-s89tx 1/1 Running 1 16h 192.168.59.163 master1-163 <none> <none>
kube-system calico-node-vt5dn 1/1 Running 0 16h 192.168.59.165 worker-165 <none> <none>
kube-system coredns-545d6fc579-6l9xs 1/1 Running 0 22h 10.244.139.66 worker-165 <none> <none>
kube-system coredns-545d6fc579-mrm2w 1/1 Running 0 22h 10.244.139.65 worker-165 <none> <none>
kube-system kube-apiserver-master1-163 1/1 Running 2 22h 192.168.59.163 master1-163 <none> <none>
kube-system kube-apiserver-master2-162 1/1 Running 1 21h 192.168.59.162 master2-162 <none> <none>
kube-system kube-controller-manager-master1-163 1/1 Running 2 22h 192.168.59.163 master1-163 <none> <none>
kube-system kube-controller-manager-master2-162 1/1 Running 1 21h 192.168.59.162 master2-162 <none> <none>
kube-system kube-proxy-kp8p6 1/1 Running 1 21h 192.168.59.162 master2-162 <none> <none>
kube-system kube-proxy-kqg72 1/1 Running 2 22h 192.168.59.163 master1-163 <none> <none>
kube-system kube-proxy-nftgv 1/1 Running 0 17h 192.168.59.165 worker-165 <none> <none>
kube-system kube-scheduler-master1-163 1/1 Running 2 22h 192.168.59.163 master1-163 <none> <none>
kube-system kube-scheduler-master2-162 1/1 Running 1 21h 192.168.59.162 master2-162 <none> <none>
[root@master1-163 ~]#
查看所有命名空间
[root@master ~]# kubectl get ns
NAME STATUS AGE
default Active 4d6h
kube-node-lease Active 4d6h
kube-public Active 4d6h
kube-system Active 4d6h
[root@master ~]#
在-n跟上命名空间【如果不知道为什么要指定,接着往下看即可】
[root@master ~]# kubectl get pod -n kube-system
NAME READY STATUS RESTARTS AGE
...
kube-scheduler-master 1/1 Running 12 4d6h
metrics-server-bcfb98c76-w87q9 1/1 Running 0 35m
[root@master ~]#
这个命令查看的默认名称是:kube-public
[root@master ~]# kubectl get pod
但如果pod不是运行在kube-public上,就需要指定名称才能查看了,否则报错。
先说一下查看pod运行在哪个命名空间上的命令:kubectl get pod --all-namespaces -o wide
【不加 --all-namespaces就是仅查看当前所在命名空间的pod了】
结果中NAMESPACE就是了。
[root@master ~]# kubectl get pod --all-namespaces -o wide
NAMESPACE NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
kube-system calico-kube-controllers-78d6f96c7b-p4svs 1/1 Running 0 4d5h 10.244.219.67 master <none> <none>
...
上面说过,如果pod运行的空间不是kube-public,直接执行 kubectl get pod就会报错,这时候需要加上-n并跟上命名名称【这个名称就是上面看到的NAMESPACE】
[root@master ~]# kubectl get ns # 这个命令是查看所有命名空间
NAME STATUS AGE
default Active 4d6h
kube-node-lease Active 4d6h
kube-public Active 4d6h
kube-system Active 4d6h
[root@master ~]#
[root@master ~]# kubectl get pod
No resources found in default namespace.
[root@master ~]#
[root@master ~]# kubectl get pod -n kube-system
NAME READY STATUS RESTARTS AGE
calico-kube-controllers-78d6f96c7b-p4svs 1/1 Running 0 4d5h
calico-node-cc4fc 1/1 Running 18 4d4h
calico-node-stdfj 1/1 Running 20 4d5h
calico-node-zhhz7 1/1 Running 1 4d5h
coredns-545d6fc579-6kb9x 1/1 Running 0 4d6h
coredns-545d6fc579-v74hg 1/1 Running 0 4d6h
etcd-master 1/1 Running 1 4d6h
kube-apiserver-master 1/1 Running 1 4d6h
kube-controller-manager-master 1/1 Running 11 4d6h
kube-proxy-45qgd 1/1 Running 1 4d4h
kube-proxy-fdhpw 1/1 Running 1 4d6h
kube-proxy-zf6nt 1/1 Running 1 4d6h
kube-scheduler-master 1/1 Running 12 4d6h
metrics-server-bcfb98c76-w87q9 1/1 Running 0 25m
[root@master ~]#
[root@master ~]# kubectl get pod --show-labels
[root@master ~]# kubectl get pods -l app=example
[root@master ~]# kubectl get node
[root@master ~]# kubectl get nodes
[root@master ~]# kubectl get node --show-labels
[root@master ~]# kubectl get pod -o wide
[root@master ~]# kubectl get svc
[root@master ~]# kubectl get svc -n kube-system
[root@master ~]# kubectl get ns
[root@master ~]# kubectl get namespaces
[root@master ~]# kubectl get pod --all-namespaces
[root@master ~]# kubectl get pod --all-namespaces -o wide
[root@master ~]# kubectl get rs
[root@master ~]# kubectl get deploy -o wide
[root@master ~]# kubectl get deployments -o wide
具体使用场景未知,我是在做【Kubernetes】k8s的健康性检查详细说明中readiness probe时候使用到这个命令了,记录一下。
[root@master probe]# kubectl get ev | tail -n 10
15m Normal Scheduled pod/pod6 Successfully assigned probe/pod6 to node2
15m Normal Pulled pod/pod6 Container image "nginx" already present on machine
15m Normal Created pod/pod6 Created container liveness
15m Normal Started pod/pod6 Started container liveness
13m Normal Killing pod/pod6 Stopping container liveness
12m Normal Scheduled pod/pod6 Successfully assigned probe/pod6 to node2
12m Normal Pulled pod/pod6 Container image "nginx" already present on machine
12m Normal Created pod/pod6 Created container liveness
12m Normal Started pod/pod6 Started container liveness
1s Warning Unhealthy pod/pod6 Readiness probe failed: cat: /tmp/healthy: No such file or directory
[root@master probe]#
语法:
run NAME --image=image [--env="key=value"] [--port=port] [--replicas=replicas] [--dry-run=bool] [--overrides=inline-json] [--command] -- [COMMAND] [args...]
# 示例,运行一个名称为nginx,副本数为3,标签为app=example,镜像为nginx:1.10,端口为80的容器实例
[root@master ~]# kubectl run nginx --replicas=3 --labels="app=example" --image=nginx:1.10 --port=80
# 示例,运行一个名称为nginx,副本数为3,标签为app=example,镜像为nginx:1.10,端口为80的容器实例,并绑定到k8s-node1上
[root@master ~]# kubectl run nginx --image=nginx:1.10 --replicas=3 --labels="app=example" --port=80 --overrides='{"apiVersion":"apps/v1","spec":{"template":{"spec":{"nodeSelector":{"kubernetes.io/hostname":"k8s-node1"}}}}}'
更详细用法参见:http://docs.kubernetes.org.cn/468.html
创建一个nginx服务并且暴露端口让外界可以访问
[root@master ~]# kubectl expose deployment nginx --port=88 --type=NodePort --target-port=80 --name=nginx-service
更多expose详细用法参见:http://docs.kubernetes.org.cn/475.html
语法
[root@master ~]# set SUBCOMMAND
使用 kubectl set --help
查看
它的子命令
set 命令详情参见:http://docs.kubernetes.org.cn/669.html
语法:
resources (-f FILENAME | TYPE NAME) ([--limits=LIMITS & --requests=REQUESTS]
# 将deployment的nginx容器cpu限制为“200m”,将内存设置为“512Mi”
[root@master ~]# kubectl set resources deployment nginx -c=nginx --limits=cpu=200m,memory=512Mi
# 设置所有nginx容器中 Requests和Limits
[root@master ~]# kubectl set resources deployment nginx --limits=cpu=200m,memory=512Mi --requests=cpu=100m,memory=256Mi
# 删除nginx中容器的计算资源值
[root@master ~]# kubectl set resources deployment nginx --limits=cpu=0,memory=0 --requests=cpu=0,memory=0
selector (-f FILENAME | TYPE NAME) EXPRESSIONS [--resource-version=version]
# 将deployment中的nginx容器镜像设置为“nginx:1.9.1”
[root@master ~]# kubectl set image deployment/nginx busybox=busybox nginx=nginx:1.9.1
# 所有deployment和rc的nginx容器镜像更新为“nginx:1.9.1”
[root@master ~]# kubectl set image deployments,rc nginx=nginx:1.9.1 --all
# 将daemonset abc的所有容器镜像更新为“nginx:1.9.1”
[root@master ~]# kubectl set image daemonset abc *=nginx:1.9.1
# 从本地文件中更新nginx容器镜像
[root@master ~]# kubectl set image -f path/to/file.yaml nginx=nginx:1.9.1 --local -o yaml
[root@master ~]# kubectl explain rs
[root@master ~]# kubectl edit deployment nginx
[root@master ~]# kubectl edit service/nginx
label [--overwrite] (-f FILENAME | TYPE NAME) KEY_1=VAL_1 ... KEY_N=VAL_N [--resource-version=version]
[root@master ~]# kubectl label pods foo unhealthy=true
[root@master ~]# kubectl label --overwrite pods foo status=unhealthy
[root@master ~]# kubectl label pods --all status=unhealthy
[root@master ~]# kubectl label pods foo status=unhealthy --resource-version=1
[root@master ~]# kubectl label pods foo bar-
annotate [--overwrite] (-f FILENAME | TYPE NAME) KEY_1=VAL_1 ... KEY_N=VAL_N [--resource-version=version]
[root@master ~]# kubectl annotate pods foo description=‘my frontend’
[root@master ~]# kubectl annotate -f pod.json description='my frontend'
[root@master ~]# kubectl annotate --overwrite pods foo description='my frontend running nginx'
[root@master ~]# kubectl annotate pods --all description='my frontend running nginx'
[root@master ~]# kubectl annotate pods foo description='my frontend running nginx' --resource-version=1
[root@master ~]# kubectl annotate pods foo description-
# 在 bash 中设置当前 shell 的自动补全,要先安装 bash-completion 包
[root@master ~]# source <(kubectl completion bash)
# 在您的 bash shell 中永久的添加自动补全
[root@master ~]# echo "source <(kubectl completion bash)" >> ~/.bashrc
# 在 zsh 中设置当前 shell 的自动补全
[root@master ~]# source <(kubectl completion zsh)
# 在您的 zsh shell 中永久的添加自动补全
[root@master ~]# echo "if [ [root@master ~]#commands[kubectl] ]; then source <(kubectl completion zsh); fi" >> ~/.zshrc
[root@master ~]# kubectl rollout SUBCOMMAND
[root@master ~]# kubectl rollout undo deployment/abc
[root@master ~]# kubectl rollout status daemonset/foo
该命令创建了一个新的RC, 然后一次更新一个pod方式逐步使用新的PodTemplate,最终实现Pod滚动更新,new-controller.json需要与之前RC在相同的namespace下。
语法:
rolling-update OLD_CONTROLLER_NAME ([NEW_CONTROLLER_NAME] --image=NEW_CONTAINER_IMAGE | -f NEW_CONTROLLER_SPEC)
[root@master ~]# kubectl rolling-update frontend-v1 -f frontend-v2.json
[root@master ~]# cat frontend-v2.json | kubectl rolling-update frontend-v1 -f -
[root@master ~]# kubectl rolling-update frontend-v1 frontend-v2 --image=image:v2
[root@master ~]# kubectl rolling-update frontend --image=image:v2
[root@master ~]# kubectl rolling-update frontend-v1 frontend-v2 --rollback
scale也可以指定多个前提条件,如:当前副本数量或 --resource-version ,进行伸缩比例设置前,系统会先验证前提条件是否成立。这个就是弹性伸缩策略。
语法:
kubectl scale [--resource-version=version] [--current-replicas=count] --replicas=COUNT (-f FILENAME | TYPE NAME)
[root@master ~]# kubectl scale --replicas=3 rs/foo
kubectl scale deploy/nginx --replicas=30
[root@master ~]# kubectl scale --replicas=3 -f foo.yaml
[root@master ~]# kubectl scale --current-replicas=2 --replicas=3 deployment/mysql
[root@master ~]# kubectl scale --replicas=5 rc/foo rc/bar rc/baz
指定Deployment、ReplicaSet或ReplicationController,并创建已经定义好资源的自动伸缩器。使用自动伸缩器可以根据需要自动增加或减少系统中部署的pod数量。
语法:
kubectl autoscale (-f FILENAME | TYPE NAME | TYPE/NAME) [--min=MINPODS] --max=MAXPODS [--cpu-percent=CPU] [flags]
[root@master ~]# kubectl autoscale deployment foo --min=2 --max=10
[root@master ~]# kubectl autoscale rc foo --max=5 --cpu-percent=80
[root@master ~]# kubeadm config view
例如,当有node节点要向master请求,那么是需要master节点授权的
[root@master ~]# kubectl certificate approve node-csr-81F5uBehyEyLWco5qavBsxc1GzFcZk3aFM3XW5rT3mw node-csr-Ed0kbFhc_q7qx14H3QpqLIUs0uKo036O2SnFpIheM18
[root@master ~]# kubectl cluster-info
以前需要heapster,后替换为metrics-server 【如果不装这个服务,会有error报错】
安装metrics以后,error报错就成使用率展示了
我博客分类中有一篇是:k8s安装metric server和了解ns,想了解的可以自己去看看学习学习。
查看所有
[root@master ~]# kubectl top pod --all-namespaces
[root@master ~]# kubectl top pod -n 命名名称 【命名名称查看:kubectl get ns】
[root@master ~]# kubectl top nodes
标记 my-node 为 unschedulable,禁止pod被调度过来。注意这时现有的pod还会继续运行,不会被驱逐。
[root@master ~]# kubectl cordon my-node
与cordon相反,标记 my-node 为 允许调度。
[root@master ~]# kubectl uncordon my-node
drain字面意思为排水,实际就是把my-node的pod平滑切换到其他node,同时标记pod为unschedulable,也就是包含了cordon命令。
[root@master ~]# kubectl drain my-node
但是直接使用命令一般不会成功,建议在要维护节点时,加上以下参数:
kubectl drain my-node --ignore-daemonsets --force --delete-local-data
key=value:effect
每个污点有一个 key 和 value 作为污点的标签,其中 value 可以为空,effect 描述污点的作用。设置污点
kubectl taint nodes k8s-node2 check=yuanzhang:NoExecute
节点说明中,查找Taints字段
kubectl describe nodes k8s-node2
去除污点
kubectl taint nodes k8s-node2 check:NoExecute-
要先知道所有的命名空间,你的pod可能不是在默认default中
[root@master ~]# kubectl get ns
NAME STATUS AGE
ccx Active 15h
ccxhero Active 15h
default Active 5d
kube-node-lease Active 5d
kube-public Active 5d
kube-system Active 5d
ns1 Active 16h
[root@master ~]#
这时需要获取指定命名空间中的pod名称,如我获取ccx下的pod
[root@master ~]# kubectl get pods -n ccx
NAME READY STATUS RESTARTS AGE
nginx-test-795d659f45-j9m9b 0/1 ImagePullBackOff 0 26m
nginx-test-795d659f45-txf8l 0/1 ImagePullBackOff 0 26m
[root@master ~]#
得到上面的pod名称后,加上-n 后面跟上命名空间,如果不加-n,则是使用默认的命名空间,会报错。
语法:kubectl describe pod -n pod所属ns podNAME
如下
[root@master ~]# kubectl describe pod -n ccx nginx-test-795d659f45-j9m9b
...
语法:
kubectl logs [-f] [-p] POD [-c CONTAINER]
[root@master ~]# kubectl logs nginx
[root@master ~]# kubectl logs -p -c ruby web-1
[root@master ~]# kubectl logs -f -c ruby web-1
[root@master ~]# kubectl logs --tail=20 nginx
[root@master ~]# kubectl logs --since=1h nginx
参数选项:
kubectl exec POD [-c CONTAINER] -- COMMAND [args...]
命令选项:
[root@master ~]# kubectl exec -it nginx-deployment-58d6d6ccb8-lc5fp bash
语法:
kubectl attach POD -c CONTAINER
参数选项:
[root@master ~]# kubectl attach 123456-7890
[root@master ~]# kubectl attach 123456-7890 -c ruby-container
切换到终端模式,将控制台输入发送到pod 123456-7890的ruby-container的“bash”命令,并将其结果输出到控制台
[root@master ~]# kubectl attach 123456-7890 -c ruby-container -i -t
用于pod和外部的文件交换,类似于docker 的cp,就是将容器中的内容和外部的内容进行交换。
语法:
kubectl cp <file-spec-src> <file-spec-dest> [options]
[root@master ~]# kubectl cp /tmp/foo_dir <some-pod>:/tmp/bar_dir
[root@master ~]# kubectl cp <some-namespace>/<some-pod>:/tmp/foo /tmp/bar
[root@master ~]# kubectl cp /tmp/foo <some-pod>:/tmp/bar -c <specific-container>
打印当前集群支持的api版本
[root@master ~]# kubectl api-versions
显示全部的命令帮助提示
[root@master ~]# kubectl --help
具体的子命令帮助,例如
[root@master ~]# kubectl create --help
设置 kubectl 与哪个 Kubernetes 集群进行通信并修改配置信息。查看 使用 kubeconfig 跨集群授权访问 文档获取详情配置文件信息。
为啥要加个合并呢,是因为如果配置了多集群,那么这里面的配置信息是很多的,如下,我配置了2个集群的config文件内容就如下【我博客中有一篇是:【Kubernetes】k8s多集群切换【含上下文作用详解】,这里面说了如何配置多集群,感兴趣的可以去看看。
[root@master ~]# kubectl config view
[root@master ~]# kubectl config view
apiVersion: v1
clusters:
- cluster:
certificate-authority-data: DATA+OMITTED
server: https://192.168.59.142:6443
name: master
- cluster:
certificate-authority-data: DATA+OMITTED
server: https://192.168.59.151:6443
name: master1
contexts:
- context:
cluster: master
namespace: default
user: ccx
name: context
- context:
cluster: master1
namespace: default
user: ccx1
name: context1
current-context: context
kind: Config
preferences: {}
users:
- name: ccx
user:
client-certificate-data: REDACTED
client-key-data: REDACTED
- name: ccx1
user:
client-certificate-data: REDACTED
client-key-data: REDACTED
[root@master ~]#
[root@master ~]# KUBECONFIG=~/.kube/config:~/.kube/kubconfig2 kubectl config view
[root@master ~]# kubectl config view -o jsonpath='{.users[?(@.name == "e2e")].user.password}'
[root@master ~]# kubectl config current-context
CURRENT是当前所处集群
[root@master ~]# kubectl config get-contexts
CURRENT NAME CLUSTER AUTHINFO NAMESPACE
* context master ccx default
context1 master1 ccx1 default
[root@master ~]#
使用:kubectl config get-contexts查看现在有的上下文【一般多集群才需要切换】
语法
kubectl config use-context 上下文名称【NAME】
如,我现在在context上,我切换到context1这个上下文上【也就切换到另一个集群了】
[root@master ~]# kubectl config get-contexts
CURRENT NAME CLUSTER AUTHINFO NAMESPACE
* context master ccx default
context1 master1 ccx1 default
[root@master ~]#
[root@master ~]# kubectl config use-context context1
Switched to context "context1".
[root@master ~]#
[root@master ~]# kubectl config get-contexts
CURRENT NAME CLUSTER AUTHINFO NAMESPACE
context master ccx default
* context1 master1 ccx1 default
[root@master ~]#
[root@master ~]# kubectl config set-credentials kubeuser/foo.kubernetes.com --username=kubeuser --password=kubepassword
[root@master ~]# kubectl config set-context gce --user=cluster-admin --namespace=foo \
&& kubectl config use-context gce
打印客户端和服务端版本信息【详细版】
[root@master ~]# kubectl version
精简版【仅显示版本号】
[root@master ~]# kubectl version --short
docker plugin命令用于管理插件。
用法
docker plugin COMMAND
Shell
编号 命令 描述
IP | 操作系统 |
---|---|
docker plugin create | 从rootfs和配置创建一个插件。插件数据目录必须包含config.json和rootfs目录。 |
192.168.2.125 | centos7.9 |
docker plugin enable | 启用插件 |
docker plugin inspect | 显示一个或多个插件的详细信息 |
docker plugin install | 安装一个插件 |
docker plugin ls | 列出所有插件 |
docker plugin push | 将插件推送到注册表 |
docker plugin rm | 删除一个或多个插件 |
docker plugin set | 更改插件的设置 |
docker plugin upgrade | 升级现有插件 |
通过文件名或控制台输入,对资源进行配置。 如果资源不存在,将会新建一个。可以使用 JSON 或者 YAML 格式。
语法:
kubectl apply -f FILENAME
[root@master ~]# kubectl apply -f ./pod.json
[root@master ~]# cat pod.json | kubectl apply -f -
语法:
kubectl patch (-f FILENAME | TYPE NAME) -p PATCH
[root@master ~]# kubectl patch node k8s-node-1 -p '{"spec":{"unschedulable":true}}'
[root@master ~]# kubectl patch pod valid-pod -p '{"spec":{"containers":[{"name":"kubernetes-serve-hostname","image":"new image"}]}}'
语法:
kubectl replace -f FILENAME
[root@master ~]# kubectl replace -f ./pod.json
[root@master ~]# cat pod.json | kubectl replace -f -
[root@master ~]# kubectl get pod mypod -o yaml | sed 's/\(image: myimage\):.*[root@master ~]#/\1:v4/' | kubectl replace -f -
[root@master ~]# kubectl replace --force -f ./pod.json
语法:
kubectl convert -f FILENAME
[root@master ~]# kubectl convert -f pod.yaml
[root@master ~]# kubectl convert -f pod.yaml --local -o json
[root@master ~]# kubectl convert -f . | kubectl create -f -
要以特定格式将详细信息输出到终端窗口,可以将-o或–output 参数添加到支持的 kubectl 命令。
Kubectl 日志输出详细程度是通过 -v 或者 --v 来控制的,参数后跟了一个数字表示日志的级别。
Kubernetes 通用的日志习惯和相关的日志级别在 这里 有相应的描述。