注:从kubetnetes中文社区转裁而来,经过安装测试,按文档可顺利完成安装。
过程中报下图错误,在master及node上安装socat后解决!
目前我们的一个产品共有4套环境:dev环境、test环境、staging环境、production环境。 其中dev, test, staging环境在一个Kubernetes集群上以不同namespace部署,production环境部署在另一个Kubernetes集群上。这个产品总共有14个微服务组成,对应gitlab中14个代码库,Kubernetes的deployment yaml文件也保存在代码库,为每个服务的每套环境以环境名创建了一个目录,里面是yaml文件,yaml文件的内容使用sed实现了简单的模板功能。14个服务*4套环境总共56个yaml文件,比较原始。
最近需要新起另外的一套测试环境这里称它为test2吧,需要在第一个Kubernetes集群上创建新的namespace,要维护的yaml文件马上也要增加到70个,有点噩梦的感觉了。 因此我们需要一个模板工具来管理这些yaml文件。早就知道helm这个东西,但为了保持简单,一直遵循着最少引入新东西的原则,那么现在是时候使用Helm了吧?
Helm是Kubernetes的一个包管理工具,用来简化Kubernetes应用的部署和管理。可以把Helm比作CentOS的yum工具。 Helm有如下几个基本概念:
使用Helm可以完成以下事情:
Helm由两部分组成,客户端helm和服务端tiller。
以下是摘自Helm – Application deployment management for Kubernetes的一张Helm的架构图,一图胜千言了。
我们将在Kubernetes 1.8上安装Helm。
首先从这里下载Helm的二进制文件. 这里下载的是helm 2.7.2,解压缩后将可执行文件helm拷贝到/usr/local/bin下。这样客户端helm就在这台机器上安装完成了。
此时运行helm version可以打印出客户端helm的版本,同时会提示无法连接到服务端Tiller。
helm version Client: &version.Version{SemVer:"v2.7.2", GitCommit:"8478fb4fc723885b155c924d1c8c410b7a9444e6", GitTreeState:"clean"} Error: cannot connect to Tiller
为了安装服务端tiller,还需要在这台机器上配置好kubectl工具和kubeconfig文件,确保kubectl工具可以在这台机器上访问apiserver且正常使用。
kubectl get cs NAME STATUS MESSAGE ERROR scheduler Healthy ok controller-manager Healthy ok etcd-4 Healthy {"health": "true"} etcd-0 Healthy {"health": "true"} etcd-2 Healthy {"health": "true"} etcd-3 Healthy {"health": "true"} etcd-1 Healthy {"health": "true"}
使用helm在k8s上部署tiller:
helm init --service-account tiller --skip-refresh Creating /root/.helm Creating /root/.helm/repository Creating /root/.helm/repository/cache Creating /root/.helm/repository/local Creating /root/.helm/plugins Creating /root/.helm/starters Creating /root/.helm/cache/archive Creating /root/.helm/repository/repositories.yaml Adding stable repo with URL: https://kubernetes-charts.storage.googleapis.com Adding local repo with URL: http://127.0.0.1:8879/charts $HELM_HOME has been configured at /root/.helm.
注意由于某些原因需要网络可以访问gcr.io和kubernetes-charts.storage.googleapis.com,如果无法访问可以通过helm init –service-account tiller –tiller-image
/tiller:2.7.2 –skip-refresh使用私有镜像仓库中的tiller镜像
tiller默认被部署在k8s集群中的kube-system这个namespace下。
kubectl get pod -n kube-system -l app=helm NAME READY STATUS RESTARTS AGE tiller-deploy-587df449fb-c6tzp 1/1 Running 0 9m
再次helm version可以打印客户端和服务端的版本:
helm version Client: &version.Version{SemVer:"v2.7.2", GitCommit:"8478fb4fc723885b155c924d1c8c410b7a9444e6", GitTreeState:"clean"} Server: &version.Version{SemVer:"v2.7.2", GitCommit:"8478fb4fc723885b155c924d1c8c410b7a9444e6", GitTreeState:"clean"}
因为我们将tiller部署在Kubernetes 1.8上,Kubernetes APIServer开启了RBAC访问控制,所以我们需要创建tiller使用的service account: tiller并分配合适的角色给它。 详细内容可以查看helm文档中的Role-based Access Control。 这里简单起见直接分配cluster-admin这个集群内置的ClusterRole给它。
创建rbac-config.yaml文件:
apiVersion: v1 kind: ServiceAccount metadata: name: tiller namespace: kube-system --- apiVersion: rbac.authorization.k8s.io/v1beta1 kind: ClusterRoleBinding metadata: name: tiller roleRef: apiGroup: rbac.authorization.k8s.io kind: ClusterRole name: cluster-admin subjects: - kind: ServiceAccount name: tiller namespace: kube-system
kubectl create -f rbac-config.yaml serviceaccount "tiller" created clusterrolebinding "tiller" created
已经安装helm的客户端helm和服务端tiller,下面要熟悉如何使用helm管理Kubernetes集群的安装包。
更新chart repo:
helm repo update
实际上如果helm所在的机器访问不了google的话,会报错,因为访问不了 “stable” chart repository (https://kubernetes-charts.storage.googleapis.com)
下面我们开始尝试创建一个chart,这个chart用来部署一个简单的服务。
helm create hello-svc Creating hello-svc tree hello-svc/ hello-svc/ ├── charts ├── Chart.yaml ├── templates │ ├── deployment.yaml │ ├── _helpers.tpl │ ├── ingress.yaml │ ├── NOTES.txt │ └── service.yaml └── values.yaml 2 directories, 7 files
先熟悉一下hello-svc这个chart中目录和文件内容:
cat Chart.yaml apiVersion: v1 description: A Helm chart for Kubernetes name: hello-svc version: 0.1.0
通过查看deployment.yaml和value.yaml,大概知道这个chart默认安装就是在Kubernetes部署一个nginx服务。
更多Chart的内容可以查看Chart官方文档
使用helm在Kubernetes上安装chart时,实际上是将chart的模板生成Kubernetes使用的manifest yaml文件。 在编写chart的过程中可以chart目录下使用helm install –dry-run –debug ./来验证模板和配置。
helm install --dry-run --debug ./ [debug] Created tunnel using local port: '22635' [debug] SERVER: "127.0.0.1:22635" [debug] Original chart version: "" [debug] CHART PATH: /root/helm/hello-svc NAME: foolish-zebra REVISION: 1 ......输出基于配置值和模板生成的yaml文件
在hello-svc这个chart目录下执行:
helm install ./ NAME: wishful-squid LAST DEPLOYED: Thu Dec 21 22:04:19 2017 NAMESPACE: default STATUS: DEPLOYED RESOURCES: ==> v1/Service NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE wishful-squid-hello-svc ClusterIP 10.111.223.24380/TCP 0s ==> v1beta1/Deployment NAME DESIRED CURRENT UP-TO-DATE AVAILABLE AGE wishful-squid-hello-svc 1 0 0 0 0s ==> v1/Pod(related) NAME READY STATUS RESTARTS AGE wishful-squid-hello-svc-6bbb59dfb6-smvz5 0/1 Pending 0 0s NOTES: 1. Get the application URL by running these commands: export POD_NAME=$(kubectl get pods --namespace default -l "app=hello-svc,release=wishful-squid" -o jsonpath="{.items[0].metadata.name}") echo "Visit http://127.0.0.1:8080 to use your application" kubectl port-forward $POD_NAME 8080:80
查看release:
helm list NAME REVISION UPDATED STATUS CHART NAMESPACE wishful-squid 1 Thu Dec 21 22:04:19 2017 DEPLOYED hello-svc-0.1.0 default
删除release:
helm delete wishful-squid release "wishful-squid" deleted
打包:
helm package ./ tree . ├── charts ├── Chart.yaml ├── hello-svc-0.1.0.tgz ├── templates │ ├── deployment.yaml │ ├── _helpers.tpl │ ├── ingress.yaml │ ├── NOTES.txt │ └── service.yaml └── values.yaml