集群管理、失败转移和负载均衡的实践(上)

    在前一章节中,我们快速的介绍了集群管理、Linux容器,接下来让我们使用这些技术来解决微服务的伸缩性问题。作为参考,我们使用的微服务工程来自于第二、第三和第四章节(Spring Boot、Dropwizard和WildFly Swarm)中的内容,接下来的步骤都适合上述三款框架。

开始

    我们需要将微服务打包成为Docker镜像,最终将其部署到Kubernetes,首先进入到项目工程hola-springboot,然后启动jboss-forge,然后安装fabric8插件,这个插件使我们安装maven插件变得非常容易。

$ cd ~/Documents/workspace/microservices-camp/
weipengktekiMBP:microservices-camp weipeng2k$ ls
README.md         SUMMARY.md        book              book.json         hola-backend      hola-dropwizard   hola-springboot   hola-wildflyswarm hola-x            resource
$ forge
Using Forge at /usr/local/Cellar/jboss-forge/3.7.1.Final/libexec

    _____                    
   |  ___|__  _ __ __ _  ___
   | |_ / _ \| `__/ _` |/ _ \  \\
   |  _| (_) | | | (_| |  __/  //
   |_|  \___/|_|  \__, |\___|
                   |__/      

JBoss Forge, version [ 3.7.1.Final ] - JBoss, by Red Hat, Inc. [ http://forge.jboss.org ]
Hit '' for a list of available commands and 'man [cmd]' for help on a specific command.

To quit the shell, type 'exit'.

[microservices-camp]$ addon-install --coordinate io.fabric8.forge:devops,2.2.148
***SUCCESS*** Addon io.fabric8.forge:devops,2.2.148 was installed successfully.
[microservices-camp]$ cd hola-springboot/
[hola-springboot]$ ls
hola-springboot.iml  mvnw  mvnw.cmd  pom.xml  src  target

[hola-springboot]$ fabric8-setup
***SUCCESS*** Added Fabric8 Maven support with base Docker image: fabric8/java-jboss-openjdk8-jdk:1.0.10. Added the following Maven profiles [f8-build, f8-deploy, f8-local-deploy] to make building the project easier, e.g. mvn -Pf8-local-deploy

    运行完fabric8-setup之后,然后在IDE中打开pom.xml,可以发现增加了一些属性。


    UTF-8
    artifact
    docker.io/fabric8/java-jboss-openjdk8-jdk:1.0.10
    weipeng2k/${project.artifactId}:${project.version}
    8080
    8778
    icons/spring-boot
    /health
    8080
    5
    30
    8080
    hola-springboot
    80
    LoadBalancer
    UTF-8
    1.8

注意这里docker.image改为了$username,使用者需要结合自己的情况进行修改

    并且添加了两个maven插件:docker-maven-pluginfabric8-maven-plugin


  io.fabric8
  docker-maven-plugin
  0.14.2
  
      
          
              ${docker.image}
              
                  ${docker.from}
                  
                      /app
                      ${docker.assemblyDescriptorRef}
                  
                  
                      ${project.artifactId}-${project.version}.war
                      -Djava.security.egd=/dev/./urandom
                  
              
          
      
  


  io.fabric8
  fabric8-maven-plugin
  2.2.100
  
      
          json
          generate-resources
          
              json
          
      
      
          attach
          package
          
              attach
          
      
  

    除了maven插件,还增加了一些maven profiles:

  • f8-build
    构建docker镜像和Kubernetes的manifest.yml
  • f8-deploy
    构建docker镜像、部署到远端的docker注册中心,并部署应用到Kubernetes
  • f8-local-deploy
    构建docker镜像,生成Kubernetes的manifest.yml并部署到本地运行的Kubernetes

    jboss-forge插件是Fabric8开源项目的一部分,Fabric8构建工具可以同Docker、Kubernetes、OpenShift进行交互,同时基于maven插件可以提供给应用诸如:依赖注入Spring/CDI、访问Kubernetes和OpenShift的API。Fabric8同时也集成了API管理,chaos monkey以及NetflixOSS等功能。

将微服务构建为Docker镜像

    当hola-springboot项目添加了maven插件后,就可以使用maven命令来构建docker镜像了,在构建镜像之前需要确定系统以及安装了CDK。 由于我们并没有安装CDK,所以需要进行一些配置和操作 ,首先需要将Docker服务暴露出管理API的端口,以及添加环境变量。

笔者并没有在mac进行构建,而是将代码push到git后,在ubuntu上执行构建的。

    更改Docker服务,暴露管理的API端口的操作首先需要更改docker的配置,以ubuntu为例:sudo vi /lib/systemd/system/docker.service,将其中的 ExecStart 的值做修改:

ExecStart=/usr/bin/dockerd -H fd:// -H unix:///var/run/docker.sock -H tcp://0.0.0.0:4243

    然后重启docker daemon,通过以下命令完成重启:

sudo systemctl daemon-reload
sudo systemctl restart docker

可以通过telnet localhost 4243 来检测一下,docker的API是否开始暴露了。

    接下来需要设置环境变量,通过修改~/.profile,修改内容如下:

export DOCKER_HOST="tcp://127.0.0.1:4243"
PATH="$HOME/bin:$HOME/.local/bin:$PATH"

    这个DOCKER_HOST环境变量就是fabric8构建时获取的Docker API,然后完成镜像的构建。在做完这些操作之后,在hola-springboot工程下,运行fabric8构建命令。

$:~/Documents/workspace/microservices-camp/hola-springboot$ mvn -Pf8-build
[INFO] Scanning for projects...
[INFO]                                                                         
[INFO] ------------------------------------------------------------------------
[INFO] Building hola-springboot 1.0
[INFO] ------------------------------------------------------------------------
[INFO]
[INFO] Added environment annotations:
[INFO]     Service hola-springboot selector: {project=hola-springboot, provider=fabric8, group=com.murdock.examples} ports: 80
[INFO]     ReplicationController hola-springboot replicas: 1, image: fabric8/hola-springboot:1.0
[INFO] Template is now:
[INFO]     Service hola-springboot selector: {project=hola-springboot, provider=fabric8, group=com.murdock.examples} ports: 80
[INFO]     ReplicationController hola-springboot replicas: 1, image: fabric8/hola-springboot:1.0
[INFO] ------------------------------------------------------------------------
[INFO] BUILD SUCCESS
[INFO] ------------------------------------------------------------------------
[INFO] Total time: 36.954 s
[INFO] Finished at: 2017-08-12T21:24:56+08:00
[INFO] Final Memory: 52M/762M
[INFO] ------------------------------------------------------------------------

部署到Kubernetes

    如果我们安装了Docker的客户端,我们可以在构建完成后查看是否生成了对应的镜像,可以看到通过mvn -Pf8-build之后,在本地安装了镜像。

$ sudo docker images
REPOSITORY                        TAG                 IMAGE ID            CREATED             SIZE
weipeng2k/hola-springboot           1.0                 7405f14d812e        21 seconds ago      436MB
fabric8/java-jboss-openjdk8-jdk   1.0.10              1a13e31efd4b        13 months ago       421MB

    如果环境配置正确,并且启动了CDK,就可以使用mvn -Pf8-local-deploy来部署到本地的Kubernetes上。Kubernetes暴露了一个REST接口,并允许外界操作集群,Kubernetes遵循最终状态一致的原则,使用者只需要描述部署的要求和模式,Kubernetes就会尽力将其完成。举个例子:如果我们需要启动一个运行了hola-springboot的Pod,我们可以通过HTTP请求,将一个JSON/YAML传递给Kubernetes,Kubernetes会理解请求,然后创建对应的Pod,在Pod中创建Docker容器来运行应用,并在集群中对Pod进行调度。一个Kubernetes的Pod是原子化的,能够在Kubernetes集群中进行调度,同时它是有至少一个Docker容器所组成。

    通过使用fabric8-maven-plugin可以将项目完成构建并通过Kubernetes的REST接口创建Pod,只需要运行mvn -Pf8-local-deploy,然后通过CDK的oc get pod检查是否部署成功。由于译者并没有使用CDK ,所以采用的方式是通过mvn -Df8-build来构建镜像,然后用minikube将镜像在本地完成部署的方式来进行,下面介绍一下具体的操作方式。我们观察可以发现,通过执行mvn -Pf8-build后在本地的docker镜像仓库中已经生成了镜像,如果使用原生的docker是否可以启动它呢?我们尝试一下。

以下内容在功能上同原文一致,但是工具使用上不会使用CDK
docker部署属于新增内容

$ sudo docker run -d -p 8080:8080 --name hola-spring -it weipeng2k/hola-springboot:1.0
264c5d2ca402910d3c567dd4f0f19b6e04a769e503ac8d198441f35b2e8c7d58
$ curl http://localhost:8080/api/holaV1
Hola Spring Boot @ 172.17.0.2

    可以看到我们通过docker run启动了一个容器,并将容器的8080端口绑定到了本机的8080上,当然启动一个容器是不够的,我们需要分布式部署应用,因此需要多个容器实例,可以通过在本机不同端口上启动多个容器实例,具体做法如下:

$ sudo docker run -d -p 8081:8080 -it --name hola-springboot2 weipeng2k/hola-springboot:1.0
492451e8b52993084246dc2b4ff78e7fff41f95d89e3f01670c2d6cec9774a47
$ curl http://localhost:8081/api/holaV1
Hola Spring Boot @ 172.17.0.3

    通过启动一个映射在本机8081端口上的容器,这样客户端就可以通过负载均衡策略来访问其中一个容器中的应用了。由于镜像具备不变递交的特性,那么就可以在不同的主机上部署多个相同的容器实现分布式部署,这么一看,实现分布式部署在docker的帮助下其实很简单呢,但是还是会面对以下问题:

  • 如果其中一个容器实例崩溃了呢?
  • 整个系统的负载是否可以支持?
  • 如果扩容,已经有了最终的容器实例数,但是要新增多少个呢?
  • 客户端的负载均衡如何保证健壮性?

    直接使用docker容器来进行部署,会面对这些问题,而接下来将使用Kubernetes进行部署,在它的帮助下来解决这些问题。接下来,采用yml的方式部署到Kubernetes,首先运行完成mvn -Pf8-build之后,在classes目录下会生成Kubernetes的部署描述符。

microservices-camp/hola-springboot/target/classes$ ls
application.properties  com  kubernetes.json  kubernetes.yml  META-INF

    其中kubernetes.jsonkubernetes.ymlf8插件替我们生成的,但是该文件的格式只有CDK认识,标准的Kubernetes无法识别,我们需要从中截取一部分才能够使用,生成部署描述文件主要由两部分,一个是Service,另一个是ReplicationController,我们在正式部署时,很少的面对Pod,因为它太细节,更多的是面向ServiceReplicationController。我们使用yml来创建,先将kubernetes.yml中的ReplicationController部分拷贝到另一个文件中,文件名可以自定义,文件内容如下:

译者创建了一个rc.yml的部署描述文件,放置在hola-springboot工程目录下

apiVersion: "v1" #指定api版本,此值必须在kubectl api-version中
kind: "ReplicationController" #指定创建资源的角色/类型
metadata: #资源的元数据/属性
  annotations: #自定义注解列表
    fabric8.io/git-branch: "master"
    fabric8.io/git-commit: "116ea497b4f32f48d9395827c5879955b1eca71d"
  labels:
    project: "hola-springboot"
    provider: "fabric8"
    version: "1.0"
    group: "com.murdock.examples"
  name: "hola-springboot"
spec:
  replicas: 1 #副本数量
  selector: #RC通过spec.selector来筛选要控制的Pod
    project: "hola-springboot"
    provider: "fabric8"
    version: "1.0"
    group: "com.murdock.examples"
  template: #这里写Pod的定义
    metadata:
      annotations: {}
      labels:
        project: "hola-springboot"
        provider: "fabric8"
        version: "1.0"
        group: "com.murdock.examples"
    spec: #这里是资源内容
      containers:
      - args: []
        command: []
        env: #指定容器中的环境变量
        - name: "KUBERNETES_NAMESPACE"
          valueFrom:
            fieldRef:
              fieldPath: "metadata.namespace"
        image: "weipeng2k/hola-springboot:1.0"
        name: "hola-springboot"
        ports:
        - containerPort: 8080
          name: "http"
        - containerPort: 8778
          name: "jolokia"
        readinessProbe: #pod内容器健康检查的设置
          httpGet: #通过httpget检查健康,返回200-399之间,则认为容器正常
            path: "/health"
            port: 8080
          initialDelaySeconds: 5
          timeoutSeconds: 30
        securityContext: {}
        volumeMounts: []
      imagePullSecrets: []
      nodeSelector: {}
      volumes: []

    运行kubectl create命令可以将镜像进行部署,创建对应的Pod。

$ kubectl create -f rc.yml
replicationcontroller "hola-springboot" created

    运行kubectl get pods可以查看创建的Pod,可以看到hola-springboot-fmfc7就是我们进行部署的Pod

$ kubectl get pod
NAME                              READY     STATUS    RESTARTS   AGE
hello-minikube-2210257545-ndc6s   1/1       Running   4          20d
hola-springboot-fmfc7             1/1       Running   0          1m

一个Java的微服务启动时间到自检完成,可能在30s以上

    接下来,可以通过kubectl delete pod $pod_name来停止一个Pod。

$ kubectl delete pod hola-springboot-fmfc7
pod "hola-springboot-fmfc7" deleted
$ kubectl get pods
NAME                              READY     STATUS    RESTARTS   AGE
hello-minikube-2210257545-ndc6s   1/1       Running   4          20d
hola-springboot-k843c             0/1       Running   0          4s

    可以看到,虽然通过kubectl delete删除了一个Pod,但是Kubernetes迅速的又启动了一个,简直就是一个打不死的小强,更准确的说另一个Pod在我们删除上一个Pod后被创建了。Kubernetes能够为你的微服务做到启动、停止和自动重启,你能想象如果你要检查一个服务的容量有多困难吗?让我们接下来探索Kubernetes带来的更有价值的集群管理技术,并用这些技术来管理我们的微服务。

伸缩性

    微服务架构的一个巨大优点就是可伸缩性,我们能够在集群中复制很多服务,但不用担心端口冲突、JVM或者依赖缺失。在Kubernetes中,可以通过 ReplicationController 完成伸缩工作,我们先查看一下本机环境中部署的 ReplicationController

$ kubectl get rc
NAME              DESIRED   CURRENT   READY     AGE
hola-springboot   1         1         0         1m

    可以看到我们创建了一个 ReplicationController,在rc.yml中,我们定义replicas1,这代表在任何时候都要有一个Pod实例运行我们的微服务应用,如果一个Pod挂掉,Kubernetes会进行判断该Pod的最终状态是需要几个,然后为我们创建等额的Pod,如果我们需要改变Pod(复制体)的数量,做到服务的伸缩该怎么办呢?

$ kubectl scale rc hola-springboot --replicas=3
replicationcontroller "hola-springboot" scaled

    运行kubectl scale rc $rc_name --replicas=$count可以调整复制控制器的Pod目标数目,上述命令将hola-springboot调整为3个。我们使用kubectl get pods观察一下是否生效。

$ kubectl get pods
NAME                              READY     STATUS    RESTARTS   AGE
hola-springboot-6fj5k             1/1       Running   0          1h
hola-springboot-k843c             1/1       Running   0          1h
hola-springboot-ltzs5             1/1       Running   0          1h

    如果这个过程中这些Pod有挂掉,Kubernetes将会尽可能的确定复制体的数量是 3。注意,我们不需要改变这些服务监听的端口或者任何不自然的端口映射,每一个实例都是在监听8080端口,而且相互之间不会冲突。接下来将复制体的数量设置为0,只需要运行以下命令:

$ kubectl scale rc hola-springboot --replicas=0
replicationcontroller "hola-springboot" scaled
$ kubectl get pods
No resources found.

    Kubernetes也具备根据各种指标,诸如:CPU、内存使用率或者用户自定义触发器来进行 自行伸缩 的能力,能控制复制体(Pod)的增加或者减少。自行伸缩已经超过了本书的范畴,但是它仍是我们需要关注的集群管理技术。

一般一个Pod会占一个CPU,如果是4核,那么就可以运行4个,超过4个后,你会发现各个Pod在交替启动运行,本机使用的A8是4核处理器,在默认情况下无法保证4个以上的Pod都处于Running状态

服务发现(Service discovery)

    我们需要理解Kubernetes中最后一个概念是 Sevice , 一个Service是一组Pods之间间接关系的简单抽象,它是应用用来描述一组Pods的表现形式。我们在之前的例子中看到Kubernetes是如何管理Pods的创建和消亡,我们也了解到Kubernetes能够方便的进行一个服务的伸缩,在接下来的例子中,我们将尝试启动hola-backend服务,然后使用hola-springboothola-backend之间进行通信。

hola-backend服务之前作为服务提供方,提供了Book的创建和查询服务,这里的backend比原书中的例子更贴近现实

    接下来将hola-backend镜像化,然后分别在Docker和Kubernetes中尝试部署, 这部分内容在原书中没有涉及。对于hola-backend的镜像构建,我们需要将WildFly构建在其中,所以先进入hola-backend工程目录,执行mvn构建,然后在target目录下建立Dockerfile并进行镜像构建。

microservices-camp/hola-backend$ mvn clean package
microservices-camp/hola-backend$ cd target/
weipeng2k@weipeng2k-workstation:~/Documents/workspace/microservices-camp/hola-backend/target$ ls
classes  generated-sources  hola-backend  hola-backend-swarm.jar  hola-backend.war  hola-backend.war.original  maven-archiver  maven-status
microservices-camp/hola-backend/target$ vi Dockerfile

    Dockerfile的内容如下:

FROM jboss/wildfly
MAINTAINER weipeng2k "[email protected]"
ADD hola-backend.war /opt/jboss/wildfly/standalone/deployments/

    可以看到父镜像来自于jboss/wildfly,构建时将war包拷贝到jboss WildFly默认的部署目录,执行sudo docker build -t="weipeng2k/hola-backend:1.0" .进行镜像构建,随后在启动这个镜像时,将会完成hola-backend的部署。

如果不想本地构建进项,可以执行sudo docker pull weipeng2k/hola-backend:1.0从docker hub上获取

    启动镜像,通过执行sudo docker run --name hola-backend -itd -p 8080:8080 weipeng2k/hola-backend:1.0(如果自己构建的镜像,注意镜像的名称),启动容器后将本机的8080端口与容器中的8080进行映射,可以使用Postman进行测试。

    接下来需要创建Kubernetes对应的ReplicationController和Service,需要编写Kubernetes描述文件,先看一下ReplicationController描述文件。

rc.yml和svc.yml可以在hola-backend工程目录下找到

apiVersion: "v1" #指定api版本,此值必须在kubectl api-version中
kind: "ReplicationController" #指定创建资源的角色/类型
metadata: #资源的元数据/属性
  labels:
    project: "hola-backend"
    provider: "fabric8"
    version: "1.0"
    group: "com.murdock.examples"
  name: "hola-backend"
spec:
  replicas: 1 #副本数量
  selector: #RC通过spec.selector来筛选要控制的Pod
    project: "hola-backend"
    provider: "fabric8"
    version: "1.0"
    group: "com.murdock.examples"
  template: #这里写Pod的定义
    metadata:
      annotations: {}
      labels:
        project: "hola-backend"
        provider: "fabric8"
        version: "1.0"
        group: "com.murdock.examples"
    spec: #这里是资源内容
      containers:
      - args: []
        command: []
        env: #指定容器中的环境变量
        - name: "KUBERNETES_NAMESPACE"
          valueFrom:
            fieldRef:
              fieldPath: "metadata.namespace"
        image: "weipeng2k/hola-backend:1.0"
        name: "hola-backend"
        ports:
        - containerPort: 8080
          name: "http"
        readinessProbe: #pod内容器健康检查的设置
          httpGet: #通过httpget检查健康,返回200-399之间,则认为容器正常
            path: "/"
            port: 8080
          initialDelaySeconds: 5
          timeoutSeconds: 30
        securityContext: {}
        volumeMounts: []
      imagePullSecrets: []
      nodeSelector: {}
      volumes: []

    在rc.yml中定义了Pods,以及服务对应的镜像,通过kubectl create -f rc.yml可以让Kubernetes创建对应的ReplicationController,然后按照replicas中对复制体的数量约定,开始创建一个Pod。

启动的过程比较慢,原因在于下载weipeng2k/hola-backend:1.0这个镜像,后续读者可以使用aliyun等镜像,如果要确定当前Kubernetes的工作状态,可以使用kubectl describe pods来观察当前的部署情况

可以通过minikube ssh登录,然后执行docker pull weipeng2k/hola-backend:1.0后,可以观察到下载进度,该过程比较缓慢

    当hola-backend的ReplicationController启动后,可以通过kubectl get pods检查一下当前Pod的状态。

$ kubectl get pods
NAME                 READY     STATUS    RESTARTS   AGE
hola-backend-t06sg   1/1       Running   1          2d
$ kubectl get rc
NAME           DESIRED   CURRENT   READY     AGE
hola-backend   1         1         1         2d

    可以看到我们检查了刚创建的ReplicationController和由ReplicationController创建出来的Pod,接着我们开始创建Service,通过kubectl create -f svc.yml可以让Kubernetes创建对应的服务。

apiVersion: "v1"
kind: "Service"
metadata:
  annotations: {}
  labels:
    project: "hola-backend"
    provider: "fabric8"
    version: "1.0"
    group: "com.murdock.examples"
  name: "hola-backend"
spec:
  deprecatedPublicIPs: []
  externalIPs: []
  ports:
  - port: 80
    protocol: "TCP"
    targetPort: 8080
  selector: # Service使用该selector来对应到Pods
    project: "hola-backend"
    provider: "fabric8"
    group: "com.murdock.examples"
  type: "LoadBalancer"

    通过kubectl get service可以查看在Kubernetes中部署的服务。

$ kubectl get svc
NAME           CLUSTER-IP   EXTERNAL-IP   PORT(S)        AGE
hola-backend   10.0.0.131        80:30699/TCP   1h
kubernetes     10.0.0.1             443/TCP        33d

    注意 Service 创建出来后,有两个有趣的属性需要我们关注一下。一个是 CLUSTER-IP,这个虚拟的IP被分配给了一个Service实例,分配之后不会变化,这是一个固定的IP,在Kubernetes集群中运行的实例都能够通过这个IP和后面的 Pods 进行通信。而 Service后面的Pods是被 SELECTOR 选择出来的。可以看到当前svc.yml中定义的selector对于属性的指定。Pods在Kubernetes中可以被标定上任意的属性,你可以使用(类似:version、component或者team等)各种KV表示。在这个例子中,一个名为hola-backend服务,它会选择标有project=hola-backend and provider=fabric8的Pods,这代表着只要能够通过该选择器选择到的Pods,都能够用这个服务的CLUSTER-IP所访问到,而这个过程不需要复杂的分布式注册中心(例如:Zookeeper、Consule或者Eureka)支持,这个机制是Kubernetes内置的特性,集群级别(Cluster-level)的 DNS 也被内置在Kubernetes中。使用DNS作为微服务的服务发现机制是非常有挑战和困难的,在Kubernetes中集群的DNS指向CLUSTER-IP,而这个CLUSTER-IP对于各个服务是固定不变的,这样就不会出现使用传统的DNS解决方案中面对的DNS缓存或者其他诡异的问题。

原书中是component=backend,应该是错误,不应该是component而是project

    我们可以给hola-springboot添加一组环境变量,让其books.backendHostbooks.backendPort能够指定到hola-backend服务上,这样我们就可以在Kubernetes中运行hola-springboot并使其调用后端的hola-backend服务,在hola-springboot中添加配置。

hola-backend
80

    Spring Boot会解析我们在应用中配置的application.properties,但是它会被系统环境变量所覆盖,通过执行mvn fabric8:json可以生成新的Kubernetes描述文件。这里原书中的Spring Boot示例存在问题 ,因为它没有定义和环境变量之间的映射关系,这样做是无法工作的,因此译者采取的方式是修改application.properties中的内容,重新构建镜像(1.1版本),然后在Kubernetes中部署,把这个例子跑起来。

    在没有部署到容器之前,我们对于hola-springbootapplication.properties的定义是基于ip的,因此我们需要将其修改为基于域名,如下所示:

helloapp.saying=Guten Tag aus
management.security.enabled=false
books.backendHost=hola-backend
books.backendPort=80

其中hola-backend服务支持在Kubernetes中对hola-backend这个域名解析,同时将请求派发到后端的Pods上

    修改pom.xml,将版本号改为1.1,保证每次镜像的构建都是独立的。

    在hola-springboot工程目录下执行mvn -Pf8-build,构建镜像到本地,然后通过docker push $image将其推到docker hub,这样Kubernetes才能够下载对应的镜像。新的镜像是weipeng2k/hola-springboot:1.1,这样也需要新的rc.yml,我们只需要修改原来spring-boot中的镜像版本即可(将其从1.0改为1.1)。

hola-springboot工程根目录下,rc2.ymlsvc2.yml对应的是修改后的Kubernetes配置

    运行kubectl create -f rc2.ymlkubectl create -f svc2.yml,创建了hola-springboot对应的ReplicationController和Service,通过kubectl get pods可以观察已经创建的Pods。

$ kubectl get pods
NAME                    READY     STATUS    RESTARTS   AGE
hola-backend-t06sg      1/1       Running   1          2d
hola-springboot-mdx1v   1/1       Running   0          1m

    现在我们想象有一种Debug技术,能够有端口转发的能力,它能够建立起hola-springboot-mdx1v和本机之间的管理,这样我们就可以验证服务是否正常工作,这个功能在Kubernetes中通过kubectl port-forward来完成。由于kubectl port-forward会启动一个进程来完成本机和Pods之间的通信,所以我们将其设定成为后台进程,防止它退出。

$ kubectl port-forward hola-springboot-mdx1v 9000:8080 &
[1] 7478
$ kubectl port-forward hola-backend-t06sg 9001:8080 &
[2] 7490

    我们建立两个port-forward,分别指向hola-springboothola-backend,端口分别是本机的90009001,现在我们尝试访问一下hola-springboot

$ curl http://localhost:9000/api/holaV1
Handling connection for 9000
Hola Spring Boot @ 172.17.0.5

    返回的172.17.0.5就是Kubernetes为当前Pod分配的IP,接着我们需要访问一下Book接口,在此之前我们先添加一本书。

$ curl -H "Content-Type: application/json" -X POST -d '{"name":"Java编程的艺术","authorName":"魏鹏","publishDate":"2015-07-01"}' http://localhost:9001/hola-backend/rest/books/
Handling connection for 9001

    在访问hola-backend添加了一个数据之后,我们访问hola-springboot

$ curl http://localhost:9000/api/books/1
Handling connection for 9000
{id=1, version=0, name=Java编程的艺术, authorName=魏鹏, publishDate=2015-07-01}

    我们可以看到hola-backend返回给了hola-springboot正确的查询数据,因此我们的服务被正确的发现了,而这仅仅是使用到了Kubernetes服务发现的一部分特性。需要特别指出的是,这个过程我们没有使用任何额外的客户端组件来完成服务的注册和发现,我们虽然使用了Java来完成这个场景的构建,但是Kubernetes集群的DNS能够提供技术无关的支持,一个基础通用的服务发现机制。

你可能感兴趣的:(集群管理、失败转移和负载均衡的实践(上))