Envoy反向代理微服务实践

微服务介绍

在传统模式下,如果微服务之间要进行通信,那么程序需要自己处理各种通信的细节,这就包括服务发现、熔断机制、超时重试和 tracing 等功能。这些功能通常实现为与某种编程语言相关的 library,这也导致了这样的 library 无法在不同的编程语言之间共享。

Envoy反向代理微服务实践_第1张图片
image

更进一步,如果我们可以将这部分功能抽取出来,形成一个独立的进程,这样的进程称为 Sidecar。通常来说,我们会将应用程序和 Sidecar 部署在一起,那么程序的入口流量和出口流量都会由这个 Sidecar 去代理,这样就可以通过 Sidecar 去实现服务发现、熔断机制、超时重试等功能了。

Envoy反向代理微服务实践_第2张图片
image

Envoy Proxy 介绍

Envoy Proxy 可以用来充当 Sidecar 进程。通常来说,我们会将应用程序和 Envoy 部署在一起,形成一个微服务。另一方面,为了实现高可用,通常一个微服务会部署多份副本,这些副本加在一起,就形成了 Service Cluster。下图显示的就是服务与服务之间的通信:

Envoy反向代理微服务实践_第3张图片
image.png

除了可以充当 Sidecar 进程之外,Envoy Proxy 还可以充当反向代理,将流量转发给后端的 Service Cluster。充当反向代理的 Envoy,通常也可以称为 Edge Envoy。

Envoy反向代理微服务实践_第4张图片
image.png

构建程序镜像

在部署应用程序之前,需要先构建 Docker 镜像,下面是一个简单的 Flask 程序app.py


import socket
from flask import Flask
app = Flask(__name__)
@app.route('/')
def hello_world():
    return 'Hello, World!'
@app.route('/healthy_check')
def healthy_check():
    service = socket.gethostname()
    ip = socket.gethostbyname(service)
    return 'I am fine! '.format(service, ip)
if __name__ == '__main__':
    app.run(debug=True, host='0.0.0.0', port=5000)

具体的 Dockerfile 以及构建镜像需要用到的命令,可以见这里。

在 K8S 部署微服务

这个微服务由两个进程组成,一个是 Envoy 进程(充当 Sidecar),另一个是 Flask 程序。Envoy 的作用其实很简单,就是监听 80 端口,并将接收到的foo.com这个域名的全部流量都转发给 Flask 程序,下面是它的配置文件envoy.json(稍后再解释 Envoy 配置文件的含义):

{
  "listeners": [
    {
      "address": "tcp://0.0.0.0:80",
      "filters": [
        {
          "type": "read",
          "name": "http_connection_manager",
          "config": {
            "codec_type": "auto",
            "stat_prefix": "ingress_http",
            "route_config": {
              "virtual_hosts": [
                {
                  "name": "local_service",
                  "domains": ["foo.com"],
                  "routes": [
                    {
                      "timeout_ms": 0,
                      "prefix": "/",
                      "cluster": "local_service"
                    }
                  ]
                }
              ]
            },
            "filters": [
              {
                "type": "decoder",
                "name": "router",
                "config": {}
              }
            ]
          }
        }
      ]
    }
  ],
  "admin": {
    "access_log_path": "/dev/stdout",
    "address": "tcp://0.0.0.0:8001"
  },
  "cluster_manager": {
    "clusters": [
      {
        "name": "local_service",
        "connect_timeout_ms": 250,
        "type": "static",
        "lb_type": "round_robin",
        "hosts": [
          {
            "url": "tcp://127.0.0.1:5000"
          }
        ]
      }
    ]
  }
}

具体的 Kubernetes 配置文件放在了这里,git clone这个项目,并执行下面的命令,部署微服务:

$ kubectl create configmap envoy-config --from-file flask-app-envoy/envoy.json
$ kubectl apply -f flask-app-envoy/deployment.yaml
$ kubectl apply -f flask-app-envoy/service.yaml

通常,在部署微服务时,会部署微服务的多个副本,形成 Service Cluster。例如,在部署之后,可以看到,Service Cluster 的名称为flask-app-envoy-service

$ kubectl get services
NAME                      TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)        AGE
flask-app-envoy-service   ClusterIP   10.43.134.179           80/TCP         1m

同时也可以看到,这个 Service Cluster 中包含了 4 个相同的 Service:

$ kubectl get deployments
NAME                         DESIRED   CURRENT   UP-TO-DATE   AVAILABLE   AGE
flask-app-envoy-deployment   4    

$ kubectl get servicetemn kube-sys

NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE

kubernetes-envoy-sds ClusterIP 10.43.93.232 80/TCP 1d

$ kubectl get deployments -n kube-system

NAME DESIRED CURRENT UP-TO-DATE AVAILABLE AGE

kubernetes-envoy-sds 1 1 1 1 1d

Envoy 充当反向代理

在部署好微服务之后,还需要部署一个 Envoy 充当反向代理(充当反向代理 Envoy,也称为 Edge Envoy),用来将foo.com这个域名的流量转发给后端的 Flask Service Cluster。下面是 Edge Envoy 的配置文件envoy.json:

{
  "listeners": [
    {
      "address": "tcp://0.0.0.0:80",
      "filters": [
        {
          "type": "read",
          "name": "http_connection_manager",
          "config": {
            "access_log": [
              {
                "path": "/dev/stdout"
              }
            ],
            "codec_type": "auto",
            "stat_prefix": "ingress_http",
            "route_config": {
              "virtual_hosts": [
                {
                  "name": "backend",
                  "domains": ["foo.com"],
                  "routes": [
                    {
                      "timeout_ms": 0,
                      "prefix": "/",
                      "cluster": "flask-app-envoy-service.default.svc.cluster.local"
                    }
                  ]
                }
              ]
            },
            "filters": [
              {
                "type": "decoder",
                "name": "router",
                "config": {}
              }
            ]
          }
        }
      ]
    }
  ],
  "admin": {
    "access_log_path": "/dev/stdout",
    "address": "tcp://0.0.0.0:8001"
  },
  "cluster_manager": {
    "clusters": [
      {
        "name": "flask-app-envoy-service.default.svc.cluster.local",
        "connect_timeout_ms": 250,
        "type": "sds",
        "lb_type": "round_robin",
        "service_name": "flask-app-envoy-service.default.svc.cluster.local"
      }
    ],
    "sds": {
      "cluster": {
        "name": "kubernetes-envoy-sds.kube-system",
        "type": "logical_dns",
        "connect_timeout_ms": 250,
        "lb_type": "round_robin",
        "hosts": [
          {"url": "tcp://kubernetes-envoy-sds.kube-system:80"}
        ]
      },
      "refresh_delay_ms": 1000
    }
  }
}

这里解释一下 Envoy 的配置文件,可以看到,配置文件中有一个listener,它负责监听 80 端口。注意到,listener中包含了一个名为http_connection_manager的filter ,这个filter主要用来处理 HTTP 请求(包括 HTTP/1.1 and HTTP/2 协议)。filter中最主要的配置就是virtual_hosts,它定义了一系列的路由规则,用来指定如何将流量转发给后端的 Service Cluster。
  例如,下面的配置会将foo.com的所有流量,都转发给后端的 Flask Service Cluster:

1
2
3
4
5
6
7
8
9
10
11
12
13
"virtual_hosts": [
  {
    "name": "backend",
    "domains": ["foo.com"],        # 域名
    "routes": [
      {
        "timeout_ms": 0,
        "prefix": "/",             # URL 前缀
        "cluster": "flask-app-envoy-service.default.svc.cluster.local"
      }
    ]
  }
]

另一个比较重要的配置就是clusters,它定义了所有的后端 Service Cluster。一个 Service Cluster 中可以包含多个相同的 Service,Envoy 在转发流量给后端的 Service Cluster 时,允许指定负载均衡策略,例如下面的配置中,指定负载均衡策略为round_robin:

"clusters": [
  {
    "name": "flask-app-envoy-service.default.svc.cluster.local",
    "connect_timeout_ms": 250,
    "type": "sds",                    # 使用动态的服务发现
    "lb_type": "round_robin",         # 负载均衡策略
    "service_name": "flask-app-envoy-service.default.svc.cluster.local"
  }
]

既然在转发流量时,Envoy 可以指定负载均衡策略,那也就表示了 Envoy 必须知道 Service Cluster 中每个 Service 的 IP。即使当 Service Cluster 进行扩容或者缩容时,Envoy 也可以及时获取到每个 Service 的 IP。为了实现这一点,就需要动态的服务发现,所以type参数需要指定为sds。sds其实就是我们前面说到的,用于实现动态服务发现的插件kubernetes-envoy-sds,它的配置如下:

"sds": {
  "cluster": {
    "name": "kubernetes-envoy-sds.kube-system",
    "type": "logical_dns",
    "connect_timeout_ms": 250,
    "lb_type": "round_robin",
    "hosts": [
      {"url": "tcp://kubernetes-envoy-sds.kube-system:80"}
    ]
  },
  "refresh_delay_ms": 1000      # 刷新的时间间隔
}

Kubernetes 配置文件放在了这里,git clone这个项目,并执行下面的命令,可以部署 Edge Envoy:


2
3
$ kubectl create configmap edge-envoy-config --from-file edge-envoy/envoy.json
$ kubectl apply -f edge-envoy/deployment.yaml
$ kubectl apply -f edge-envoy/service.yaml

Edge Envoy 使用的是 NodePort 的方式暴露端口,可以看到它的端口为 32714:


2
3
$ kubectl get services
NAME                      TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)        AGE
edge-envoy-service        NodePort    10.43.219.6             80:32714/TCP   1d

假设集群内,有一个节点的 IP 为172.16.1.127,那么可以使用下面的命令,测试 Edge Envoy 是否正常工作:

$ curl 172.16.1.127:32714 -H "Host: foo.com"
Hello, World!

参考资料

  • Envoy Proxy with Microservices
  • Getting started with Lyft Envoy for microservices resilience
  • Deploying Envoy with a Python Flask webapp and Kubernetes
  • Deploying Envoy as an API Gateway for Microservices
  • Thoughts on Envoy’s Design
  • Microservices Patterns With Envoy Sidecar Proxy: Circuit breakers (Part I)
  • Microservices Patterns With Envoy Sidecar Proxy: Retries / Timeouts (Part II)
  • Microservices Patterns With Envoy Sidecar Proxy: Distributed Tracing (Part III)
  • 在AWS上部署gRPC
  • The mechanics of deploying Envoy at Lyft

转自:
http://senlinzhan.github.io/2017/12/25/envoy/

你可能感兴趣的:(Envoy反向代理微服务实践)