保姆级教程!手把手教你使用Longhorn管理云原生分布式SQL数据库!

作者简介

Jimmy Guerrero,在开发者关系团队和开源社区拥有20多年的经验。他目前领导YugabyteDB的社区和市场团队。

本文来自Rancher Labs

Longhorn是Kubernetes的云原生分布式块存储,易于部署和升级,100%开源且持久,由业界采用最为广泛的Kubernetes管理平台创建者Rancher Labs推出,并于去年10月捐献给CNCF。Longhorn的内置增量快照和备份功能可确保volume数据的安全,而其直观的UI可以方便地管理持久卷的计划备份。使用Longhorn,你可以获得最细的管理粒度和最大的控制程度,并且可以轻松地在另一个Kubernetes中创建一个灾备恢复的volume,并在发生紧急情况时进行故障转移。

image

YugabyteDB是一个云原生分布式SQL数据库,它可以运行在Kubernetes环境中,所以它可以与Longhorn和许多其他CNCF项目互操作。YugabyteDB是一个开源的高性能分布式SQL数据库,该数据库基于Google Spanner的可扩展性和容错设计而构建。Yugabyte的SQL API(YSQL)与PostgreSQL兼容。

如果你正在寻找一种方法来轻松地在100%的云原生基础架构之上开始应用程序开发,那么这篇文章正是为你准备的。我们将一步一步告诉你如何部署一个完整的云原生基础架构堆栈,该堆栈由Google Kubernetes Engine、Rancher企业级Kubernetes管理平台、Longhorn分布式块存储以及YugabyteDB分布式SQL数据库组成。

为什么要使用Longhorn和YugabyteDB?

YugabyteDB作为StatefulSet部署在Kubernetes上,并且需要持久存储。Longhorn可用于备份YugabyteDB本地磁盘,从而允许配置大规模持久卷。将Longhorn和YugabyteDB结合使用,有以下好处:

  • 不必管理本地磁盘——它们由Longhorn进行管理

  • Longhorn和YugabyteDB可以配置大规模的持久卷

  • Longhorn和YugabyteDB都支持多云部署,可以帮助企业避免云厂商锁定

此外,Longhorn可以在一个地理区域内进行同步复制。如果YugabyteDB跨区域进行部署并且其中任意一个区域中的节点发生故障,那么YugabyteDB只能使用来自另一区域的数据重建该节点,这会产生跨区域流量。而这会导致成本更改,并且会降低所恢复的性能。而将Longhorn与YugabyteDB结合使用,你可以无缝地重建该节点,因为Longhorn会在该区域内进行本地复制。这意味着YugabyteDB最终不必从另一个区域复制数据,进而降低了成本并提升了性能。在此部署设置中,如果整个区域发生故障,YugabyteDB仅需执行一个跨区域节点重建。

前期准备

我们将在已经使用了Longhorn的Google Kubernetes集群上运行YugabyteDB集群:

  • YugabyteDB(使用Helm Chart)-版本2.1.2
    https://docs.yugabyte.com/latest/quick-start/install/macos/

  • Rancher(使用Docker Run)-版本2.4

  • Longhorn(使用Rancher UI)-版本0.8.0

  • 一个Google Cloud Platform账号

在谷歌云平台上设置一个K8S集群和Rancher

Rancher是一个开源的企业级Kubernetes管理平台。它使得Run Kubernetes Everywhere更为轻松和简单,满足IT人员的需求并增强DevOps团队的能力。

Rancher需要64位的Ubuntu16.04或18.04和至少4GB内存的Linux主机。在此示例中,我们将使用安装在GCP VM实例上的Rancher UI设置Google Kubernetes Engine(GKE)集群。

使用Rancher在GCP上设置Kubernetes集群所需的步骤包括:

  • 在GCP中创建一个具有所需IAM角色的Service Account

  • 创建一个运行Ubuntu 18.04的VM实例

  • 在VM实例上安装Rancher

  • 生成一个Service Account密钥

  • 通过Rancher UI设置GKE集群

创建一个Service Account和VM实例

首先,我们需要创建一个附加到GCP项目的Service Account。要完成此操作,访问路径是:【IAM & admin > Service accounts】

image

选择【Create New Service Account】,给其命名并点击【Create】。

接下来,我们需要添加所需的角色到Service Account以便能够使用Rancher设置Kubernetes集群。添加下面显示的角色并创建Service Account。

角色添加完成之后,点击【Continue and Done】。

现在我们需要创建一个Ubuntu VM实例,它将会被托管在GCP上。执行路径为:【Compute Engine > VM Instances > Create New Instance】

image
image

出于本次demo的目的,我选择了n1-standard-2机器类型。选择Ubuntu镜像,需要点击【Boot Disk > Change】并且在操作系统的选项中选择Ubuntu,版本选择Ubuntu 18.04

image

需要检查一下是否允许HTTPS流量,检查路径为【Firewall > Allow HTTPS traffic】

image

使用以上设置创建VM实例仅需几分钟。创建完成后,使用SSH连接到VM。在将terminal连接到VM的情况下,下一步是通过执行以下命令来安装Rancher:

$ sudo docker run -d --restart=unless-stopped -p 80:80 -p 443:443 rancher/rancher

注意:如果没有找到Docker,请按照以下说明在Ubuntu VM上安装它:

https://www.digitalocean.com/community/tutorials/how-to-install-and-use-docker-on-ubuntu-18-04

创建GKE集群

要访问Rancher server UI并创建登录名,请打开浏览器并转到安装它的IP地址。

例如:https:///login

image

注意:如果你在尝试访问Rancher UI时遇到任何问题,请尝试使用Chrome Incognito模式加载页面或禁用浏览器缓存。

按照提示创建一个新帐户。

image

创建帐户后,请转到https:///g/clusters。然后单击【Add Cluster】以创建GKE集群。

image

选择GKE并给集群命名。

现在我们需要从之前创建的GCP Service Account中添加私钥。可以在【IAM & admin > Service Accounts > Create Key】下找到。

image

这将生成一个包含私钥详细信息的JSON文件。

image

复制JSON文件的内容到Rancher UI中的Service Account部分并单击【Next】。

image

考虑到本教程的目的,我选择了n1-standard-4机器类型,打开了【Node Pool Autoscaling】,并将最大节点数设置为24。单击【Create】。

image

通过确保将集群的状态设置为Active来验证是否已创建集群。请耐心等待,这将需要几分钟的时间。

image

还可以通过转到【Kubernetes Engine>Clusters】从GCP项目访问该集群。

image

在GKE上安装Longhorn

Rancher安装完成后,我们可以使用其UI来在GKE集群上安装和设置Longhorn。

单击该集群,在本例中为longhorn-demo,然后选择【System】。

image

接下来点击【Apps>Launch】,搜索Longhorn,并点击该卡片。

image

给deployment命名,也可以使用默认名称,然后点击【Launch】。安装完成后,你可以通过点击/index.html链接来访问Longhorn UI。

image

验证是否已安装Longhorn,并且GKE集群节点是否可见。

image

使用Helm在GKE集群上安装YugabyteDB

下一步是在GKE集群上安装YugabyteDB。可以通过执行以下链接中的步骤来完成:

https://docs.yugabyte.com/latest/deploy/kubernetes/helm-chart/

以下将概述这些步骤:

验证并升级Helm

首先,通过使用Helm版本命令来检查Helm是否已经安装:

$ helm version



Client: &version.Version{SemVer:"v2.14.1", GitCommit:"5270352a09c7e8b6e8c9593002a73535276507c0", GitTreeState:"clean"}

Error: could not find tiller

如果你遇到与Tiller相关的问题,例如上述错误,则可以使用升级选项初始化Helm:

$ helm init --upgrade --wait



$HELM_HOME has been configured at /home/jimmy/.helm.

Tiller (the Helm server-side component) has been installed into your Kubernetes Cluster.

Please note: by default, Tiller is deployed with an insecure 'allow unauthenticated users' policy.

To prevent this, run `helm init` with the --tiller-tls-verify flag.

For more information on securing your installation see: https://docs.helm.sh/using_helm/#securing-your-helm-installation

根据以下文档,你应该能够使用Helm chart来安装YugabyteDB:

https://docs.yugabyte.com/latest/deploy/kubernetes/single-zone/oss/helm-chart/

创建一个Service account

在创建集群之前,你需要有一个service account,它应该被授予集群管理员的角色。使用以下命令创建一个yugabyte-helm service account,并授予cluster-admin的集群角色。

$ kubectl create -f
https://raw.githubusercontent.com/yugabyte/charts/master/stable/yugabyte/yugabyte-rbac.yaml



serviceaccount/yugabyte-helm created

clusterrolebinding.rbac.authorization.k8s.io/yugabyte-helm created

初始化Helm

$ helm init --service-account yugabyte-helm --upgrade --wait



$HELM_HOME has been configured at /home/jimmy/.helm.



Tiller (the Helm server-side component) has been upgraded to the current version.

创建一个命名空间

$ kubectl create namespace yb-demo



namespace/yb-demo created

添加chart镜像仓库

$ helm repo add yugabytedb https://charts.yugabyte.com



"yugabytedb" has been added to your repositories

从镜像仓库中获取更新

$ helm repo update



Hang tight while we grab the latest from your chart repositories...

...Skip local chart repository

...Successfully got an update from the "yugabytedb" chart repository

...Successfully got an update from the "stable" chart repository

Update Complete.

安装YugabyteDB

我们将使用Helm chart来安装YugabyteDB并且将使用Load Balancer公开UI端点和YSQL、Yugabyte SQL API。此外,我们将在资源不足的环境中使用Helm资源选项,并指定Longhorn存储类。这将需要一段时间,需要耐心等待。你可以在文档中找到关于Helm的详细说明:

https://docs.yugabyte.com/latest/deploy/kubernetes/gke/helm-chart/

$ helm install yugabytedb/yugabyte --set resource.master.requests.cpu=0.1,resource.master.requests.memory=0.2Gi,resource.tserver.requests.cpu=0.1,resource.tserver.requests.memory=0.2Gi,storage.master.storageClass=longhorn,storage.tserver.storageClass=longhorn  --namespace yb-demo --name yb-demo --timeout 1200 --wait

执行以下命令以检查YugabyteDB集群的状态:

$ helm status yb-demo

你还可以通过访问GKE的“Services & Ingress and Workloads”页面来验证是否已安装所有组件并进行通信。

你也可以通过访问端口7000上yb-master-ui服务的端点来查看管理UI中的YugabyteDB安装。

image

你还可以通过执行以下命令登录到PostgreSQL兼容的shell:

kubectl exec -n yb-demo -it yb-tserver-0 /home/yugabyte/bin/ysqlsh -- -h yb-tserver-0.yb-tservers.yb-demo



ysqlsh (11.2-YB-2.0.12.0-b0)

Type "help" for help.

yugabyte=#

现在,你可以开始创建数据库对象和处理数据了。

使用Longhorn管理YugabyteDB volume

接下来,重新加载Longhorn dashboard,以验证YugabyteDB volume已正确设置。Volume的数量现在应该处于可见状态:

image

单击【volume】以管理volume。各个volume应该可见。

image

现在可以通过选择它们以及所需的操作来管理volume。

image

就是它!现在,你已经可以在有Longhorn作为分布式块存储的GKE上运行YugabyteDB了!

你可能感兴趣的:(保姆级教程!手把手教你使用Longhorn管理云原生分布式SQL数据库!)