使用多套 TiDB Operator 单独管理不同的 TiDB 集群

你可使用一套 TiDB Operator 管理多个 TiDB 集群。如果你有以下业务需求,可以部署多套 TiDB Operator 分别管理不同的 TiDB 集群:

  • 需要灰度升级 TiDB Operator 至新版本,避免新版本存在潜在问题影响业务
  • 业务中有多个 TiDB 集群,且每个集群归属不同业务部门,各部门需要单独管理各自的集群

本文介绍如何部署多套 TiDB Operator,分别管理不同的 TiDB 集群。

在使用 TiDB Operator 时,tidb-scheduler 并不是必须使用。你可以参考 tidb-scheduler 与 default-scheduler,确认是否需要部署 tidb-scheduler

操作步骤

  1. 部署第一套 TiDB Operator。

    参考部署 TiDB Operator 文档 - 自定义配置 TiDB Operator,在 values.yaml 中添加如下配置,部署第一套 TiDB Operator:

    controllerManager: selector: - user=dev
  2. 部署第一套 TiDB 集群。

    1. 参考在 Kubernetes 中配置 TiDB 集群 - 部署配置配置 TidbCluster CR,并配置 labels 匹配上一步中为 tidb-controller-manager 配置的 selector,例如:

      apiVersion: pingcap.com/v1alpha1 kind: TidbCluster metadata: name: basic1 labels: user: dev spec: ...

      如果创建 TiDB 集群时没有设置 label,也可以通过如下命令设置:

      kubectl -n ${namespace} label tidbcluster ${cluster_name} user=dev
    2. 参考在 Kubernetes 中部署 TiDB 集群部署 TiDB 集群,并确认集群各组件正常启动。

  3. 部署第二套 TiDB Operator。

    参考部署 TiDB Operator 文档,在 values.yaml 中添加如下配置,在不同的 namespace 中(例如 tidb-admin-qa)使用不同的 Helm Release Name(例如 helm install tidb-operator-qa ...)部署第二套 TiDB Operator(没有部署 tidb-scheduler):

    controllerManager: selector: - user=qa appendReleaseSuffix: true scheduler: # 如果你不需要 `tidb-scheduler`,将这个值设置为 false create: false advancedStatefulset: create: false admissionWebhook: create: false
  4. 部署第二套 TiDB 集群。

    1. 参考在 Kubernetes 中配置 TiDB 集群配置 TidbCluster CR,并配置 labels 匹配上一步中为 tidb-controller-manager 配置的 selector,例如:

      apiVersion: pingcap.com/v1alpha1 kind: TidbCluster metadata: name: basic2 labels: user: qa spec: ...

      如果创建 TiDB 集群时没有设置 label,也可以通过如下命令设置:

      kubectl -n ${namespace} label tidbcluster ${cluster_name} user=qa
    2. 参考在 Kubernetes 中部署 TiDB 集群部署 TiDB 集群,并确认集群各组件正常启动。

  5. 查看两套 TiDB Operator 的日志,确认两套 TiDB Operator 分别管理各自匹配 selector 的 TiDB 集群。

    示例:

    查看第一套 TiDB Operator tidb-controller-manager 的日志:

    kubectl -n tidb-admin logs tidb-controller-manager-55b887bdc9-lzdwv
    Output
    ... I0113 02:50:13.195779 1 main.go:69] FLAG: --selector="user=dev" ... I0113 02:50:32.409378 1 tidbcluster_control.go:69] TidbCluster: [tidb-cluster-1/basic1] updated successfully I0113 02:50:32.773635 1 tidbcluster_control.go:69] TidbCluster: [tidb-cluster-1/basic1] updated successfully I0113 02:51:00.294241 1 tidbcluster_control.go:69] TidbCluster: [tidb-cluster-1/basic1] updated successfully

    查看第二套 TiDB Operator tidb-controller-manager 的日志:

    kubectl -n tidb-admin-qa logs tidb-controller-manager-qa-5dfcd7f9-vll4c
    Output
    ... I0113 02:50:13.195779 1 main.go:69] FLAG: --selector="user=qa" ... I0113 03:38:43.859387 1 tidbcluster_control.go:69] TidbCluster: [tidb-cluster-2/basic2] updated successfully I0113 03:38:45.060028 1 tidbcluster_control.go:69] TidbCluster: [tidb-cluster-2/basic2] updated successfully I0113 03:38:46.261045 1 tidbcluster_control.go:69] TidbCluster: [tidb-cluster-2/basic2] updated successfully

    通过对比两套 TiDB Operator tidb-controller-manager 日志,第一套 TiDB Operator 仅管理 tidb-cluster-1/basic1 集群,第二套 TiDB Operator 仅管理 tidb-cluster-2/basic2 集群。

如果需要部署第三套或更多 TiDB Operator 来管理集群,重复第 3 步、第 4 步和第 5 步的操作即可。

相关参数

tidb-operator chart 的 values.yaml 文件里,有以下参数与部署多套 TiDB Operator 相关。

  • appendReleaseSuffix

    如果配置为 true,部署时会自动为 tidb-controller-managertidb-scheduler 相关的资源名称添加后缀 -{{ .Release.Name }}。例如,通过 helm install canary pingcap/tidb-operator ... 命令部署的 tidb-controller-manager deployment 名称为:tidb-controller-manager-canary。如果要部署多套 TiDB Operator,需要开启此参数。

    默认值:false

  • controllerManager.create

    控制是否创建 tidb-controller-manager

    默认值:true

  • controllerManager.selector

    配置 tidb-controller-manager-selector 参数,用于根据 CR 的 label 筛选 tidb-controller-manager 控制的 CR,多个 selector 之间为 and 关系。

    默认值:[],控制所有 CR。

    示例:

    selector: - canary-release=v1 - k1==v1 - k2!=v2
  • scheduler.create

    控制是否创建 tidb-scheduler。在使用 TiDB Operator 时,tidb-scheduler 并不是必须使用。你可以参考 tidb-scheduler 与 default-scheduler,确认是否需要部署 tidb-scheduler

    默认值:true

文档内容是否有帮助?

下载 PDF文档反馈社区交流
产品
TiDB
TiDB Cloud
© 2024 PingCAP. All Rights Reserved.
Privacy Policy.