在 Kubernetes 上部署 TiFlash

本文介绍如何在 Kubernetes 上部署 TiFlash。

前置条件

全新部署 TiDB 集群同时部署 TiFlash

参考 在标准 Kubernetes 上部署 TiDB 集群进行部署。

在现有 TiDB 集群上新增 TiFlash 组件

编辑 TidbCluster Custom Resource:

kubectl edit tc ${cluster_name} -n ${namespace}

按照如下示例增加 TiFlash 配置:

spec: tiflash: baseImage: pingcap/tiflash maxFailoverCount: 3 replicas: 1 storageClaims: - resources: requests: storage: 100Gi storageClassName: local-storage

其他参数可以参考集群配置文档进行配置。

TiFlash 支持挂载多个 PV,如果要为 TiFlash 配置多个 PV,可以在 tiflash.storageClaims 下面配置多项,每一项可以分别配置 storage reqeuststorageClassName,例如:

tiflash: baseImage: pingcap/tiflash maxFailoverCount: 3 replicas: 1 storageClaims: - resources: requests: storage: 100Gi storageClassName: local-storage - resources: requests: storage: 100Gi storageClassName: local-storage

TiDB Operator 通过创建 StatefulSet 管理 TiFlash,由于 StatefulSet 创建后不支持修改 volumeClaimTemplates,因此直接更新 storageClaims 添加磁盘不会为 Pod 挂载上额外的 PV,解决方案有下面两种:

  • 第一次部署 TiFlash 集群就规划好使用几个 PV,配置好 storageClaims
  • 如果确实要新增 PV,配置好 storageClaims 后,需要手动删除 TiFlash StatefulSet (kubectl delete sts -n ${namespace} ${cluster_name}-tiflash),等待 TiDB Operator 重新创建。

新增部署 TiFlash 需要 PD 配置 replication.enable-placement-rules: true,通过上述步骤在 TidbCluster 中增加 TiFlash 配置后,TiDB Operator 会自动为 PD 配置 replication.enable-placement-rules: true

如果服务器没有外网,请参考部署 TiDB 集群在有外网的机器上将用到的 Docker 镜像下载下来并上传到服务器上。

移除 TiFlash

  1. 调整同步到 TiFlash 集群中的数据表的副本数。

    需要将集群中所有同步到 TiFlash 的数据表的副本数都设置为 0,才能完全移除 TiFlash。

    1. 参考访问 TiDB 集群的步骤连接到 TiDB 服务。

    2. 使用以下命令,调整同步到 TiFlash 集群中的数据表的副本数:

      alter table <db_name>.<table_name> set tiflash replica 0;
  2. 等待相关表的 TiFlash 副本被删除。

    连接到 TiDB 服务,执行如下命令,查不到相关表的同步信息时即为副本被删除:

    SELECT * FROM information_schema.tiflash_replica WHERE TABLE_SCHEMA = '<db_name>' and TABLE_NAME = '<table_name>';
  3. 执行以下命令修改 spec.tiflash.replicas 为 0 来移除 TiFlash Pod。

    kubectl edit tidbcluster ${cluster_name} -n ${namespace}
  4. 检查 TiFlash Pod 和 TiFlash 节点 store 状态。

    首先执行以下命令检查 TiFlash Pod 是否被成功删除:

    kubectl get pod -n ${namespace} -l app.kubernetes.io/component=tiflash,app.kubernetes.io/instance=${cluster_name}

    如果输出为空,则表示 TiFlash 集群的 Pod 已经被成功删除。

    使用以下命令检查 TiFlash 节点 store 状态是否为 Tombstone:

    kubectl get tidbcluster ${cluster_name} -n ${namespace} -o yaml

    输出结果中的 status.tiflash 字段值类似下方实例。

    tiflash: ... tombstoneStores: "88": id: "88" ip: basic-tiflash-0.basic-tiflash-peer.default.svc lastHeartbeatTime: "2020-12-31T04:42:12Z" lastTransitionTime: null leaderCount: 0 podName: basic-tiflash-0 state: Tombstone "89": id: "89" ip: basic-tiflash-1.basic-tiflash-peer.default.svc lastHeartbeatTime: "2020-12-31T04:41:50Z" lastTransitionTime: null leaderCount: 0 podName: basic-tiflash-1 state: Tombstone

    只有 TiFlash 集群的所有 Pod 已经被成功删除并且所有 TiFlash 节点 store 状态都变为 Tombstone 后,才能进行下一步操作。

  5. 删除 TiFlash StatefulSet。

    使用以下命令修改 TiDB Cluster CR,删除 spec.tiflash 字段。

    kubectl edit tidbcluster ${cluster_name} -n ${namespace}

    使用以下命令删除 TiFlash StatefulSet:

    kubectl delete statefulsets -n ${namespace} -l app.kubernetes.io/component=tiflash,app.kubernetes.io/instance=${cluster_name}

    执行以下命令检查是否成功删除 TiFlash 集群的 StatefulSet:

    kubectl get sts -n ${namespace} -l app.kubernetes.io/component=tiflash,app.kubernetes.io/instance=${cluster_name}

    如果输出为空,则表示 TiFlash 集群的 StatefulSet 已经被成功删除。

  6. (可选项) 删除 PVC 和 PV。

    如果确认 TiFlash 中的数据不会被使用,想要删除数据,需要严格按照以下操作步骤来删除 TiFlash 中的数据。

    1. 删除 PV 对应的 PVC 对象

      kubectl delete pvc -n ${namespace} -l app.kubernetes.io/component=tiflash,app.kubernetes.io/instance=${cluster_name}
    2. PV 保留策略是 Retain 时,删除 PVC 对象后对应的 PV 仍将保留。如果想要删除 PV,可以设置 PV 的保留策略为 Delete,PV 会被自动删除并回收。

      kubectl patch pv ${pv_name} -p '{"spec":{"persistentVolumeReclaimPolicy":"Delete"}}'

      其中 ${pv_name} 表示 TiFlash 集群 PV 的名称,可以执行以下命令查看:

      kubectl get pv -l app.kubernetes.io/component=tiflash,app.kubernetes.io/instance=${cluster_name}

不同版本配置注意事项

从 TiDB Operator v1.1.5 版本开始,spec.tiflash.config.config.flash.service_addr 的默认配置从 ${clusterName}-tiflash-POD_NUM.${clusterName}-tiflash-peer.${namespace}.svc:3930 修改为 0.0.0.0:3930,而 TiFlash 从 v4.0.5 开始需要配置 spec.tiflash.config.config.flash.service_addr0.0.0.0:3930,因此针对不同 TiFlash 和 TiDB Operator 版本,需要注意以下配置:

  • 如果 TiDB Operator 版本 <= v1.1.4
    • 如果 TiFlash 版本 <= v4.0.4,不需要手动配置 spec.tiflash.config.config.flash.service_addr
    • 如果 TiFlash 版本 >= v4.0.5,需要在 TidbCluster CR 中设置 spec.tiflash.config.config.flash.service_addr0.0.0.0:3930
  • 如果 TiDB Operator 版本 >= v1.1.5
    • 如果 TiFlash 版本 <= v4.0.4,需要在 TidbCluster CR 中设置 spec.tiflash.config.config.flash.service_addr${clusterName}-tiflash-POD_NUM.${clusterName}-tiflash-peer.${namespace}.svc:3930。其中,${clusterName}${namespace} 需要根据实际情况替换。
    • 如果 TiFlash 版本 >= v4.0.5,不需要手动配置 spec.tiflash.config.config.flash.service_addr
    • 如果从小于等于 v4.0.4 的 TiFlash 版本升级到大于等于 v4.0.5 TiFlash 版本,需要删除 TidbCluster CR 中 spec.tiflash.config.config.flash.service_addr 的配置。
下载 PDF
产品
TiDB
TiDB Cloud
© 2024 PingCAP. All Rights Reserved.
Privacy Policy.