在 Google Cloud GKE 上部署 TiDB 集群
本文介绍了如何部署 Google Kubernetes Engine (GKE) 集群,并在其中部署 TiDB 集群。
如果需要部署 TiDB Operator 及 TiDB 集群到自托管 Kubernetes 环境,请参考部署 TiDB Operator及部署 TiDB 集群等文档。
环境准备
部署前,请确认已完成以下环境准备:
Helm 3:用于安装 TiDB Operator
gcloud:用于创建和管理 Google Cloud 服务的命令行工具
完成 GKE 快速入门 中的准备工作 (Before you begin)
该教程包含以下内容:
- 启用 Kubernetes API
- 配置足够的配额等
推荐机型及存储
- 推荐机型:出于性能考虑,推荐以下机型:
- PD 所在节点:
n2-standard-4
- TiDB 所在节点:
n2-standard-16
- TiKV 或 TiFlash 所在节点:
n2-standard-16
- PD 所在节点:
- 推荐存储:推荐 TiKV 与 TiFlash 使用 pd-ssd 类型的存储。
配置 Google Cloud 服务
gcloud config set core/project <google-cloud-project>
gcloud config set compute/region <google-cloud-region>
使用以上命令,设置好你的 Google Cloud 项目和默认的区域。
创建 GKE 集群和节点池
创建 GKE 集群和一个默认节点池:
gcloud container clusters create tidb --region us-east1 --machine-type n1-standard-4 --num-nodes=1该命令创建一个区域 (regional) 集群,在该集群模式下,节点会在该区域中分别创建三个可用区 (zone),以保障高可用。
--num-nodes=1
参数,表示在各分区各自创建一个节点,总节点数为 3 个。生产环境推荐该集群模式。其他集群类型,可以参考 GKE 集群的类型。以上命令集群创建在默认网络中,若希望创建在指定的网络中,通过
--network/subnet
参数指定。更多可查询 GKE 集群创建文档。分别为 PD、TiKV 和 TiDB 创建独立的节点池:
gcloud container node-pools create pd --cluster tidb --machine-type n2-standard-4 --num-nodes=1 \ --node-labels=dedicated=pd --node-taints=dedicated=pd:NoSchedule gcloud container node-pools create tikv --cluster tidb --machine-type n2-highmem-8 --num-nodes=1 \ --node-labels=dedicated=tikv --node-taints=dedicated=tikv:NoSchedule gcloud container node-pools create tidb --cluster tidb --machine-type n2-standard-8 --num-nodes=1 \ --node-labels=dedicated=tidb --node-taints=dedicated=tidb:NoSchedule
此过程可能需要几分钟。
配置 StorageClass
创建 GKE 集群后默认会存在三个不同存储类型的 StorageClass:
- standard:
pd-standard
存储类型(默认) - standard-rwo:
pd-balanced
存储类型 - premium-rwo:
pd-ssd
存储类型(推荐)
为了提高存储的 IO 性能,推荐在 StorageClass 的 mountOptions
字段中,添加存储挂载选项 nodelalloc
和 noatime
。详情可见 TiDB 环境与系统配置检查。
建议使用默认的 pd-ssd
存储类型 premium-rwo
,或设置一个自定义的存储类型。
kind: StorageClass
apiVersion: storage.k8s.io/v1
metadata:
name: pd-custom
provisioner: kubernetes.io/gce-pd
volumeBindingMode: WaitForFirstConsumer
allowVolumeExpansion: true
parameters:
type: pd-ssd
mountOptions:
- nodelalloc
- noatime
使用本地存储
请使用区域永久性磁盘作为生产环境的存储类型。如果需要模拟测试裸机部署的性能,可以使用 Google Cloud 部分实例类型提供的本地存储卷。可以为 TiKV 节点池选择这一类型的实例,以便提供更高的 IOPS 和低延迟。
为 TiKV 创建附带本地存储的节点池。
gcloud container node-pools create tikv --cluster tidb --machine-type n2-highmem-8 --num-nodes=1 --local-ssd-count 1 \ --node-labels dedicated=tikv --node-taints dedicated=tikv:NoSchedule若命名为 tikv 的节点池已存在,可先删除再创建,或者修改名字规避名字冲突。
部署 local volume provisioner。
本地存储需要使用 local-volume-provisioner 程序发现并管理。以下命令会部署并创建一个
local-storage
的 StorageClass。kubectl apply -f https://raw.githubusercontent.com/pingcap/tidb-operator/v1.6.0/manifests/gke/local-ssd-provision/local-ssd-provision.yaml使用本地存储。
完成前面步骤后,local-volume-provisioner 即可发现集群内所有本地 SSD 盘。在
tidb-cluster.yaml
中添加tikv.storageClassName
字段并设置为local-storage
即可。
部署 TiDB Operator
参考快速上手中部署 TiDB Operator,在 GKE 集群中部署 TiDB Operator。
部署 TiDB 集群和监控
下面介绍如何在 GKE 上部署 TiDB 集群和监控组件。
创建 namespace
执行以下命令,创建 TiDB 集群安装的 namespace:
kubectl create namespace tidb-cluster
部署 TiDB 集群
首先执行以下命令,下载 TidbCluster 和 TidbMonitor CR 的配置文件。
curl -O https://raw.githubusercontent.com/pingcap/tidb-operator/v1.6.0/examples/gcp/tidb-cluster.yaml && \
curl -O https://raw.githubusercontent.com/pingcap/tidb-operator/v1.6.0/examples/gcp/tidb-monitor.yaml && \
curl -O https://raw.githubusercontent.com/pingcap/tidb-operator/v1.6.0/examples/gcp/tidb-dashboard.yaml
如需了解更详细的配置信息或者进行自定义配置,请参考配置 TiDB 集群
执行以下命令,在 GKE 集群中部署 TidbCluster 和 TidbMonitor CR。
kubectl create -f tidb-cluster.yaml -n tidb-cluster && \
kubectl create -f tidb-monitor.yaml -n tidb-cluster
当上述 yaml 文件被应用到 Kubernetes 集群后,TiDB Operator 会负责根据 yaml 文件描述,创建对应配置的 TiDB 集群。
查看 TiDB 集群启动状态
使用以下命令查看 TiDB 集群启动状态:
kubectl get pods -n tidb-cluster
当所有 pods 都处于 Running & Ready 状态时,则可以认为 TiDB 集群已经成功启动。如下是一个正常运行的 TiDB 集群的示例输出:
NAME READY STATUS RESTARTS AGE
tidb-discovery-5cb8474d89-n8cxk 1/1 Running 0 47h
tidb-monitor-6fbcc68669-dsjlc 3/3 Running 0 47h
tidb-pd-0 1/1 Running 0 47h
tidb-pd-1 1/1 Running 0 46h
tidb-pd-2 1/1 Running 0 46h
tidb-tidb-0 2/2 Running 0 47h
tidb-tidb-1 2/2 Running 0 46h
tidb-tikv-0 1/1 Running 0 47h
tidb-tikv-1 1/1 Running 0 47h
tidb-tikv-2 1/1 Running 0 47h
访问数据库
准备一台堡垒机
我们为 TiDB 集群创建的是内网 LoadBalancer。我们可在集群 VPC 内创建一台堡垒机来访问数据库。
gcloud compute instances create bastion \
--machine-type=n1-standard-4 \
--zone=${your-region}-a
安装 MySQL 客户端并连接
待创建好堡垒机后,我们可以通过 SSH 远程连接到堡垒机,再通过 MySQL 客户端来访问 TiDB 集群。
用 SSH 连接到堡垒机:
gcloud compute ssh tidb@bastion安装 MySQL 客户端:
sudo yum install mysql -y连接到 TiDB 集群:
mysql --comments -h ${tidb-nlb-dnsname} -P 4000 -u root${tidb-nlb-dnsname}
为 TiDB Service 的 LoadBalancer IP,可以通过kubectl get svc basic-tidb -n tidb-cluster
输出中的EXTERNAL-IP
字段查看。示例:
$ mysql --comments -h 10.128.15.243 -P 4000 -u root Welcome to the MariaDB monitor. Commands end with ; or \g. Your MySQL connection id is 7823 Server version: 8.0.11-TiDB-v8.1.0 TiDB Server (Apache License 2.0) Community Edition, MySQL 8.0 compatible Copyright (c) 2000, 2022, Oracle and/or its affiliates. Type 'help;' or '\h' for help. Type '\c' to clear the current input statement. MySQL [(none)]> show status; +--------------------+--------------------------------------+ | Variable_name | Value | +--------------------+--------------------------------------+ | Ssl_cipher | | | Ssl_cipher_list | | | Ssl_verify_mode | 0 | | Ssl_version | | | ddl_schema_version | 22 | | server_id | 717420dc-0eeb-4d4a-951d-0d393aff295a | +--------------------+--------------------------------------+ 6 rows in set (0.01 sec)
访问 Grafana 监控
先获取 Grafana 的 LoadBalancer 域名:
kubectl -n tidb-cluster get svc basic-grafana
示例:
$ kubectl -n tidb-cluster get svc basic-grafana
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
basic-grafana LoadBalancer 10.15.255.169 34.123.168.114 3000:30657/TCP 35m
其中 EXTERNAL-IP
栏即为 LoadBalancer IP。
你可以通过浏览器访问 ${grafana-lb}:3000
地址查看 Grafana 监控指标。其中 ${grafana-lb}
替换成前面获取的 IP。
访问 TiDB Dashboard Web UI
先获取 TiDB Dashboard 的 LoadBalancer 域名:
kubectl -n tidb-cluster get svc basic-tidb-dashboard-exposed
示例:
$ kubectl -n tidb-cluster get svc basic-tidb-dashboard-exposed
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
basic-tidb-dashboard-exposed LoadBalancer 10.15.255.169 34.123.168.114 12333:30657/TCP 35m
你可以通过浏览器访问 ${EXTERNAL-IP}:12333
地址查看 TiDB Dashboard 监控指标。
升级 TiDB 集群
要升级 TiDB 集群,可以通过 kubectl patch tc basic -n tidb-cluster --type merge -p '{"spec":{"version":"${version}"}}
命令修改。
升级过程会持续一段时间,你可以通过 kubectl get pods -n tidb-cluster --watch
命令持续观察升级进度。
扩容 TiDB 集群
扩容前需要对相应的节点组进行扩容,以便新的实例有足够的资源运行。以下展示扩容 GKE 节点组和 TiDB 集群组件的操作。
扩容 GKE 节点组
下面是将 GKE 集群 tidb
的 tikv
节点池扩容到 6 节点的示例:
gcloud container clusters resize tidb --node-pool tikv --num-nodes 2
扩容 TiDB 组件
然后通过 kubectl edit tc basic -n tidb-cluster
修改各组件的 replicas
为期望的新副本数进行扩容。
更多节点池管理可参考 Node Pools 文档。
部署 TiFlash/TiCDC
TiFlash 是 TiKV 的列存扩展,TiCDC 是一款通过拉取 TiKV 变更日志实现的 TiDB 增量数据同步工具。这两个组件不是必选安装项,这里提供一个快速安装上手示例。
新增节点组
为 TiFlash 新增节点组:
gcloud container node-pools create tiflash --cluster tidb --machine-type n1-highmem-8 --num-nodes=1 \
--node-labels dedicated=tiflash --node-taints dedicated=tiflash:NoSchedule
为 TiCDC 新增节点组:
gcloud container node-pools create ticdc --cluster tidb --machine-type n1-standard-4 --num-nodes=1 \
--node-labels dedicated=ticdc --node-taints dedicated=ticdc:NoSchedule
配置并部署 TiFlash/TiCDC
如果要部署 TiFlash,可以在 tidb-cluster.yaml 中配置 spec.tiflash
,例如:
spec:
...
tiflash:
baseImage: pingcap/tiflash
maxFailoverCount: 0
replicas: 1
storageClaims:
- resources:
requests:
storage: 100Gi
nodeSelector:
dedicated: tiflash
tolerations:
- effect: NoSchedule
key: dedicated
operator: Equal
value: tiflash
其他参数可以参考TiDB 集群配置文档进行配置。
如果要部署 TiCDC,可以在 tidb-cluster.yaml 中配置 spec.ticdc
,例如:
spec:
...
ticdc:
baseImage: pingcap/ticdc
replicas: 1
nodeSelector:
dedicated: ticdc
tolerations:
- effect: NoSchedule
key: dedicated
operator: Equal
value: ticdc
根据实际情况修改 replicas
等参数。
最后使用 kubectl -n tidb-cluster apply -f tidb-cluster.yaml
更新 TiDB 集群配置。
更多可参考 API 文档和集群配置文档完成 CR 文件配置。
配置 TiDB 监控
请参阅部署 TiDB 集群监控与告警。
收集日志
系统与程序的运行日志对排查问题和实现自动化操作可能非常有用。TiDB 各组件默认将日志输出到容器的 stdout
和 stderr
中,并依据容器运行时环境自动进行日志的滚动清理。当 Pod 重启时,容器日志会丢失。为防止日志丢失,建议收集 TiDB 及相关组件日志。