使用 BR 恢复 GCS 上的备份数据
本文介绍如何将存储在 Google Cloud Storage (GCS) 上的备份数据恢复到 Kubernetes 环境中的 TiDB 集群,其中包括以下两种恢复方式:
- 全量恢复,可以将 TiDB 集群恢复到快照备份的时刻点。备份数据来自于快照备份。
- PITR 恢复,可以将 TiDB 集群恢复到历史任意时刻点。备份数据来自于快照备份和日志备份。
本文使用的恢复方式基于 TiDB Operator 的 Custom Resource Definition (CRD) 实现,底层使用 BR 进行数据恢复。BR 全称为 Backup & Restore,是 TiDB 分布式备份恢复的命令行工具,用于对 TiDB 集群进行数据备份和恢复。
PITR 全称为 Point-in-time recovery,该功能可以让你在新集群上恢复备份集群的历史任意时刻点的快照。使用 PITR 功能恢复时需要快照备份数据和日志备份数据。在恢复时,首先将快照备份的数据恢复到 TiDB 集群中,再以快照备份的时刻点作为起始时刻点,并指定任意恢复时刻点,将日志备份数据恢复到 TiDB 集群中。
全量恢复
本节示例将存储在 GCS 上指定路径 spec.gcs.bucket
存储桶中 spec.gcs.prefix
文件夹下的快照备份数据恢复到 namespace test1
中的 TiDB 集群 demo2
。以下是具体的操作过程。
前置条件:完成数据备份
本节假设 GCS 中的桶 my-bucket
中文件夹 my-full-backup-folder
下存储着快照备份产生的备份数据。关于如何备份数据,请参考使用 BR 备份 TiDB 集群到 GCS。
第 1 步:准备恢复环境
使用 BR 将 GCS 上的备份数据恢复到 TiDB 前,你需要准备恢复环境,并拥有数据库的相关权限。
将以下内容保存为
backup-rbac.yaml
文件,用于创建所需的 RBAC 资源:--- kind: Role apiVersion: rbac.authorization.k8s.io/v1 metadata: name: tidb-backup-manager labels: app.kubernetes.io/component: tidb-backup-manager rules: - apiGroups: [""] resources: ["events"] verbs: ["*"] - apiGroups: ["br.pingcap.com"] resources: ["backups", "restores"] verbs: ["get", "watch", "list", "update"] --- kind: ServiceAccount apiVersion: v1 metadata: name: tidb-backup-manager --- kind: RoleBinding apiVersion: rbac.authorization.k8s.io/v1 metadata: name: tidb-backup-manager labels: app.kubernetes.io/component: tidb-backup-manager subjects: - kind: ServiceAccount name: tidb-backup-manager roleRef: apiGroup: rbac.authorization.k8s.io kind: Role name: tidb-backup-manager执行以下命令在 namespace
test1
中创建备份需要的 RBAC 相关资源:kubectl apply -f backup-rbac.yaml -n test1为 namespace
test1
授予远程存储访问权限:参考 GCS 账号授权,授权访问 GCS 远程存储。
第 2 步:将指定备份数据恢复到 TiDB 集群
创建
Restore
Custom Resource (CR),将指定的备份数据恢复至 TiDB 集群:kubectl apply -f restore-full-gcs.yamlrestore-full-gcs.yaml
文件内容如下:--- apiVersion: br.pingcap.com/v1alpha1 kind: Restore metadata: name: demo2-restore-gcs namespace: test1 spec: # backupType: full br: cluster: demo2 # logLevel: info # statusAddr: ${status-addr} # concurrency: 4 # rateLimit: 0 # checksum: true # sendCredToTikv: true gcs: projectId: ${project_id} secretName: gcs-secret bucket: my-bucket prefix: my-full-backup-folder # location: us-east1 # storageClass: STANDARD_IA # objectAcl: private在配置
restore-full-gcs.yaml
文件时,请参考以下信息:- 关于 GCS 存储相关配置,请参考 GCS 存储字段介绍。
.spec.br
中的一些参数为可选项,如logLevel
、statusAddr
、concurrency
、rateLimit
、checksum
、timeAgo
、sendCredToTikv
。更多.spec.br
字段的详细解释,请参考 BR 字段介绍。- 如果你使用的 TiDB 为 v4.0.8 及以上版本,BR 会自动调整
tikv_gc_life_time
参数,不需要在 Restore CR 中配置spec.to
字段。 - 更多
Restore
CR 字段的详细解释,请参考 Restore CR 字段介绍。
创建好
Restore
CR 后,通过以下命令查看恢复的状态:kubectl get restore -n test1 -o wideNAME STATUS ... demo2-restore-gcs Complete ...
PITR 恢复
本节示例在 namespace test1
中的 TiDB 集群 demo3
上执行 PITR 恢复,分为以下两步:
- 使用
spec.pitrFullBackupStorageProvider.gcs.bucket
存储桶中spec.pitrFullBackupStorageProvider.gcs.prefix
文件夹下的快照备份数据,将集群恢复到快照备份的时刻点。 - 使用
spec.gcs.bucket
存储桶中spec.gcs.prefix
文件夹下的日志备份的增量数据,将集群恢复到备份集群的历史任意时刻点。
下面是具体的操作过程。
前置条件:完成数据备份
本节假设 GCS 中的桶 my-bucket
中存在两份备份数据,分别是:
- 在日志备份期间,进行快照备份产生的备份数据,存储在
my-full-backup-folder-pitr
文件夹下。 - 日志备份产生的备份数据,存储在
my-log-backup-folder-pitr
文件夹下。
关于如何备份数据,请参考使用 BR 备份 TiDB 集群到 GCS。
第 1 步:准备恢复环境
第 2 步:将指定备份数据恢复到 TiDB 集群
本节示例中首先将快照备份恢复到集群中,因此 PITR 的恢复时刻点需要在快照备份的时刻点之后,并在日志备份的最新恢复点之前,具体步骤如下:
在
test1
这个 namespace 中产生一个名为demo3-restore-gcs
的Restore
CR,并指定恢复到2022-10-10T17:21:00+08:00
:kubectl apply -f restore-point-gcs.yamlrestore-point-gcs.yaml
文件内容如下:--- apiVersion: br.pingcap.com/v1alpha1 kind: Restore metadata: name: demo3-restore-gcs namespace: test1 spec: restoreMode: pitr br: cluster: demo3 gcs: projectId: ${project_id} secretName: gcs-secret bucket: my-bucket prefix: my-log-backup-folder-pitr pitrRestoredTs: "2022-10-10T17:21:00+08:00" pitrFullBackupStorageProvider: gcs: projectId: ${project_id} secretName: gcs-secret bucket: my-bucket prefix: my-full-backup-folder-pitr在配置
restore-point-gcs.yaml
文件时,请参考以下信息:spec.restoreMode
:在进行 PITR 恢复时,需要设置值为pitr
。默认值为snapshot
,即进行全量恢复。
查看恢复的状态,等待恢复操作完成:
kubectl get jobs -n test1NAME COMPLETIONS ... restore-demo3-restore-gcs 1/1 ...也可通过以下命令查看恢复的状态:
kubectl get restore -n test1 -o wideNAME STATUS ... demo3-restore-gcs Complete ...
故障诊断
在使用过程中如果遇到问题,可以参考故障诊断。