使用 BR 备份 TiDB 集群到 GCS
本文介绍如何将运行在 Kubernetes 环境中的 TiDB 集群数据备份到 Google Cloud Storage (GCS) 的存储上。其中包括以下两种备份方式:
- 快照备份。使用快照备份,你可以通过全量恢复将 TiDB 集群恢复到快照备份的时刻点。
- 日志备份。使用快照备份与日志备份,你可以通过快照备份与日志备份产生的备份数据将 TiDB 集群恢复到历史任意时刻点,即 Point-in-Time Recovery (PITR)。
本文使用的备份方式基于 TiDB Operator 的 Custom Resource Definition (CRD) 实现,底层使用 BR 获取集群数据,然后再将数据上传到远端 GCS。BR 全称为 Backup & Restore,是 TiDB 分布式备份恢复的命令行工具,用于对 TiDB 集群进行数据备份和恢复。
使用场景
如果你对数据备份有以下要求,可考虑使用 BR 的快照备份方式将 TiDB 集群数据以 Ad-hoc 备份或定时快照备份的方式备份至 GCS 上:
- 需要备份的数据量较大(大于 1 TB),而且要求备份速度较快
- 需要直接备份数据的 SST 文件(键值对)
如果你对数据备份有以下要求,可考虑使用 BR 的日志备份方式将 TiDB 集群数据以 Ad-hoc 备份的方式备份至 GCS 上(同时也需要配合快照备份的数据,来更高效地恢复数据):
- 需要在新集群上恢复备份集群的历史任意时刻点快照(PITR)
- 数据的 RPO 在分钟级别
如有其他备份需求,请参考备份与恢复简介选择合适的备份方式。
Ad-hoc 备份
Ad-hoc 备份支持快照备份,也支持启动和停止日志备份任务,以及清理日志备份数据等操作。
要进行 Ad-hoc 备份,你需要创建一个自定义的 Backup
custom resource (CR) 对象来描述本次备份。创建好 Backup
对象后,TiDB Operator 根据这个对象自动完成具体的备份过程。如果备份过程中出现错误,程序不会自动重试,此时需要手动处理。
本文档假设对部署在 Kubernetes test1
这个 namespace 中的 TiDB 集群 demo1
进行数据备份。下面是具体的操作过程。
前置条件:准备 Ad-hoc 备份环境
创建一个用于管理备份的 namespace,这里创建了名为
backup-test
的 namespace。kubectl create namespace backup-test下载文件 backup-rbac.yaml,并执行以下命令在
backup-test
这个 namespace 中创建备份需要的 RBAC 相关资源:kubectl apply -f backup-rbac.yaml -n backup-test为刚创建的 namespace
backup-test
授予远程存储访问权限。参考 GCS 账号授权,授权访问 GCS 远程存储。
如果你使用的 TiDB 版本低于 v4.0.8,你还需要完成以下步骤。如果你使用的 TiDB 为 v4.0.8 及以上版本,请跳过这些步骤。
确保你拥有备份数据库
mysql.tidb
表的SELECT
和UPDATE
权限,用于备份前后调整 GC 时间。创建
backup-demo1-tidb-secret
secret 用于存放访问 TiDB 集群的 root 账号和密钥。kubectl create secret generic backup-demo1-tidb-secret --from-literal=password=<password> --namespace=test1
快照备份
创建
Backup
CR,将数据备份到 GCS:kubectl apply -f full-backup-gcs.yamlfull-backup-gcs.yaml
文件内容如下:--- apiVersion: pingcap.com/v1alpha1 kind: Backup metadata: name: demo1-full-backup-gcs namespace: backup-test spec: # backupType: full # Only needed for TiDB Operator < v1.1.10 or TiDB < v4.0.8 # from: # host: ${tidb-host} # port: ${tidb-port} # user: ${tidb-user} # secretName: backup-demo1-tidb-secret br: cluster: demo1 clusterNamespace: test1 # logLevel: info # statusAddr: ${status-addr} # concurrency: 4 # rateLimit: 0 # checksum: true # sendCredToTikv: true # options: # - --lastbackupts=420134118382108673 gcs: projectId: ${project_id} secretName: gcs-secret bucket: my-bucket prefix: my-full-backup-folder # location: us-east1 # storageClass: STANDARD_IA # objectAcl: private在配置
full-backup-gcs.yaml
文件时,请参考以下信息:- 自 v1.1.6 版本起,如果需要增量备份,只需要在
spec.br.options
中指定上一次的备份时间戳--lastbackupts
即可。有关增量备份的限制,可参考使用 BR 进行备份与恢复。 .spec.br
中的一些参数是可选的,例如logLevel
、statusAddr
等。完整的.spec.br
字段的详细解释,请参考 BR 字段介绍。spec.gcs
中的一些参数为可选项,如location
、objectAcl
、storageClass
。GCS 存储相关配置参考 GCS 存储字段介绍。- 如果你使用的 TiDB 为 v4.0.8 及以上版本, BR 会自动调整
tikv_gc_life_time
参数,不需要配置spec.tikvGCLifeTime
和spec.from
字段。 - 更多
Backup
CR 字段的详细解释,请参考 Backup CR 字段介绍。
- 自 v1.1.6 版本起,如果需要增量备份,只需要在
查看快照备份的状态
创建好 Backup
CR 后,TiDB Operator 会根据 Backup
CR 自动开始备份。你可以通过如下命令查看备份状态:
kubectl get backup -n backup-test -o wide
从上述命令的输出中,你可以找到描述名为 demo1-full-backup-gcs
的 Backup
CR 的如下信息,其中 COMMITTS
表示快照备份的时刻点:
NAME TYPE MODE STATUS BACKUPPATH COMMITTS ...
demo1-full-backup-gcs full snapshot Complete gcs://my-bucket/my-full-backup-folder/ 436979621972148225 ...
日志备份
你可以使用一个 Backup
CR 来描述日志备份任务的启动、停止以及清理日志备份数据等操作。日志备份对远程存储访问授权方式与快照备份一致。本节示例创建了名为 demo1-log-backup-gcs
的 Backup
CR,具体操作如下所示。
启动日志备份
在
backup-test
这个 namespace 中创建一个名为demo1-log-backup-gcs
的Backup
CR。kubectl apply -f log-backup-gcs.yamllog-backup-gcs.yaml
文件内容如下:--- apiVersion: pingcap.com/v1alpha1 kind: Backup metadata: name: demo1-log-backup-gcs namespace: backup-test spec: backupMode: log br: cluster: demo1 clusterNamespace: test1 sendCredToTikv: true gcs: projectId: ${project_id} secretName: gcs-secret bucket: my-bucket prefix: my-log-backup-folder等待启动操作完成:
kubectl get jobs -n backup-testNAME COMPLETIONS ... backup-demo1-log-backup-gcs-log-start 1/1 ...查看新增的
Backup
CR:kubectl get backup -n backup-testNAME MODE STATUS .... demo1-log-backup-gcs log Running ....
查看日志备份的状态
通过查看 Backup
CR 的信息,可查看日志备份的状态。
kubectl describe backup -n backup-test
从上述命令的输出中,你可以找到描述名为 demo1-log-backup-gcs
的 Backup
CR 的如下信息,其中 Log Checkpoint Ts
表示日志备份可恢复的最近时间点:
Status:
Backup Path: gcs://my-bucket/my-log-backup-folder/
Commit Ts: 436568622965194754
Conditions:
Last Transition Time: 2022-10-10T04:45:20Z
Status: True
Type: Scheduled
Last Transition Time: 2022-10-10T04:45:31Z
Status: True
Type: Prepare
Last Transition Time: 2022-10-10T04:45:31Z
Status: True
Type: Running
Log Checkpoint Ts: 436569119308644661
停止日志备份
由于你在开启日志备份的时候已经创建了名为 demo1-log-backup-gcs
的 Backup
CR,因此可以直接更新该 Backup
CR 的配置,来激活停止日志备份的操作。操作激活优先级从高到低分别是停止日志备份任务、删除日志备份数据和开启日志备份任务。
kubectl edit backup demo1-log-backup-gcs -n backup-test
在最后新增一行字段 spec.logStop: true
,保存并退出。更新后的内容如下:
---
apiVersion: pingcap.com/v1alpha1
kind: Backup
metadata:
name: demo1-log-backup-gcs
namespace: backup-test
spec:
backupMode: log
br:
cluster: demo1
clusterNamespace: test1
sendCredToTikv: true
gcs:
projectId: ${project_id}
secretName: gcs-secret
bucket: my-bucket
prefix: my-log-backup-folder
logStop: true
可以看到名为 demo1-log-backup-gcs
的 Backup
CR 的 STATUS
从 Running
变成了 Stopped
:
kubectl get backup -n backup-test
NAME MODE STATUS ....
demo1-log-backup-gcs log Stopped ....
清理日志备份数据
由于你在开启日志备份的时候已经创建了名为
demo1-log-backup-gcs
的Backup
CR,因此可以直接更新该Backup
CR 的配置,来激活清理日志备份数据的操作。操作激活优先级从高到低分别是停止日志备份任务、删除日志备份数据和开启日志备份任务。执行如下操作来清理 2022-10-10T15:21:00+08:00 之前的所有日志备份数据。kubectl edit backup demo1-log-backup-gcs -n backup-test在最后新增一行字段
spec.logTruncateUntil: "2022-10-10T15:21:00+08:00"
,保存并退出。更新后的内容如下:--- apiVersion: pingcap.com/v1alpha1 kind: Backup metadata: name: demo1-backup-gcs namespace: backup-test spec: backupMode: log br: cluster: demo1 clusterNamespace: test1 sendCredToTikv: true gcs: projectId: ${project_id} secretName: gcs-secret bucket: my-bucket prefix: my-log-backup-folder logTruncateUntil: "2022-10-10T15:21:00+08:00"等待清理操作完成:
kubectl get jobs -n backup-testNAME COMPLETIONS ... ... backup-demo1-log-backup-gcs-log-truncate 1/1 ...查看
Backup
CR 的信息:kubectl describe backup -n backup-test... Log Success Truncate Until: 2022-10-10T15:21:00+08:00 ...也可以通过以下命令查看:
kubectl get backup -n backup-test -o wideNAME MODE STATUS ... LOGTRUNCATEUNTIL demo1-log-backup-gcs log Stopped ... 2022-10-10T15:21:00+08:00
备份示例
备份全部集群数据
---
apiVersion: pingcap.com/v1alpha1
kind: Backup
metadata:
name: demo1-backup-gcs
namespace: backup-test
spec:
# backupType: full
# Only needed for TiDB Operator < v1.1.10 or TiDB < v4.0.8
# from:
# host: ${tidb-host}
# port: ${tidb-port}
# user: ${tidb-user}
# secretName: backup-demo1-tidb-secret
br:
cluster: demo1
clusterNamespace: test1
gcs:
projectId: ${project_id}
secretName: gcs-secret
bucket: ${bucket}
prefix: ${prefix}
# location: us-east1
# storageClass: STANDARD_IA
# objectAcl: private
备份单个数据库的数据
以下示例中,备份 db1
数据库的数据。
---
apiVersion: pingcap.com/v1alpha1
kind: Backup
metadata:
name: demo1-backup-gcs
namespace: backup-test
spec:
# backupType: full
# Only needed for TiDB Operator < v1.1.10 or TiDB < v4.0.8
# from:
# host: ${tidb-host}
# port: ${tidb-port}
# user: ${tidb-user}
# secretName: backup-demo1-tidb-secret
tableFilter:
- "db1.*"
br:
cluster: demo1
clusterNamespace: test1
gcs:
projectId: ${project_id}
secretName: gcs-secret
bucket: ${bucket}
prefix: ${prefix}
# location: us-east1
# storageClass: STANDARD_IA
# objectAcl: private
备份单张表的数据
以下示例中,备份 db1.table1
表的数据。
---
apiVersion: pingcap.com/v1alpha1
kind: Backup
metadata:
name: demo1-backup-gcs
namespace: backup-test
spec:
# backupType: full
# Only needed for TiDB Operator < v1.1.10 or TiDB < v4.0.8
# from:
# host: ${tidb-host}
# port: ${tidb-port}
# user: ${tidb-user}
# secretName: backup-demo1-tidb-secret
tableFilter:
- "db1.table1"
br:
cluster: demo1
clusterNamespace: test1
gcs:
projectId: ${project_id}
secretName: gcs-secret
bucket: ${bucket}
prefix: ${prefix}
# location: us-east1
# storageClass: STANDARD_IA
# objectAcl: private
使用表库过滤功能备份多张表的数据
以下示例中,备份 db1.table1
表 和 db1.table2
表的数据。
---
apiVersion: pingcap.com/v1alpha1
kind: Backup
metadata:
name: demo1-backup-gcs
namespace: backup-test
spec:
# backupType: full
# Only needed for TiDB Operator < v1.1.10 or TiDB < v4.0.8
# from:
# host: ${tidb-host}
# port: ${tidb-port}
# user: ${tidb-user}
# secretName: backup-demo1-tidb-secret
tableFilter:
- "db1.table1"
- "db1.table2"
br:
cluster: demo1
clusterNamespace: test1
gcs:
projectId: ${project_id}
secretName: gcs-secret
bucket: ${bucket}
prefix: ${prefix}
# location: us-east1
# storageClass: STANDARD_IA
# objectAcl: private
定时快照备份
用户通过设置备份策略来对 TiDB 集群进行定时备份,同时设置备份的保留策略以避免产生过多的备份。定时快照备份通过自定义的 BackupSchedule
CR 对象来描述。每到备份时间点会触发一次快照备份,定时快照备份底层通过 Ad-hoc 快照备份来实现。下面是创建定时快照备份的具体步骤:
前置条件:准备定时快照备份环境
执行快照备份
创建
BackupSchedule
CR,开启 TiDB 集群的定时快照备份,将数据备份到 GCS:kubectl apply -f backup-schedule-gcs.yamlbackup-schedule-gcs.yaml
文件内容如下:--- apiVersion: pingcap.com/v1alpha1 kind: BackupSchedule metadata: name: demo1-backup-schedule-gcs namespace: backup-test spec: #maxBackups: 5 #pause: true maxReservedTime: "3h" schedule: "*/2 * * * *" backupTemplate: # Clean outdated backup data based on maxBackups or maxReservedTime. If not configured, the default policy is Retain # cleanPolicy: Delete # Only needed for TiDB Operator < v1.1.10 or TiDB < v4.0.8 # from: # host: ${tidb_host} # port: ${tidb_port} # user: ${tidb_user} # secretName: backup-demo1-tidb-secret br: cluster: demo1 clusterNamespace: test1 # logLevel: info # statusAddr: ${status-addr} # concurrency: 4 # rateLimit: 0 # checksum: true # sendCredToTikv: true gcs: secretName: gcs-secret projectId: ${project_id} bucket: ${bucket} prefix: ${prefix} # location: us-east1 # storageClass: STANDARD_IA # objectAcl: private从以上
backup-schedule-gcs.yaml
文件配置示例可知,backupSchedule
的配置由两部分组成。一部分是backupSchedule
独有的配置,另一部分是backupTemplate
。- 关于
backupSchedule
独有的配置项具体介绍,请参考 BackupSchedule CR 字段介绍。 backupTemplate
用于指定集群及远程存储相关的配置,字段和 Backup CR 中的spec
一样,详细介绍可参考 Backup CR 字段介绍。
- 关于
定时快照备份创建完成后,通过以下命令查看备份的状态:
kubectl get bks -n backup-test -owide查看定时快照备份下面所有的备份条目:
kubectl get bk -l tidb.pingcap.com/backup-schedule=demo1-backup-schedule-gcs -n backup-test
集成管理定时快照备份和日志备份
BackupSchedule
CR 可以集成管理 TiDB 集群的定时快照备份和日志备份,通过设置备份的保留时间可以定期回收快照备份和日志备份,且能保证在保留期内可以通过快照备份和日志备份进行 PiTR 恢复。本节示例创建了名为 integrated-backup-schedule-gcs
的 BackupSchedule
CR 为例,其中访问 GCS 远程存储的方式参考GCS 账号授权,具体操作如下所示。
前置条件:准备定时快照备份环境
创建 BackupSchedule
在
backup-test
这个 namespace 中创建一个名为integrated-backup-schedule-gcs
的BackupSchedule
CR。kubectl apply -f integrated-backup-scheduler-gcs.yamlintegrated-backup-scheduler-gcs
文件内容如下:--- apiVersion: pingcap.com/v1alpha1 kind: BackupSchedule metadata: name: integrated-backup-schedule-gcs namespace: backup-test spec: maxReservedTime: "3h" schedule: "* */2 * * *" backupTemplate: backupType: full cleanPolicy: Delete br: cluster: demo1 clusterNamespace: test1 sendCredToTikv: true gcs: projectId: ${project_id} secretName: gcs-secret bucket: my-bucket prefix: schedule-backup-folder-snapshot logBackupTemplate: backupMode: log br: cluster: demo1 clusterNamespace: test1 sendCredToTikv: true gcs: projectId: ${project_id} secretName: gcs-secret bucket: my-bucket prefix: schedule-backup-folder-log以上
integrated-backup-scheduler-gcs.yaml
文件配置示例中,backupSchedule
的配置由三部分组成:backupSchedule
独有的配置,快照备份配置backupTemplate
,日志备份配置logBackupTemplate
。关于
backupSchedule
配置项具体介绍,请参考 BackupSchedule CR 字段介绍。backupSchedule
创建完成后,可以通过以下命令查看定时快照备份的状态:kubectl get bks -n backup-test -o wide日志备份会随着
backupSchedule
创建,可以通过如下命令查看backupSchedule
的status.logBackup
,即日志备份名称。kubectl describe bks integrated-backup-schedule-gcs -n backup-test在进行集群恢复时,需要指定备份的路径,可以通过如下命令查看定时快照备份下面所有的备份条目,在命令输出中
MODE
为snapshot
的条目为快照备份,MODE
为log
的条目为日志备份。kubectl get bk -l tidb.pingcap.com/backup-schedule=integrated-backup-schedule-gcs -n backup-testNAME MODE STATUS .... integrated-backup-schedule-gcs-2023-03-08t02-50-00 snapshot Complete .... log-integrated-backup-schedule-gcs log Running ....
删除备份的 Backup CR
如果你不再需要已备份的 Backup CR,请参考删除备份的 Backup CR。
故障诊断
在使用过程中如果遇到问题,可以参考故障诊断。