PD Recover 使用文档

PD Recover 是对 PD 进行灾难性恢复的工具,用于恢复无法正常启动或服务的 PD 集群。

安装 PD Recover

要使用 PD Recover,你可以从源代码编译,也可以直接下载 TiDB 工具包

从源代码编译

  • Go:PD Recover 使用了 Go 模块,请安装 Go 1.19 或以上版本。
  • PD 根目录下,运行 make pd-recover 命令来编译源代码并生成 bin/pd-recover

下载 TiDB 工具包

PD Recover 的安装包位于 TiDB 离线工具包中。下载方式,请参考 TiDB 工具下载

下面介绍两种重建集群的方式:从存活的 PD 节点重建和完全重建。

方式一:从存活的 PD 节点重建集群

当 PD 集群的大多数节点发生灾难性故障时,集群将无法提供服务。当还有 PD 节点存活时,可以选择一个存活的 PD 节点,通过强制修改 Raft Group 的成员,使该节点重新恢复服务。具体操作步骤如下:

第 1 步:停止所有节点

停止集群中的 TiDB、TiKV 和 TiFlash 服务进程,以防止在恢复过程中与 PD 参数交互,造成数据错乱或其他无法挽救的异常状况。

第 2 步:启动存活的 PD 节点

使用启动参数 --force-new-cluster 拉起该存活的 PD 节点,如:

./bin/pd-server --force-new-cluster --name=pd-127.0.0.10-2379 --client-urls=http://0.0.0.0:2379 --advertise-client-urls=http://127.0.0.1:2379 --peer-urls=http://0.0.0.0:2380 --advertise-peer-urls=http://127.0.0.1:2380 --config=conf/pd.toml

第 3 步:使用 pd-recover 修复元数据

该方法是利用少数派 PD 节点恢复服务,但由于该节点可能存在数据落后的情况,因此对于 alloc_idtso 等数据,一旦发生回退,可能导致集群数据错乱或不可用。为确保该节点能提供正确的分配 ID 和 TSO 等服务,需要使用 pd-recover 修改元数据。具体命令参考:

./bin/pd-recover --from-old-member --endpoints=http://127.0.0.1:2379 # 指定对应的 PD 地址

第 4 步:重启这个 PD

当上一步出现 recovery is successful 的提示信息后,重启 PD。

第 5 步:扩容 PD 并启动集群

通过部署工具扩容 PD,并启动集群中的其他组件。至此服务恢复。

方式二:完全重建 PD 集群

该方式适用于所有 PD 的数据都丢失,但 TiDB、TiKV 和 TiFlash 等其他组件数据都还存在的情况。

第 1 步:获取 Cluster ID

一般在 PD、TiKV 或 TiDB 的日志中都可以获取 Cluster ID。你可以直接在服务器上查看日志以获取 Cluster ID。

从 PD 日志获取 Cluster ID(推荐)

使用以下命令,从 PD 日志中获取 Cluster ID:

cat {{/path/to}}/pd.log | grep "init cluster id"
[2019/10/14 10:35:38.880 +00:00] [INFO] [server.go:212] ["init cluster id"] [cluster-id=6747551640615446306] ...

或者也可以从 TiDB 或 TiKV 的日志中获取。

从 TiDB 日志获取 Cluster ID

使用以下命令,从 TiDB 日志中获取 Cluster ID:

cat {{/path/to}}/tidb.log | grep "init cluster id"
2019/10/14 19:23:04.688 client.go:161: [info] [pd] init cluster id 6747551640615446306 ...

从 TiKV 日志获取 Cluster ID

使用以下命令,从 TiKV 日志中获取 Cluster ID:

cat {{/path/to}}/tikv.log | grep "connect to PD cluster"
[2019/10/14 07:06:35.278 +00:00] [INFO] [tikv-server.rs:464] ["connect to PD cluster 6747551640615446306"] ...

第 2 步:获取已分配 ID

在指定已分配 ID 时,需指定一个比当前最大的已分配 ID 更大的值。可以从监控中获取已分配 ID,也可以直接在服务器上查看日志。

从监控中获取已分配 ID(推荐)

要从监控中获取已分配的 ID,需要确保你所查看的监控指标是上一任 PD Leader 的指标。可从 PD Dashboard 中 Current ID allocation 面板获取最大的已分配 ID。

从 PD 日志获取已分配 ID

要从 PD 日志中获取分配的 ID,需要确保你所查看的日志是上一任 PD Leader 的日志。运行以下命令获取最大的已分配 ID:

cat {{/path/to}}/pd*.log | grep "idAllocator allocates a new id" | awk -F'=' '{print $2}' | awk -F']' '{print $1}' | sort -r -n | head -n 1
4000 ...

你也可以在所有 PD server 中运行上述命令,找到最大的值。

第 3 步:部署一套新的 PD 集群

部署新的 PD 集群之前,需要停止当前的 PD 集群,然后删除旧的数据目录(或者用 --data-dir 指定新的数据目录)。

第 4 步:使用 pd-recover

只需在一个 PD 节点上执行 pd-recover 即可。

./pd-recover -endpoints http://10.0.1.13:2379 -cluster-id 6747551640615446306 -alloc-id 10000

第 5 步:重启整个集群

当出现 recovery is successful 的提示信息时,重启整个集群。

常见问题

获取 Cluster ID 时发现有多个 Cluster ID

新建 PD 集群时,会生成新的 Cluster ID。可以通过日志判断旧集群的 Cluster ID。

执行 pd-recover 时返回错误 dial tcp 10.0.1.13:2379: connect: connection refused

执行 pd-recover 时需要 PD 提供服务,请先部署并启动 PD 集群。

文档内容是否有帮助?