📣
TiDB Cloud Essential はパブリックプレビュー中です。このページは自動翻訳されたものです。原文はこちらからご覧ください。

TiDB ログバックアップと PITR ガイド

フルバックアップ(スナップショットバックアップ)には、ある時点のクラスタデータ全体が含まれますが、TiDBログバックアップは、アプリケーションによって書き込まれたデータを指定されたstorageにタイムリーにバックアップできます。必要に応じて復元ポイントを選択、つまりポイントインタイムリカバリ(PITR)を実行したい場合は、 ログバックアップを開始する定期的に完全バックアップを実行する選択できます。

br コマンドライン ツール (以下、 brと呼びます) を使用してデータをバックアップまたは復元する前に、まずインストールbr行う必要があります。

TiDBクラスタのバックアップ

ログバックアップを開始する

注記:

  • 以下の例では、Amazon S3 アクセスキーとシークレットキーを使用して権限を承認することを前提としています。IAMIAMを使用して権限を承認する場合は、 --send-credentials-to-tikvfalseに設定する必要があります。
  • 他のstorageシステムまたは認証方法を使用して権限を認証する場合は、 バックアップストレージに従ってパラメータ設定を調整します。

ログ バックアップを開始するには、 tiup br log start実行します。クラスターでは、一度に 1 つのログ バックアップ タスクしか実行できません。

tiup br log start --task-name=pitr --pd "${PD_IP}:2379" \ --storage 's3://backup-101/logbackup?access-key=${access-key}&secret-access-key=${secret-access-key}'

ログバックアップのステータスを照会する

ログバックアップタスクは開始後、手動で停止するまでTiDBクラスタのバックグラウンドで実行されます。このプロセス中、TiDBの変更ログは指定されたstorageに小さなバッチで定期的にバックアップされます。ログバックアップタスクのステータスを確認するには、次のコマンドを実行します。

tiup br log status --task-name=pitr --pd "${PD_IP}:2379"

期待される出力:

● Total 1 Tasks. > #1 < name: pitr status: ● NORMAL start: 2022-05-13 11:09:40.7 +0800 end: 2035-01-01 00:00:00 +0800 storage: s3://backup-101/log-backup speed(est.): 0.00 ops/s checkpoint[global]: 2022-05-13 11:31:47.2 +0800; gap=4m53s

フィールドの説明は次のとおりです。

  • name : ログ バックアップ タスクの名前。
  • status : ログ バックアップ タスクのステータスNORMALPAUSEDERRORを含む)。
  • start : ログ バックアップ タスクの開始タイムスタンプ。
  • end :ログバックアップタスクの終了タイムスタンプ。現在、このフィールドは無効です。
  • storage : ログ バックアップ用の外部storageの URI。
  • speed(est.) : ログバックアップの現在のデータ転送速度。この値は、過去数秒間に取得されたトラフィックサンプルに基づいて推定されます。より正確なトラフィック統計情報については、Grafana のTiKV-DetailsダッシュボードのLog Backup行目を確認してください。
  • checkpoint[global] : ログバックアップの現在の進行状況。PITR を使用すると、このタイムスタンプより前の時点に復元できます。

ログバックアップタスクが一時停止されている場合、 log statusコマンドは一時停止の詳細を表示するための追加フィールドを出力します。これらのフィールドは以下のとおりです。

  • pause-time : 一時停止操作が実行される時刻。
  • pause-operator : 一時停止操作を実行するマシンのホスト名。
  • pause-operator-pid : 一時停止操作を実行するプロセスの PID。
  • pause-payload : タスクが一時停止されているときに付加される追加情報。

一時停止の原因が TiKV のエラーである場合は、TiKV から追加のエラー レポートも表示される場合があります。

  • error[store=*] : TiKV のエラー コード。
  • error-happen-at[store=*] : TiKV でエラーが発生した時刻。
  • error-message[store=*] : TiKV のエラー メッセージ。

定期的に完全バックアップを実行する

スナップショットバックアップは、フルバックアップの方法として使用できます。1 tiup br backup full実行すると、固定スケジュール(たとえば2日ごと)に従ってクラスタースナップショットをバックアップstorageにバックアップできます。

tiup br backup full --pd "${PD_IP}:2379" \ --storage 's3://backup-101/snapshot-${date}?access-key=${access-key}&secret-access-key=${secret-access-key}'

PITRを実行する

バックアップ保持期間内の任意の時点にクラスターを復元するには、 tiup br restore point使用します。このコマンドを実行する際は、復元する時点その時点より前の最新のスナップショットバックアップデータ、およびログバックアップデータを指定する必要があります。BRは復元に必要なデータを自動的に判別して読み取り、これらのデータを指定されたクラスターに順番に復元します。

tiup br restore point --pd "${PD_IP}:2379" \ --storage='s3://backup-101/logbackup?access-key=${access-key}&secret-access-key=${secret-access-key}' \ --full-backup-storage='s3://backup-101/snapshot-${date}?access-key=${access-key}&secret-access-key=${secret-access-key}' \ --restored-ts '2022-05-15 18:00:00+0800'

データ復元中は、ターミナルのプログレスバーで進行状況を確認できます。復元は、完全復元とログ復元(メタファイルの復元とKVファイルの復元)の2つのフェーズに分かれています。各フェーズが完了すると、復元時間やデータサイズなどの情報br出力されます。

Full Restore <--------------------------------------------------------------------------------------------------------------------------------------------------------> 100.00% *** ["Full Restore success summary"] ****** [total-take=xxx.xxxs] [restore-data-size(after-compressed)=xxx.xxx] [Size=xxxx] [BackupTS={TS}] [total-kv=xxx] [total-kv-size=xxx] [average-speed=xxx] Restore Meta Files <--------------------------------------------------------------------------------------------------------------------------------------------------> 100.00% Restore KV Files <----------------------------------------------------------------------------------------------------------------------------------------------------> 100.00% *** ["restore log success summary"] [total-take=xxx.xx] [restore-from={TS}] [restore-to={TS}] [total-kv-count=xxx] [total-size=xxx]

古いデータをクリーンアップする

TiDB バックアップとリストアの使用概要で説明したとおり:

PITRを実行するには、復元ポイントより前のフルバックアップと、フルバックアップポイントから復元ポイントまでのログバックアップを復元する必要があります。そのため、バックアップ保持期間を超えるログバックアップについては、 tiup br log truncate使用して指定時点より前のバックアップを削除できます。フルスナップショットより前のログバックアップのみを削除することをお勧めします

次の手順では、バックアップ保持期間を超えたバックアップ データをクリーンアップする方法について説明します。

  1. バックアップ保持期間外の最後の完全バックアップを取得します。

  2. validateコマンドを使用して、バックアップに対応する時点を取得します。2022/09/01 より前のバックアップデータをクリーンアップする必要がある場合、この時点より前の最後の完全バックアップを探し、それがクリーンアップされないことを確認する必要があります。

    FULL_BACKUP_TS=`tiup br validate decode --field="end-version" --storage "s3://backup-101/snapshot-${date}?access-key=${access-key}&secret-access-key=${secret-access-key}"| tail -n1`
  3. スナップショットバックアップFULL_BACKUP_TSより前のログバックアップデータを削除します。

    tiup br log truncate --until=${FULL_BACKUP_TS} --storage='s3://backup-101/logbackup?access-key=${access-key}&secret-access-key=${secret-access-key}'
  4. スナップショットバックアップFULL_BACKUP_TSより前のスナップショットデータを削除します。

    aws s3 rm --recursive s3://backup-101/snapshot-${date}

PITRのパフォーマンス機能

  • 各 TiKV ノードでは、PITR はスナップショット データ (完全復元) を 2 TiB/h の速度で復元し、ログ データ (メタ ファイルと KV ファイルを含む) を 30 GiB/h の速度で復元できます。
  • BRは古くなったログバックアップデータ( tiup br log truncate )を600GB/hの速度で削除します。

注記:

上記の仕様は、以下の2つのテストシナリオのテスト結果に基づいています。実際のデータは異なる場合があります。

  • スナップショットデータの復元速度 = クラスター内のすべての TiKV ノードに復元されたスナップショットデータの合計サイズ / (所要時間 * TiKV ノードの数)
  • ログデータの復元速度 = クラスター内のすべての TiKV ノードに復元されたログデータの合計サイズ / (期間 * TiKV ノードの数)

外部storageには、単一のレプリカの KV データのみが含まれます。そのため、外部storageのデータ サイズは、クラスターで復元された実際のデータ サイズを表すものではありません。BRは、クラスターに設定されているレプリカの数に応じて、すべてのレプリカを復元します。レプリカの数が多いほど、実際に復元できるデータも多くなります。テストのすべてのクラスターのデフォルトのレプリカ数は 3 です。全体的な復元パフォーマンスを向上させるには、TiKV 設定ファイルのimport.num-threads項目とBRコマンドのpitr-concurrencyオプションを変更できます。アップストリーム クラスターに多くのリージョンがあり、フラッシュ間隔が短い場合、PITR によって多数の小さなファイルが生成されます。これにより、復元中のバッチ処理とディスパッチのオーバーヘッドが増加します。バッチごとに処理されるファイル数を増やすには、次のパラメーターの値を適度に増やすことができます。

  • pitr-batch-size :バッチあたりの累積バイト数(デフォルト16 MiB )。
  • pitr-batch-count :バッチあたりのファイル数(デフォルトは8 )。

次のバッチを開始するかどうかを決定するときに、これら 2 つのしきい値は独立して評価されます。最初にいずれかのしきい値に達すると、現在のバッチが閉じられ、次のバッチが開始されますが、もう一方のしきい値はそのバッチでは無視されます。

テストシナリオ 1 ( TiDB Cloud上) は次のとおりです。

  • TiKVノード数(8コア、16GBメモリ): 21
  • TiKV構成項目import.num-threads :8
  • BRコマンドオプションpitr-concurrency :128
  • 地域数: 183,000
  • クラスターに作成された新しいログデータ: 10 GB/時
  • 書き込み(挿入/更新/削除)QPS: 10,000

テスト シナリオ 2 (TiDB Self-Managed 上) は次のとおりです。

  • TiKVノード数(8コア、64GBメモリ): 6
  • TiKV構成項目import.num-threads :8
  • BRコマンドオプションpitr-concurrency :128
  • リージョン数: 50,000
  • クラスターに作成された新しいログデータ: 10 GB/時
  • 書き込み(挿入/更新/削除)QPS: 10,000

監視と警告

ログバックアップタスクが分散されると、各TiKVノードは継続的にデータを外部storageに書き込みます。このプロセスの監視データは、「TiKV詳細」>「バックアップログ」ダッシュボードで確認できます。

メトリックが通常の範囲から外れた場合の通知を受信するには、 ログバックアップアラート参照してアラート ルールを構成してください。

参照

このページは役に立ちましたか?