DumplingとTiDB Lightningを使用したデータのバックアップと復元
このドキュメントでは、 DumplingとTiDB Lightningを使用して TiDB の全データをバックアップおよび復元する方法を紹介します。
少量のデータ (たとえば、50 GB 未満) をバックアップする必要があり、高速なバックアップ速度を必要としない場合は、 Dumplingを使用して TiDB データベースからデータをエクスポートし、 TiDB Lightningを使用してそのデータを別の TiDB にインポートできます。データベース。バックアップと復元の詳細については、 BR を使用してクラスタデータをバックアップするとBR を使用してクラスタデータを復元するを参照してください。
要件
Dumplingをインストールして起動します。
tiup install dumpling && tiup dumplingTiDB Lightningをインストールして起動します。
tiup install tidb lightning && tiup tidb lightning
リソース要件
オペレーティング システム: このドキュメントの例では、新しい CentOS 7 インスタンスを使用しています。仮想マシンは、ローカル ホストまたはクラウドにデプロイできます。 TiDB Lightningはデフォルトで必要なだけ多くの CPU リソースを消費するため、専用サーバーにデプロイすることをお勧めします。これが不可能な場合は、他の TiDB コンポーネント (たとえばtikv-server
) と一緒に単一のサーバーにデプロイし、 region-concurrency
を構成してTiDB Lightningからの CPU 使用を制限できます。通常、サイズは論理 CPU の 75% に設定できます。
メモリと CPU : TiDB Lightningは大量のリソースを消費するため、64 GiB を超えるメモリと 32 を超える CPU コアを割り当てることをお勧めします。最高のパフォーマンスを得るには、CPU コアとメモリ (GiB) の比率が 1:2 を超えていることを確認してください。
ディスク容量:
外部ストレージとして、Amazon S3、Google Cloud Storage (GCS)、または Azure Blob Storage を使用することをお勧めします。このようなクラウド ストレージを使用すると、ディスク容量に制限されることなく、バックアップ ファイルをすばやく保存できます。
1 つのバックアップ タスクのデータをローカル ディスクに保存する必要がある場合は、次の制限事項に注意してください。
- Dumplingには、データ ソース全体を格納できる (またはエクスポートするすべてのアップストリーム テーブルを格納できる) ディスク領域が必要です。必要なスペースを計算するには、 ダウンストリームのストレージ容量要件を参照してください。
- インポート中、 TiDB Lightningはソートされたキーと値のペアを保存するための一時的なスペースを必要とします。ディスク領域は、データ ソースから最大の単一テーブルを保持するのに十分なはずです。
注: Dumplingによって MySQL からエクスポートされた正確なデータ ボリュームを計算することは困難ですが、次の SQL ステートメントを使用してinformation_schema.tables
テーブルのdata-length
フィールドを要約することにより、データ ボリュームを見積もることができます。
/* Calculate the size of all schemas, in MiB. Replace ${schema_name} with your schema name. */
SELECT table_schema,SUM(data_length)/1024/1024 AS data_length,SUM(index_length)/1024/1024 AS index_length,SUM(data_length+index_length)/1024/1024 AS SUM FROM information_schema.tables WHERE table_schema = "${schema_name}" GROUP BY table_schema;
/* Calculate the size of the largest table, in MiB. Replace ${schema_name} with your schema name. */
SELECT table_name,table_schema,SUM(data_length)/1024/1024 AS data_length,SUM(index_length)/1024/1024 AS index_length,SUM(data_length+index_length)/1024/1024 AS SUM from information_schema.tables WHERE table_schema = "${schema_name}" GROUP BY table_name,table_schema ORDER BY SUM DESC LIMIT 5;
ターゲット TiKV クラスターのディスク容量
ターゲットの TiKV クラスターには、インポートされたデータを保存するのに十分なディスク容量が必要です。 標準のハードウェア要件に加えて、ターゲット TiKV クラスターのストレージ容量は、データ ソースのサイズ x レプリカの数x 2より大きくなければなりません。たとえば、クラスターがデフォルトで 3 つのレプリカを使用する場合、ターゲット TiKV クラスターには、データ ソースのサイズの 6 倍を超えるストレージ スペースが必要です。次の理由により、式には x 2 があります。
- インデックスには余分なスペースが必要になる場合があります。
- RocksDB には空間増幅効果があります。
Dumplingを使用して完全なデータをバックアップする
次のコマンドを実行して、TiDB から Amazon S3 の
s3://my-bucket/sql-backup
に完全なデータをエクスポートします。tiup dumpling -h ${ip} -P 3306 -u root -t 16 -r 200000 -F 256MiB -B my_db1 -f 'my_db1.table[12]' -o 's3://my-bucket/sql-backup'Dumplingは、デフォルトで SQL ファイルにデータをエクスポートします。
--filetype
オプションを追加すると、別のファイル形式を指定できます。Dumplingのその他の構成については、 Dumplingのオプション一覧を参照してください。
エクスポートが完了すると、ディレクトリ内のバックアップ ファイルを表示できます
s3://my-bucket/sql-backup
。
TiDB Lightningを使用して完全なデータを復元する
tidb-lightning.toml
ファイルを編集して、s3://my-bucket/sql-backup
からDumplingを使用してバックアップされた完全なデータをターゲット TiDB クラスターにインポートします。[lightning] # log level = "info" file = "tidb-lightning.log" [tikv-importer] # "local": Default backend. The local backend is recommended to import large volumes of data (1 TiB or more). During the import, the target TiDB cluster cannot provide any service. # "tidb": The "tidb" backend is recommended to import data less than 1 TiB. During the import, the target TiDB cluster can provide service normally. For more information on the backends, refer to https://docs.pingcap.com/tidb/stable/tidb-lightning-backends. backend = "local" # Sets the temporary storage directory for the sorted Key-Value files. The directory must be empty, and the storage space must be greater than the size of the dataset to be imported. For better import performance, it is recommended to use a directory different from `data-source-dir` and use flash storage, which can use I/O exclusively. sorted-kv-dir = "${sorted-kv-dir}" [mydumper] # The data source directory. The same directory where Dumpling exports data in "Use Dumpling to back up full data". data-source-dir = "${data-path}" # A local path or S3 path. For example, 's3://my-bucket/sql-backup' [tidb] # The target TiDB cluster information. host = ${host} # e.g.: 172.16.32.1 port = ${port} # e.g.: 4000 user = "${user_name}" # e.g.: "root" password = "${password}" # e.g.: "rootroot" status-port = ${status-port} # During the import, TiDB Lightning needs to obtain the table schema information from the TiDB status port. e.g.: 10080 pd-addr = "${ip}:${port}" # The address of the PD cluster, e.g.: 172.16.31.3:2379. TiDB Lightning obtains some information from PD. When backend = "local", you must specify status-port and pd-addr correctly. Otherwise, the import will be abnormal.TiDB Lightning構成の詳細については、 TiDB LightningConfiguration / コンフィグレーションを参照してください。
tidb-lightning
を実行してインポートを開始します。コマンド ラインでプログラムを直接起動すると、プロセスがSIGHUP
シグナルを受信した後に予期せず終了することがあります。この場合、nohup
またはscreen
ツールを使用してプログラムを実行することをお勧めします。例えば:S3 からデータをインポートする場合は、S3 ストレージ パスにアクセスできる SecretKey と AccessKey を環境変数としてTiDB Lightningノードに渡します。
~/.aws/credentials
から資格情報を読み取ることもできます。export AWS_ACCESS_KEY_ID=${access_key} export AWS_SECRET_ACCESS_KEY=${secret_key} nohup tiup tidb-lightning -config tidb-lightning.toml > nohup.out 2>&1 &インポートの開始後、ログでキーワード
progress
をgrep
実行して、インポートの進行状況を確認できます。デフォルトでは、進行状況は 5 分ごとに更新されます。TiDB Lightningがインポートを完了すると、自動的に終了します。
tidb-lightning.log
の最後の行にthe whole procedure completed
が含まれているかどうかを確認します。はいの場合、インポートは成功です。 「いいえ」の場合、インポートでエラーが発生します。エラー メッセージの指示に従って、エラーに対処します。
ノート:
インポートが成功したかどうかに関係なく、ログの最後の行に
tidb lightning exit
が表示されます。これは、 TiDB Lightningが正常に終了したことを意味しますが、必ずしもインポートが成功したことを意味するものではありません。
インポートに失敗した場合は、トラブルシューティングについてTiDB LightningFAQを参照してください。