1 つの TiDBクラスタから別の TiDBクラスタへの移行
このドキュメントでは、ある TiDB クラスターから別の TiDB クラスターにデータを移行する方法について説明します。この機能は次のシナリオに適用されます。
- データベースの分割: TiDB クラスターが大きすぎる場合、またはクラスターのサービス間の影響を避けたい場合は、データベースを分割できます。
- データベースの再配置: データセンターの変更など、データベースを物理的に再配置します。
- 新しいバージョンの TiDB クラスターにデータを移行する: データのセキュリティと精度の要件を満たすために、データを新しいバージョンの TiDB クラスターに移行します。
このドキュメントには移行プロセス全体が例示されており、次の手順が含まれています。
環境をセットアップします。
完全なデータを移行します。
増分データを移行します。
サービスを新しい TiDB クラスターに移行します。
ステップ 1. 環境をセットアップする
TiDB クラスターをデプロイ。
TiUP Playground を使用して、2 つの TiDB クラスター (1 つはアップストリーム、もう 1 つはダウンストリーム)をデプロイ。詳細については、 TiUPを使用したオンライン TiDBクラスタのデプロイと管理を参照してください。
# Create an upstream cluster tiup --tag upstream playground --host 0.0.0.0 --db 1 --pd 1 --kv 1 --tiflash 0 --ticdc 1 # Create a downstream cluster tiup --tag downstream playground --host 0.0.0.0 --db 1 --pd 1 --kv 1 --tiflash 0 --ticdc 1 # View cluster status tiup statusデータを初期化します。
デフォルトでは、新しくデプロイされたクラスターにテスト データベースが作成されます。したがって、 システムベンチを使用してテスト データを生成し、実際のシナリオでデータをシミュレートできます。
sysbench oltp_write_only --config-file=./tidb-config --tables=10 --table-size=10000 prepareこのドキュメントでは、sysbench を使用して
oltp_write_only
スクリプトを実行します。このスクリプトは、テスト データベースにそれぞれ 10,000 行を含む 10 個のテーブルを生成します。 tidb-config は次のとおりです。mysql-host=172.16.6.122 # Replace the value with the IP address of your upstream cluster mysql-port=4000 mysql-user=root mysql-password= db-driver=mysql # Set database driver to MySQL mysql-db=test # Set the database as a test database report-interval=10 # Set data collection period to 10s threads=10 # Set the number of worker threads to 10 time=0 # Set the time required for executing the script. O indicates time unlimited rate=100 # Set average TPS to 100サービスのワークロードをシミュレートします。
実際のシナリオでは、サービス データは上流クラスターに継続的に書き込まれます。このドキュメントでは、sysbench を使用してこのワークロードをシミュレートします。具体的には、次のコマンドを実行して、10 人のワーカーが 3 つのテーブル sbtest1、sbtest2、および sbtest3 にデータを連続的に書き込みできるようにします。合計 TPS は 100 を超えません。
sysbench oltp_write_only --config-file=./tidb-config --tables=3 run外部storageを準備します。
フルデータバックアップでは、アップストリームクラスタとダウンストリームクラスタの両方がバックアップファイルにアクセスする必要があります。バックアップ ファイルを保存するには外部storageを使用することをお勧めします。このドキュメントでは、Minio を使用して S3 互換のstorageサービスをシミュレートします。
wget https://dl.min.io/server/minio/release/linux-amd64/minio chmod +x minio # Configure access-key access-screct-id to access minio export HOST_IP='172.16.6.122' # Replace the value with the IP address of your upstream cluster export MINIO_ROOT_USER='minio' export MINIO_ROOT_PASSWORD='miniostorage' # Create the database directory. backup is the bucket name. mkdir -p data/backup # Start minio at port 6060 ./minio server ./data --address :6060 &前述のコマンドは、S3 サービスをシミュレートするために 1 つのノード上で minioサーバーを起動します。コマンドのパラメータは次のように構成されます。
- エンドポイント:
http://${HOST_IP}:6060/
- アクセスキー:
minio
- シークレットアクセスキー:
miniostorage
- バケツ:
backup
アクセスリンクは以下の通りです。
s3://backup?access-key=minio&secret-access-key=miniostorage&endpoint=http://${HOST_IP}:6060&force-path-style=true- エンドポイント:
ステップ 2. 全データを移行する
環境をセットアップしたら、 BRのバックアップおよびリストア関数を使用して、完全なデータを移行できます。 BRは三つの方法で起動可能です。このドキュメントでは、SQL ステートメントBACKUP
とRESTORE
を使用します。
注記:
BACKUP
とRESTORE
SQL ステートメントは実験的ものです。本番環境でこれらを使用することはお勧めできません。予告なく変更または削除される場合がございます。バグを見つけた場合は、GitHub で問題を報告できます。- 本番クラスターでは、GC を無効にしてバックアップを実行すると、クラスターのパフォーマンスに影響を与える可能性があります。パフォーマンスの低下を避けるために、オフピーク時間にデータをバックアップし、
RATE_LIMIT
を適切な値に設定することをお勧めします。- 上流クラスターと下流クラスターのバージョンが異なる場合は、 BR互換性をチェックする必要があります。このドキュメントでは、アップストリーム クラスターとダウンストリーム クラスターが同じバージョンであると仮定します。
GC を無効にします。
新しく書き込まれたデータが増分移行中に削除されないようにするには、バックアップ前にアップストリーム クラスターの GC を無効にする必要があります。これにより、履歴データは削除されません。
次のコマンドを実行して GC を無効にします。
MySQL [test]> SET GLOBAL tidb_gc_enable=FALSE;Query OK, 0 rows affected (0.01 sec)変更が有効であることを確認するには、値
tidb_gc_enable
をクエリします。MySQL [test]> SELECT @@global.tidb_gc_enable;+-------------------------+: | @@global.tidb_gc_enable | +-------------------------+ | 0 | +-------------------------+ 1 row in set (0.00 sec)バックアップデータ。
アップストリーム クラスターで
BACKUP
ステートメントを実行してデータをバックアップします。MySQL [(none)]> BACKUP DATABASE * TO 's3://backup?access-key=minio&secret-access-key=miniostorage&endpoint=http://${HOST_IP}:6060&force-path-style=true' RATE_LIMIT = 120 MB/SECOND;+---------------+----------+--------------------+---------------------+---------------------+ | Destination | Size | BackupTS | Queue Time | Execution Time | +---------------+----------+--------------------+---------------------+---------------------+ | s3://backup | 10315858 | 431434047157698561 | 2022-02-25 19:57:59 | 2022-02-25 19:57:59 | +---------------+----------+--------------------+---------------------+---------------------+ 1 row in set (2.11 sec)BACKUP
コマンドが実行されると、TiDB はバックアップ データに関するメタデータを返します。BackupTS
バックアップ前にデータが生成されるため注意してください。このドキュメントでは、データ チェックの終了およびTiCDC による増分移行スキャンの開始としてBackupTS
を使用します。データを復元します。
ダウンストリーム クラスターで
RESTORE
コマンドを実行してデータを復元します。mysql> RESTORE DATABASE * FROM 's3://backup?access-key=minio&secret-access-key=miniostorage&endpoint=http://${HOST_IP}:6060&force-path-style=true';+--------------+-----------+--------------------+---------------------+---------------------+ | Destination | Size | BackupTS | Queue Time | Execution Time | +--------------+-----------+--------------------+---------------------+---------------------+ | s3://backup | 10315858 | 431434141450371074 | 2022-02-25 20:03:59 | 2022-02-25 20:03:59 | +--------------+-----------+--------------------+---------------------+---------------------+ 1 row in set (41.85 sec)(オプション) データを検証します。
同期差分インスペクターを使用すると、特定の時点で上流と下流の間のデータの整合性をチェックできます。前の
BACKUP
出力は、アップストリーム クラスターが 431434047157698561 でバックアップを終了したことを示しています。前のRESTORE
の出力は、ダウンストリーム クラスターが 431434141450371074 で復元を終了したことを示しています。sync_diff_inspector -C ./config.yamlsync-diff-inspector の構成方法の詳細については、 コンフィグレーションファイルの説明を参照してください。このドキュメントでは、構成は次のようになります。
# Diff Configuration. ######################### Datasource config ######################### [data-sources] [data-sources.upstream] host = "172.16.6.122" # Replace the value with the IP address of your upstream cluster port = 4000 user = "root" password = "" snapshot = "431434047157698561" # Set snapshot to the actual backup time (BackupTS in the "Back up data" section in [Step 2. Migrate full data](#step-2-migrate-full-data)) [data-sources.downstream] host = "172.16.6.125" # Replace the value with the IP address of your downstream cluster port = 4000 user = "root" password = "" ######################### Task config ######################### [task] output-dir = "./output" source-instances = ["upstream"] target-instance = "downstream" target-check-tables = ["*.*"]
ステップ 3. 増分データを移行する
TiCDCをデプロイ。
完全なデータ移行が完了したら、増分データを複製するように TiCDC を展開および構成します。本番環境では、 TiCDCのデプロイの指示に従って TiCDC をデプロイします。このドキュメントでは、テスト クラスターの作成時に TiCDC ノードが開始されています。したがって、TiCDC をデプロイするステップをスキップして、変更フィード構成に進むことができます。
チェンジフィードを作成します。
上流クラスターで次のコマンドを実行して、上流クラスターから下流クラスターへの変更フィードを作成します。
tiup cdc cli changefeed create --server=http://172.16.6.122:8300 --sink-uri="mysql://root:@172.16.6.125:4000" --changefeed-id="upstream-to-downstream" --start-ts="431434047157698561"このコマンドのパラメータは次のとおりです。
--server
: TiCDC クラスター内の任意のノードの IP アドレス--sink-uri
: ダウンストリームクラスターのURI--changefeed-id
: 変更フィード ID。正規表現 ^[a-zA-Z0-9]+(-[a-zA-Z0-9]+)*$ の形式である必要があります。--start-ts
: 変更フィードの開始タイムスタンプ。バックアップ時間 (またはステップ 2. 全データを移行するの「データのバックアップ」セクションの BackupTS) である必要があります。
変更フィード構成の詳細については、 タスク設定ファイルを参照してください。
GCを有効にします。
TiCDC を使用した増分移行では、GC はレプリケートされた履歴データのみを削除します。したがって、変更フィードを作成した後、次のコマンドを実行して GC を有効にする必要があります。詳細はTiCDCガベージコレクション(GC) セーフポイントの完全な動作は何ですか?を参照してください。
GC を有効にするには、次のコマンドを実行します。
MySQL [test]> SET GLOBAL tidb_gc_enable=TRUE;Query OK, 0 rows affected (0.01 sec)変更が有効であることを確認するには、値
tidb_gc_enable
をクエリします。MySQL [test]> SELECT @@global.tidb_gc_enable;+-------------------------+ | @@global.tidb_gc_enable | +-------------------------+ | 1 | +-------------------------+ 1 row in set (0.00 sec)
ステップ 4. サービスを新しい TiDB クラスターに移行する
変更フィードの作成後、上流クラスターに書き込まれたデータは、低レイテンシーで下流クラスターにレプリケートされます。読み取りトラフィックをダウンストリーム クラスターに段階的に移行できます。一定期間観察してください。ダウンストリーム クラスターが安定している場合は、次の手順を実行して、書き込みトラフィックをダウンストリーム クラスターに移行できます。
上流クラスターの書き込みサービスを停止します。変更フィードを停止する前に、すべてのアップストリーム データがダウンストリームにレプリケートされていることを確認してください。
# Stop the changefeed from the upstream cluster to the downstream cluster tiup cdc cli changefeed pause -c "upstream-to-downstream" --server=http://172.16.6.122:8300 # View the changefeed status tiup cdc cli changefeed list[ { "id": "upstream-to-downstream", "summary": { "state": "stopped", # Ensure that the status is stopped "tso": 431747241184329729, "checkpoint": "2022-03-11 15:50:20.387", # This time must be later than the time of stopping writing "error": null } } ]ダウンストリームからアップストリームへのチェンジフィードを作成します。アップストリーム データとダウンストリーム データに一貫性があり、クラスターに新しいデータが書き込まれることはないため、
start-ts
指定しないままにしてデフォルト設定を使用できます。tiup cdc cli changefeed create --server=http://172.16.6.125:8300 --sink-uri="mysql://root:@172.16.6.122:4000" --changefeed-id="downstream -to-upstream"書き込みサービスをダウンストリーム クラスターに移行した後、一定期間観察します。下流クラスターが安定している場合は、上流クラスターを破棄できます。