📣

TiDB Cloud Serverless が
Starter
に変わりました!このページは自動翻訳されたものです。
原文はこちらからご覧ください。

TiFlashレプリカを作成する

このドキュメントでは、テーブルおよびデータベースのTiFlashレプリカを作成し、レプリカのスケジュールに使用可能なゾーンを設定する方法について説明します。

テーブルのTiFlashレプリカを作成する

TiFlashが TiKV クラスターに接続されても、デフォルトではデータレプリケーションは開始されません。MySQL クライアント経由で TiDB に DDL ステートメントを送信することで、特定のテーブルのTiFlashレプリカを作成できます。

ALTER TABLE table_name SET TIFLASH REPLICA count;

上記コマンドのパラメータは以下のとおりです。

  • countレプリカの数を示します。値が0の場合、レプリカは削除されます。

注記:

TiDB Cloud Serverlessクラスターの場合、 TiFlashレプリカのcount 2しか設定できません。7 1設定した場合、実行時に自動的に2に調整されます。2 より大きい数に設定した場合、レプリカ数に関するエラーが発生します。

同じテーブルに対して複数のDDL文を実行した場合、最後に実行された文のみが確実に有効になります。次の例では、テーブルtpch50に対して2つのDDL文が実行されていますが、2番目の文(レプリカを削除する文)のみが確実に有効になります。

テーブルのレプリカを 2 つ作成します。

ALTER TABLE `tpch50`.`lineitem` SET TIFLASH REPLICA 2;

レプリカを削除します。

ALTER TABLE `tpch50`.`lineitem` SET TIFLASH REPLICA 0;

注記:

  • 上記の DDL ステートメントを通じてテーブルt TiFlashに複製されると、次のステートメントを使用して作成されたテーブルも自動的にTiFlashに複製されます。

    CREATE TABLE table_name like t;
  • v4.0.6より前のバージョンでは、 TiDB Lightningを使用してデータをインポートする前にTiFlashレプリカを作成すると、データのインポートは失敗します。テーブルのTiFlashレプリカを作成する前に、テーブルにデータをインポートする必要があります。

  • TiDB とTiDB Lightning の両方が v4.0.6 以降であれば、テーブルにTiFlashレプリカがあるかどうかに関係なく、 TiDB Lightningを使用してそのテーブルにデータをインポートできます。ただし、 TiDB Lightning のプロセスは、Lightning ホストの NIC 帯域幅、 TiFlashノードの CPU とディスク負荷、およびTiFlashレプリカの数に応じて遅くなる可能性があります。

  • PDスケジューリングのパフォーマンスが低下するため、1,000を超えるテーブルを複製することは推奨されません。この制限は、今後のバージョンで削除される予定です。

  • v5.1以降のバージョンでは、システムテーブルのレプリカ設定はサポートされなくなりました。クラスターをアップグレードする前に、関連するシステムテーブルのレプリカをクリアする必要があります。そうしないと、クラスターを新しいバージョンにアップグレードした後に、システムテーブルのレプリカ設定を変更できなくなります。

  • 現在、TiCDC を使用してテーブルをダウンストリーム TiDB クラスターにレプリケートする場合、テーブルのTiFlashレプリカの作成はサポートされていません。つまり、TiCDC は次のようなTiFlash関連の DDL ステートメントのレプリケートをサポートしていません。

    • ALTER TABLE table_name SET TIFLASH REPLICA count;
    • ALTER DATABASE db_name SET TIFLASH REPLICA count;

レプリケーションの進行状況を確認する

特定のテーブルのTiFlashレプリカのステータスを確認するには、次の文を使用します。テーブルはWHERE句で指定します。3 WHEREの句を削除すると、すべてのテーブルのレプリカステータスを確認できます。

SELECT * FROM information_schema.tiflash_replica WHERE TABLE_SCHEMA = '<db_name>' and TABLE_NAME = '<table_name>';

上記のステートメントの結果は次のようになります。

  • AVAILABLE 、このテーブルのTiFlashレプリカが使用可能かどうかを示します。2 1使用可能、 0使用不可を意味します。レプリカが使用可能になると、このステータスは変更されません。DDL ステートメントを使用してレプリカ数を変更すると、レプリケーション ステータスは再計算されます。
  • PROGRESSレプリケーションの進行状況を表します。値は0.0から1.0までです。6 1少なくとも1つのレプリカがレプリケートされていることを意味します。

データベースのTiFlashレプリカを作成する

テーブルのTiFlashレプリカを作成するのと同様に、MySQL クライアントを介して DDL ステートメントを TiDB に送信し、特定のデータベース内のすべてのテーブルのTiFlashレプリカを作成できます。

ALTER DATABASE db_name SET TIFLASH REPLICA count;

このステートメントでは、 countレプリカの数を示しています。 0に設定すると、レプリカが削除されます。

例:

  • データベースtpch50内のすべてのテーブルに対して 2 つのレプリカを作成します。

    ALTER DATABASE `tpch50` SET TIFLASH REPLICA 2;
  • データベースtpch50用に作成されたTiFlashレプリカを削除します。

    ALTER DATABASE `tpch50` SET TIFLASH REPLICA 0;

注記:

  • この文は実際には一連のDDL操作を実行しますが、これらの操作はリソースを大量に消費します。文の実行中に中断された場合、実行された操作はロールバックされず、実行されていない操作は続行されません。

  • ステートメント実行後、このデータベース内のすべてのテーブルがレプリケートされるまで、 TiFlashレプリカの数を設定したり、このデータベースに対してDDL操作を実行したりしないでください。そうしないと、次のような予期しない結果が発生する可能性があります。

    • TiFlashレプリカの数を 2 に設定し、データベース内のすべてのテーブルがレプリケートされる前にその数を 1 に変更した場合、すべてのテーブルのTiFlashレプリカの最終的な数は必ずしも 1 または 2 になるとは限りません。
    • ステートメントを実行した後、ステートメントの実行が完了する前にこのデータベースにテーブルを作成すると、これらの新しいテーブルに対してTiFlashレプリカが作成される場合と作成されない場合があります
    • ステートメントの実行後、ステートメントの実行が完了する前にデータベース内のテーブルのインデックスを追加すると、ステートメントがハングし、インデックスが追加された後にのみ再開される可能性があります。
  • ステートメントの実行が完了した後にこのデータベースにテーブルを作成した場合、これらの新しいテーブルに対してTiFlashレプリカは自動的に作成されません。

  • このステートメントは、システム テーブル、ビュー、一時テーブル、およびTiFlashでサポートされていない文字セットを持つテーブルをスキップします。

  • システム変数tidb_batch_pending_tiflash_count設定することで、実行中に利用不可のままにできるテーブルの数を制御できます。この値を下げると、レプリケーション中のクラスターへの負荷を軽減できます。ただし、この制限はリアルタイムではないため、設定を適用した後でも利用不可のテーブル数が制限を超える可能性があります。

レプリケーションの進行状況を確認する

テーブルのTiFlashレプリカの作成と同様に、DDL文の実行が成功してもレプリケーションの完了を意味するわけではありません。次のSQL文を実行することで、ターゲットテーブルのレプリケーションの進行状況を確認できます。

SELECT * FROM information_schema.tiflash_replica WHERE TABLE_SCHEMA = '<db_name>';

データベース内のTiFlashレプリカのないテーブルをチェックするには、次の SQL ステートメントを実行します。

SELECT TABLE_NAME FROM information_schema.tables where TABLE_SCHEMA = "<db_name>" and TABLE_NAME not in (SELECT TABLE_NAME FROM information_schema.tiflash_replica where TABLE_SCHEMA = "<db_name>");

TiFlashレプリケーションの高速化

TiFlashレプリカを追加する前に、各TiKVインスタンスはテーブル全体をスキャンし、スキャンしたデータを「スナップショット」としてTiFlashに送信してレプリカを作成します。デフォルトでは、オンラインサービスへの影響を最小限に抑えるため、 TiFlashレプリカはリソース使用量を抑えながらゆっくりと追加されます。TiKVノードとTiFlashノードに余裕のあるCPUリソースとディスクIOリソースがある場合は、以下の手順でTiFlashレプリケーションを高速化できます。

  1. 動的設定SQL文使用して、各 TiKV およびTiFlashインスタンスのスナップショット書き込み速度制限を一時的に上げます。

    -- The default value for both configurations are 100MiB, i.e. the maximum disk bandwidth used for writing snapshots is no more than 100MiB/s. SET CONFIG tikv `server.snap-io-max-bytes-per-sec` = '300MiB'; SET CONFIG tiflash `raftstore-proxy.server.snap-io-max-bytes-per-sec` = '300MiB';

    これらのSQL文を実行すると、クラスターを再起動することなく設定変更が即座に反映されます。ただし、レプリケーション速度はPD制限によってグローバルに制限されているため、現時点では高速化の効果を確認することはできません。

  2. 新しいレプリカの速度制限を段階的に緩和するには、 PD Control使用します。

    デフォルトの新規レプリカ速度制限は30です。これは、毎分約30のリージョンがTiFlashレプリカを追加することを意味します。以下のコマンドを実行すると、すべてのTiFlashインスタンスの制限が60に調整され、速度は元の2倍になります。

    tiup ctl:v<CLUSTER_VERSION> pd -u http://<PD_ADDRESS>:2379 store limit all engine tiflash 60 add-peer

    上記のコマンドでは、 v<CLUSTER_VERSION>実際のクラスターバージョン( v8.1.2 <PD_ADDRESS>:2379任意のPDノードのアドレスなど)に置き換える必要があります。例:

    tiup ctl:v8.1.2 pd -u http://192.168.1.4:2379 store limit all engine tiflash 60 add-peer

    数分以内に、 TiFlashノードのCPUとディスクIOリソース使用量が大幅に増加し、 TiFlashによるレプリカ作成速度が向上することがわかります。同時に、TiKVノードのCPUとディスクIOリソース使用量も増加します。

    この時点で TiKV ノードとTiFlashノードにまだ余分なリソースがあり、オンライン サービスのレイテンシーが大幅に増加しない場合は、制限をさらに緩和して、たとえば元の速度を 3 倍にすることができます。

    tiup ctl:v<CLUSTER_VERSION> pd -u http://<PD_ADDRESS>:2379 store limit all engine tiflash 90 add-peer
  3. TiFlashレプリケーションが完了したら、オンライン サービスへの影響を軽減するために、デフォルト構成に戻します。

    デフォルトの新しいレプリカ速度制限を復元するには、次のPD Controlコマンドを実行します。

    tiup ctl:v<CLUSTER_VERSION> pd -u http://<PD_ADDRESS>:2379 store limit all engine tiflash 30 add-peer

    デフォルトのスナップショット書き込み速度制限を復元するには、次の SQL ステートメントを実行します。

    SET CONFIG tikv `server.snap-io-max-bytes-per-sec` = '100MiB'; SET CONFIG tiflash `raftstore-proxy.server.snap-io-max-bytes-per-sec` = '100MiB';

利用可能なゾーンを設定する

レプリカを構成する際に、災害復旧のためにTiFlashレプリカを複数のデータセンターに分散する必要がある場合は、次の手順に従って使用可能なゾーンを構成できます。

  1. クラスター構成ファイルでTiFlashノードのラベルを指定します。

    tiflash_servers: - host: 172.16.5.81 logger.level: "info" learner_config: server.labels: zone: "z1" - host: 172.16.5.82 config: logger.level: "info" learner_config: server.labels: zone: "z1" - host: 172.16.5.85 config: logger.level: "info" learner_config: server.labels: zone: "z2"

    以前のバージョンでは、 flash.proxy.labels設定では、利用可能なゾーン名に含まれる特殊文字を正しく処理できないことに注意してください。利用可能なゾーン名を設定するには、 learner_configserver.labelsを使用することをお勧めします。

  2. クラスターを起動した後、レプリカを作成するときにラベルを指定します。

    ALTER TABLE table_name SET TIFLASH REPLICA count LOCATION LABELS location_labels;

    例えば:

    ALTER TABLE t SET TIFLASH REPLICA 2 LOCATION LABELS "zone";
  3. PDはラベルに基づいてレプリカをスケジュールします。この例では、PDはテーブルtの2つのレプリカをそれぞれ2つの利用可能なゾーンにスケジュールしています。スケジュール状況はpd-ctlで確認できます。

    > tiup ctl:v<CLUSTER_VERSION> pd -u http://<PD_ADDRESS>:2379 store ... "address": "172.16.5.82:23913", "labels": [ { "key": "engine", "value": "tiflash"}, { "key": "zone", "value": "z1" } ], "region_count": 4, ... "address": "172.16.5.81:23913", "labels": [ { "key": "engine", "value": "tiflash"}, { "key": "zone", "value": "z1" } ], "region_count": 5, ... "address": "172.16.5.85:23913", "labels": [ { "key": "engine", "value": "tiflash"}, { "key": "zone", "value": "z2" } ], "region_count": 9, ...

ラベルを使用してレプリカをスケジュールする方法の詳細については、 トポロジラベルによるレプリカのスケジュール1 つの地域展開における複数のデータセンター 、および2 つの地域に配置された 3 つのデータ センター参照してください。

TiFlashは、異なるゾーンに対するレプリカ選択戦略の設定をサポートしています。詳細については、 tiflash_replica_read参照してください。

このページは役に立ちましたか?