配置ルール

注記:

このドキュメントでは、Placement Driver (PD) で配置ルールを手動で指定する方法を紹介します。現在はSQL の配置ルールを使用することをお勧めします。これにより、テーブルとパーティションの配置を構成するためのより便利な方法が提供されます。

v5.0 で導入された配置ルールは、PD がさまざまなタイプのデータに対応するスケジュールを生成するようにガイドするレプリカ ルール システムです。さまざまなスケジューリング ルールを組み合わせることで、レプリカの数、storageの場所、ホストの種類、 Raft の選出に参加するかどうか、 Raftリーダーとして機能するかどうかなど、連続データ範囲の属性を細かく制御できます。

TiDB の v5.0 以降のバージョンでは、配置ルール機能がデフォルトで有効になっています。無効にするには、 配置ルールを無効にするを参照してください。

ルールシステム

ルールシステム全体の構成は複数のルールから構成されます。各ルールでは、レプリカの数、 Raft の役割、配置場所、このルールが有効になるキー範囲などの属性を指定できます。 PD がスケジュールを実行するとき、まず、リージョンのキー範囲に従ってルール システム内のリージョンに対応するルールを見つけ、次に、リージョンレプリカの配布をルールに準拠させるために対応するスケジュールを生成します。

複数のルールのキー範囲には重複部分がある場合があります。つまり、リージョンは複数のルールに一致する可能性があります。この場合、PD はルールの属性に応じてルールを上書きするか、同時に発効するかを決定します。複数のルールが同時に有効になる場合、PD はルール照合のルールの積み重ね順序に従って順番にスケジュールを生成します。

さらに、異なるソースからのルールを相互に分離するという要件を満たすために、これらのルールをより柔軟な方法で編成できます。そこで「グループ」という概念が導入される。一般に、ユーザーはさまざまなソースに従ってルールをさまざまなグループに配置できます。

Placement rules overview

ルールフィールド

次の表は、ルール内の各フィールドの意味を示しています。

フィールド名種類と制限事項説明
GroupIDstringルールのソースをマークするグループ ID。
IDstringグループ内のルールの一意の ID。
Indexintグループ内のルールの積み重ねシーケンス。
Overridetrue / false(グループ内の) より小さいインデックスでルールを上書きするかどうか。
StartKeystring 、16 進数形式範囲の開始キーに適用されます。
EndKeystring 、16 進数形式範囲の終了キーに適用されます。
Rolestring投票者/リーダー/フォロワー/学習者などのレプリカの役割。
Countint 、正の整数レプリカの数。
LabelConstraint[]Constraintラベルに基づいてノードをフィルタリングします。
LocationLabels[]string物理的な隔離に使用されます。
IsolationLevelstring最小の物理的分離レベルを設定するために使用されます

LabelConstraint 4 つのプリミティブ ( innotInexists 、およびnotExists ) に基づいてラベルをフィルタリングする Kubernetes の関数に似ています。これら 4 つのプリミティブの意味は次のとおりです。

  • in : 指定されたキーのラベル値が指定されたリストに含まれます。
  • notIn : 指定されたキーのラベル値は指定されたリストに含まれません。
  • exists : 指定されたラベルキーが含まれます。
  • notExists : 指定されたラベルキーは含まれません。

LocationLabelsの意味と機能は v4.0 以前と同様です。たとえば、3 層トポロジを定義する[zone,rack,host]展開した場合、クラスターには複数のゾーン (アベイラビリティーゾーン) があり、各ゾーンには複数のラックがあり、各ラックには複数のホストがあります。スケジュールを実行するとき、PD はまずリージョンのピアを異なるゾーンに配置しようとします。この試行が失敗した場合 (レプリカが 3 つあるのにゾーンが合計 2 つしかない場合など)、PD はこれらのレプリカを別のラックに配置することを保証します。ラックの数が分離を保証するのに十分でない場合、PD はホストレベルの分離を試みます。

IsolationLevelの意味と機能についてはクラスタトポロジ構成で詳しく説明します。たとえば、 LocationLabelsで 3 層トポロジを定義する[zone,rack,host]展開し、 IsolationLevelzoneに設定した場合、PD は、スケジューリング中に各リージョンのすべてのピアが異なるゾーンに配置されるようにします。 IsolationLevelの最小分離レベル制限を満たすことができない場合 (たとえば、3 つのレプリカが構成されているが、合計でデータ ゾーンが 2 つしかない場合)、PD はこの制限を満たすために補おうとしません。デフォルト値のIsolationLevel空の文字列で、無効であることを意味します。

ルールグループのフィールド

次の表に、ルール グループの各フィールドの説明を示します。

フィールド名種類と制限事項説明
IDstringルールのソースをマークするグループ ID。
Indexint異なるグループの積み重ねシーケンス。
Overridetrue / falseより小さいインデックスを持つグループをオーバーライドするかどうか。

ルールを構成する

このセクションの操作はPD-CTLに基づいており、操作に含まれるコマンドは HTTP API を介した呼び出しもサポートしています。

配置ルールを有効にする

TiDB の v5.0 以降のバージョンでは、配置ルール機能がデフォルトで有効になっています。無効にするには、 配置ルールを無効にするを参照してください。この機能を無効にした後に有効にするには、クラスターを初期化する前に次のように PD 構成ファイルを変更します。

[replication] enable-placement-rules = true

このように、クラスターが正常にブートストラップされた後、PD はこの機能を有効にし、 max-replicaslocation-labels 、およびisolation-levelの構成に従って対応するルールを生成します。

{ "group_id": "pd", "id": "default", "start_key": "", "end_key": "", "role": "voter", "count": 3, "location_labels": ["zone", "rack", "host"], "isolation_level": "" }

ブートストラップされたクラスターの場合、pd-ctl を通じて配置ルールを動的に有効にすることもできます。

pd-ctl config placement-rules enable

PD は、 max-replicaslocation-labels 、およびisolation-levelの構成に基づいてデフォルトのルールも生成します。

注記:

  • 配置ルールが有効で、複数のルールが存在する場合、以前に構成されたmax-replicaslocation-labels 、およびisolation-level無効になります。レプリカ ポリシーを調整するには、配置ルールに関連するインターフェイスを使用します。
  • 配置ルールが有効で、デフォルト ルールが 1 つだけ存在する場合、 max-replicaslocation-labels 、またはisolation-level構成が変更されると、TiDB はこのデフォルト ルールを自動的に更新します。

配置ルールを無効にする

pd-ctl を使用すると、配置ルール機能を無効にし、以前のスケジュール戦略に切り替えることができます。

pd-ctl config placement-rules disable

注記:

配置ルールを無効にした後、PD は元のmax-replicaslocation-labels 、およびisolation-level構成を使用します。ルールを変更しても (配置ルールが有効な場合)、これら 3 つの構成はリアルタイムでは更新されません。さらに、設定されているすべてのルールは PD に残り、次回配置ルールを有効にするときに使用されます。

pd-ctl を使用してルールを設定する

注記:

ルールの変更はリアルタイムで PD スケジューリングに影響します。ルール設定が不適切であると、レプリカの数が減り、システムの高可用性に影響を与える可能性があります。

pd-ctl は、システム内のルールを表示する次のメソッドの使用をサポートしており、出力は JSON 形式のルールまたはルール リストです。

  • すべてのルールのリストを表示するには:

    pd-ctl config placement-rules show
  • PD グループ内のすべてのルールのリストを表示するには、次の手順を実行します。

    pd-ctl config placement-rules show --group=pd
  • グループ内の特定の ID のルールを表示するには:

    pd-ctl config placement-rules show --group=pd --id=default
  • リージョンに一致するルールのリストを表示するには:

    pd-ctl config placement-rules show --region=2

    上の例では、 2がリージョンID です。

ルールの追加と編集は似ています。対応するルールをファイルに書き込み、 saveコマンドを使用してルールを PD に保存する必要があります。

cat > rules.json <<EOF [ { "group_id": "pd", "id": "rule1", "role": "voter", "count": 3, "location_labels": ["zone", "rack", "host"] }, { "group_id": "pd", "id": "rule2", "role": "voter", "count": 2, "location_labels": ["zone", "rack", "host"] } ] EOF pd-ctl config placement save --in=rules.json

上記の操作により、PD にrule1rule2が書き込まれます。同じGroupID + IDのルールがシステムにすでに存在する場合、このルールは上書きされます。

ルールを削除するには、ルールのcount0に設定するだけで、同じGroupID + IDを持つルールが削除されます。次のコマンドはpd / rule2ルールを削除します。

cat > rules.json <<EOF [ { "group_id": "pd", "id": "rule2" } ] EOF pd-ctl config placement save --in=rules.json

pd-ctl を使用してルール グループを構成する

  • すべてのルール グループのリストを表示するには、次の手順を実行します。

    pd-ctl config placement-rules rule-group show
  • 特定の ID のルール グループを表示するには:

    pd-ctl config placement-rules rule-group show pd
  • ルール グループのindex属性とoverride属性を設定するには、次の手順を実行します。

    pd-ctl config placement-rules rule-group set pd 100 true
  • ルール グループの設定を削除するには (グループ内にルールがある場合は、デフォルトのグループ設定を使用します):

    pd-ctl config placement-rules rule-group delete pd

pd-ctl を使用してグループとグループ内のルールをバッチ更新する

ルール グループとグループ内のすべてのルールを同時に表示および変更するには、 rule-bundleサブコマンドを実行します。

このサブコマンドでは、 get {group_id}を使用してグループをクエリし、出力結果にはルール グループとそのグループのルールがネストされた形式で表示されます。

pd-ctl config placement-rules rule-bundle get pd

上記のコマンドの出力は次のとおりです。

{ "group_id": "pd", "group_index": 0, "group_override": false, "rules": [ { "group_id": "pd", "id": "default", "start_key": "", "end_key": "", "role": "voter", "count": 3 } ] }

出力をファイルに書き込むには、 --out引数をrule-bundle getサブコマンドに追加します。これは、後で変更して保存する場合に便利です。

pd-ctl config placement-rules rule-bundle get pd --out="group.json"

変更が完了したら、 rule-bundle setサブコマンドを使用して、ファイル内の構成を PDサーバーに保存できます。 pd-ctl を使用してルールを設定するで説明したsaveコマンドとは異なり、このコマンドはサーバー側でこのグループのすべてのルールを置き換えます。

pd-ctl config placement-rules rule-bundle set pd --in="group.json"

pd-ctl を使用してすべての構成を表示および変更する

pd-ctl を使用してすべての構成を表示および変更することもできます。これを行うには、すべての設定をファイルに保存し、設定ファイルを編集してから、そのファイルを PDサーバーに保存して、以前の設定を上書きします。この操作でもrule-bundleサブコマンドを使用します。

たとえば、すべての設定をrules.jsonファイルに保存するには、次のコマンドを実行します。

pd-ctl config placement-rules rule-bundle load --out="rules.json"

ファイルを編集した後、次のコマンドを実行して構成を PDサーバーに保存します。

pd-ctl config placement-rules rule-bundle save --in="rules.json"

メタデータまたは特定のテーブルに特別な構成が必要な場合は、 keyrangeコマンド / tidb-ctlを実行して関連キーをクエリできます。コマンドの最後に--encodeを忘れずに追加してください。

tidb-ctl keyrange --database test --table ttt --encode
global ranges: meta: (6d00000000000000f8, 6e00000000000000f8) table: (7400000000000000f8, 7500000000000000f8) table ttt ranges: (NOTE: key range might be changed after DDL) table: (7480000000000000ff2d00000000000000f8, 7480000000000000ff2e00000000000000f8) table indexes: (7480000000000000ff2d5f690000000000fa, 7480000000000000ff2d5f720000000000fa) index c2: (7480000000000000ff2d5f698000000000ff0000010000000000fa, 7480000000000000ff2d5f698000000000ff0000020000000000fa) index c3: (7480000000000000ff2d5f698000000000ff0000020000000000fa, 7480000000000000ff2d5f698000000000ff0000030000000000fa) index c4: (7480000000000000ff2d5f698000000000ff0000030000000000fa, 7480000000000000ff2d5f698000000000ff0000040000000000fa) table rows: (7480000000000000ff2d5f720000000000fa, 7480000000000000ff2e00000000000000f8)

注記:

DDL およびその他の操作によりテーブル ID が変更される可能性があるため、対応するルールを同時に更新する必要があります。

一般的な使用シナリオ

このセクションでは、配置ルールの一般的な使用シナリオを紹介します。

シナリオ 1: 通常のテーブルに 3 つのレプリカを使用し、メタデータに 5 つのレプリカを使用して、クラスターの耐災害性を向上させる

必要なのは、キー範囲をメタデータの範囲に制限するルールを追加し、値count5を設定することだけです。このルールの例を次に示します。

{ "group_id": "pd", "id": "meta", "index": 1, "override": true, "start_key": "6d00000000000000f8", "end_key": "6e00000000000000f8", "role": "voter", "count": 5, "location_labels": ["zone", "rack", "host"] }

シナリオ 2: 5 つのレプリカを 2:2:1 の比率で 3 つのデータ センターに配置します。Leaderは3 番目のデータ センターにあるべきではありません。

3 つのルールを作成します。レプリカの数をそれぞれ22 、および1に設定します。各ルールで、レプリカを対応するデータ センターにlabel_constraintsまでに制限します。さらに、Leaderを必要としないデータセンターの場合は、 rolefollowerに変更します。

[ { "group_id": "pd", "id": "zone1", "start_key": "", "end_key": "", "role": "voter", "count": 2, "label_constraints": [ {"key": "zone", "op": "in", "values": ["zone1"]} ], "location_labels": ["rack", "host"] }, { "group_id": "pd", "id": "zone2", "start_key": "", "end_key": "", "role": "voter", "count": 2, "label_constraints": [ {"key": "zone", "op": "in", "values": ["zone2"]} ], "location_labels": ["rack", "host"] }, { "group_id": "pd", "id": "zone3", "start_key": "", "end_key": "", "role": "follower", "count": 1, "label_constraints": [ {"key": "zone", "op": "in", "values": ["zone3"]} ], "location_labels": ["rack", "host"] } ]

シナリオ 3: テーブルに 2 つのTiFlashレプリカを追加する

テーブルの行キーに別のルールを追加し、 count2に制限します。 engine = tiflashのノード上でレプリカが生成されるようにするには、 label_constraints使用します。ここでは、このルールがシステム内の他のソースからのルールと重複したり競合したりしないようにするために、別のgroup_idが使用されていることに注意してください。

{ "group_id": "tiflash", "id": "learner-replica-table-ttt", "start_key": "7480000000000000ff2d5f720000000000fa", "end_key": "7480000000000000ff2e00000000000000f8", "role": "learner", "count": 2, "label_constraints": [ {"key": "engine", "op": "in", "values": ["tiflash"]} ], "location_labels": ["host"] }

シナリオ 4: 高性能ディスクを備えた北京ノードのテーブルに 2 つのフォロワー レプリカを追加する

次の例は、より複雑なlabel_constraints構成を示しています。このルールでは、レプリカはbj1またはbj2マシン ルームに配置され、ディスク タイプはnvmeである必要があります。

{ "group_id": "follower-read", "id": "follower-read-table-ttt", "start_key": "7480000000000000ff2d00000000000000f8", "end_key": "7480000000000000ff2e00000000000000f8", "role": "follower", "count": 2, "label_constraints": [ {"key": "zone", "op": "in", "values": ["bj1", "bj2"]}, {"key": "disk", "op": "in", "values": ["nvme"]} ], "location_labels": ["host"] }

シナリオ 5: SSD ディスクを備えたノードにテーブルを移行する

シナリオ 3 とは異なり、このシナリオは既存の構成に基づいて新しいレプリカを追加するのではなく、データ範囲の他の構成を強制的にオーバーライドします。したがって、既存のルールをオーバーライドするには、十分な大きさの値indexを指定し、ルール グループ設定でoverridetrueを設定する必要があります。

ルール:

{ "group_id": "ssd-override", "id": "ssd-table-45", "start_key": "7480000000000000ff2d5f720000000000fa", "end_key": "7480000000000000ff2e00000000000000f8", "role": "voter", "count": 3, "label_constraints": [ {"key": "disk", "op": "in", "values": ["ssd"]} ], "location_labels": ["rack", "host"] }

ルールグループ:

{ "id": "ssd-override", "index": 1024, "override": true, }

このページは役に立ちましたか?

Playground
新規
登録なしで TiDB の機能をワンストップでインタラクティブに体験できます。
製品
TiDB Cloud
TiDB
価格
PoC お問い合わせ
エコシステム
TiKV
TiFlash
OSS Insight
© 2024 PingCAP. All Rights Reserved.
Privacy Policy.