PD Controlユーザー ガイド

PD のコマンドライン ツールとして、 PD Control はクラスターの状態情報を取得し、クラスターを調整します。

PD Controlをインストールする

注記:

使用する制御ツールのバージョンは、クラスターのバージョンと一致させることをお勧めします。

TiUPコマンドを使用する

PD Controlを使用するには、 tiup ctl:v<CLUSTER_VERSION> pd -u http://<pd_ip>:<pd_port> [-i]コマンドを実行します。

インストールパッケージをダウンロードする

最新バージョンのpd-ctlを入手するには、TiDBサーバーインストール パッケージをダウンロードしてください。3 pd-ctl ctl-{version}-linux-{arch}.tar.gzパッケージに含まれています。

インストールパッケージOSアーキテクチャSHA256 チェックサム
https://download.pingcap.org/tidb-community-server-{version}-linux-amd64.tar.gz (pd-ctl)リナックス64ビットhttps://download.pingcap.org/tidb-community-server-{version}-linux-amd64.tar.gz.sha256
https://download.pingcap.org/tidb-community-server-{version}-linux-arm64.tar.gz (pd-ctl)リナックスアーム64https://download.pingcap.org/tidb-community-server-{version}-linux-arm64.tar.gz.sha256

注記:

リンク内の{version} TiDB のバージョン番号を示します。たとえば、 amd64アーキテクチャのv7.5.3のダウンロード リンクはhttps://download.pingcap.org/tidb-community-server-v7.5.3-linux-amd64.tar.gzです。

ソースコードからコンパイルする

  1. Go モジュールが使用されるため、 行く以降が必要です。
  2. PDプロジェクトのルート ディレクトリで、 makeまたはmake pd-ctlコマンドを使用してbin/pd-ctlをコンパイルして生成します。

使用法

シングルコマンドモード:

tiup ctl:v<CLUSTER_VERSION> pd store -u http://127.0.0.1:2379

インタラクティブモード:

tiup ctl:v<CLUSTER_VERSION> pd -i -u http://127.0.0.1:2379

環境変数を使用する:

export PD_ADDR=http://127.0.0.1:2379 tiup ctl:v<CLUSTER_VERSION> pd

TLS を使用して暗号化します:

tiup ctl:v<CLUSTER_VERSION> pd -u https://127.0.0.1:2379 --cacert="path/to/ca" --cert="path/to/cert" --key="path/to/key"

コマンドラインフラグ

--cacert

  • 信頼された CA の証明書ファイルへのパスを PEM 形式で指定します。
  • デフォルト: ""

--cert

  • PEM形式のSSL証明書へのパスを指定します
  • デフォルト: ""

--detach / -d

  • 単一のコマンドラインモードを使用します(readline には入りません)
  • デフォルト: true

--help / -h

  • ヘルプ情報を出力します
  • デフォルト: false

--interact / -i

  • 対話モードを使用する(readlineに入る)
  • デフォルト: false

--key

  • --certで指定した証明書の秘密鍵であるPEM形式のSSL証明書キーファイルへのパスを指定します。
  • デフォルト: ""

--pd / -u

  • PDアドレスを指定します
  • デフォルトアドレス: http://127.0.0.1:2379
  • 環境変数: PD_ADDR

--version / -V

  • バージョン情報を出力して終了します
  • デフォルト: false

指示

cluster

このコマンドを使用して、クラスターの基本情報を表示します。

使用法:

>> cluster // To show the cluster information { "id": 6493707687106161130, "max_peer_count": 3 }

config [show | set <option> <value> | placement-rules]

このコマンドを使用して、構成情報を表示または変更します。

使用法:

>> config show // Display the config information of the scheduling { "replication": { "enable-placement-rules": "true", "isolation-level": "", "location-labels": "", "max-replicas": 3, "strictly-match-label": "false" }, "schedule": { "enable-cross-table-merge": "true", "high-space-ratio": 0.7, "hot-region-cache-hits-threshold": 3, "hot-region-schedule-limit": 4, "leader-schedule-limit": 4, "leader-schedule-policy": "count", "low-space-ratio": 0.8, "max-merge-region-keys": 200000, "max-merge-region-size": 20, "max-pending-peer-count": 64, "max-snapshot-count": 64, "max-store-down-time": "30m0s", "merge-schedule-limit": 8, "patrol-region-interval": "10ms", "region-schedule-limit": 2048, "region-score-formula-version": "v2", "replica-schedule-limit": 64, "scheduler-max-waiting-operator": 5, "split-merge-interval": "1h0m0s", "tolerant-size-ratio": 0 } } >> config show all // Display all config information >> config show replication // Display the config information of replication { "max-replicas": 3, "location-labels": "", "isolation-level": "", "strictly-match-label": "false", "enable-placement-rules": "true" } >> config show cluster-version // Display the current version of the cluster, which is the current minimum version of TiKV nodes in the cluster and does not correspond to the binary version. "5.2.2"
  • max-snapshot-count 、単一のストアが同時に受信または送信するスナップショットの最大数を制御します。スケジューラは、通常のアプリケーション リソースを消費しないように、この構成によって制限されます。レプリカの追加やバランス調整の速度を向上させる必要がある場合は、この値を増やします。

    config set max-snapshot-count 64 // Set the maximum number of snapshots to 64
  • max-pending-peer-count 、単一のストア内の保留中のピアの最大数を制御します。一部のノードで最新のログがない領域が多数生成されるのを回避するために、スケジューラはこの構成によって制限されます。レプリカの追加やバランス調整の速度を向上させる必要がある場合は、この値を増やします。0 に設定すると、制限がないことを示します。

    config set max-pending-peer-count 64 // Set the maximum number of pending peers to 64
  • max-merge-region-size 、リージョンマージのサイズの上限を制御します (単位は MiB)。 regionSize指定された値を超えると、PD は隣接するリージョンとマージしません。 0 に設定すると、リージョンマージが無効になります。

    config set max-merge-region-size 16 // Set the upper limit on the size of Region Merge to 16 MiB
  • max-merge-region-keys 、リージョンマージのキー数の上限を制御します。2 regionKeyCount指定された値を超えると、PD は隣接するリージョンとマージしません。

    config set max-merge-region-keys 50000 // Set the upper limit on keyCount to 50000
  • split-merge-interval 、同じリージョンでのsplitmerge操作の間隔を制御します。つまり、新しく分割されたリージョンは一定期間内に結合されません。

    config set split-merge-interval 24h // Set the interval between `split` and `merge` to one day
  • enable-one-way-merge 、PD がリージョンを次のリージョンとのみ結合することを許可するかどうかを制御します。 falseに設定すると、PD はリージョンを隣接する 2 つのリージョンと結合することを可能にします。

    config set enable-one-way-merge true // Enables one-way merging.
  • enable-cross-table-merge 、テーブル間のリージョンのマージを有効にするために使用されます。 falseに設定すると、PD は異なるテーブルのリージョンをマージしません。このオプションは、キー タイプが「テーブル」の場合にのみ機能します。

    config set enable-cross-table-merge true // Enable cross table merge.
  • key-type 、クラスターに使用されるキー エンコーディング タイプを指定します。サポートされているオプションは ["table""raw""txn"] で、デフォルト値は "table" です。

    • クラスター内に TiDB インスタンスが存在しない場合は、 key-type 「raw」または「txn」になり、PD はenable-cross-table-merge設定に関係なくテーブル間でリージョンをマージできます。
    • クラスター内に TiDB インスタンスが存在する場合、 key-type 「テーブル」になります。PD がテーブル間でリージョンをマージできるかどうかは、 enable-cross-table-mergeによって決まります。 key-typeが「raw」の場合、配置ルールは機能しません。
    config set key-type raw // Enable cross table merge.
  • region-score-formula-version 、リージョンスコアの式のバージョンを制御します。値のオプションはv1v2です。式のバージョン 2 は、TiKV ノードをオンラインまたはオフラインにするなどの一部のシナリオで、冗長なバランスリージョンスケジューリングを削減するのに役立ちます。

    config set region-score-formula-version v2
  • patrol-region-intervalreplicaCheckerのヘルス ステータスをチェックする実行頻度を制御します。間隔が短いほど、実行頻度が高くなります。通常は、調整する必要はありません。

    config set patrol-region-interval 10ms // Set the execution frequency of replicaChecker to 10ms
  • max-store-down-time 、切断されたストアを復元できないと PD が判断する時間を制御します。指定された期間内に PD がストアからハートビートを受信しない場合、PD は他のノードにレプリカを追加します。

    config set max-store-down-time 30m // Set the time within which PD receives no heartbeats and after which PD starts to add replicas to 30 minutes
  • max-store-preparing-time 、ストアがオンラインになるまでの最大待機時間を制御します。ストアのオンライン段階では、PD はストアのオンライン進行状況を照会できます。指定された時間を超えると、PD はストアがオンラインになったと想定し、ストアのオンライン進行状況を再度照会できなくなります。ただし、これによってリージョンが新しいオンライン ストアに転送されることが防止されるわけではありません。ほとんどのシナリオでは、このパラメータを調整する必要はありません。

    次のコマンドは、ストアがオンラインになるまでの最大待機時間が 4 時間であることを指定します。

    config set max-store-preparing-time 4h
  • leader-schedule-limit 、リーダーを同時にスケジュールするタスクの数を制御します。この値は、リーダーバランスの速度に影響します。値が大きいほど速度が速くなり、値を 0 に設定すると、スケジュールが閉じられます。通常、リーダー スケジューリングの負荷は小さいため、必要に応じて値を増やすことができます。

    config set leader-schedule-limit 4 // 4 tasks of leader scheduling at the same time at most
  • region-schedule-limit 、同時にリージョンをスケジュールするタスクの数を制御します。この値により、リージョンバランス オペレーターが過度に作成されるのを回避できます。デフォルト値は2048で、これはすべてのサイズのクラスターに十分であり、値を0に設定するとスケジュールが閉じられます。通常、リージョンのスケジュール速度はstore-limitに制限されますが、何をしているのかを正確に理解していない限り、この値をカスタマイズしないことをお勧めします。

    config set region-schedule-limit 2 // 2 tasks of Region scheduling at the same time at most
  • replica-schedule-limit 、レプリカを同時にスケジュールするタスクの数を制御します。この値は、ノードがダウンまたは削除された場合のスケジュール速度に影響します。値が大きいほど速度が速くなり、値を 0 に設定するとスケジュールが閉じられます。通常、レプリカのスケジュールには大きな負荷がかかるため、あまり大きな値を設定しないでください。この構成項目は通常、デフォルト値のままになっていることに注意してください。値を変更する場合は、実際の状況に応じて最適な値を確認するために、いくつかの値を試す必要があります。

    config set replica-schedule-limit 4 // 4 tasks of replica scheduling at the same time at most
  • merge-schedule-limit 、リージョンマージ スケジュール タスクの数を制御します。値を 0 に設定すると、リージョンマージが閉じられます。通常、マージ スケジュールには大きな負荷がかかるため、あまり大きな値を設定しないでください。この構成項目は通常、デフォルト値のままになっていることに注意してください。値を変更する場合は、実際の状況に応じてどの値が最も効果的かを確認するために、いくつかの値を試す必要があります。

    config set merge-schedule-limit 16 // 16 tasks of Merge scheduling at the same time at most
  • hot-region-schedule-limit 、同時に実行されているホットなリージョンスケジューリング タスクを制御します。値を0に設定すると、スケジューリングが無効になります。あまり大きな値を設定することはお勧めしません。そうしないと、システム パフォーマンスに影響する可能性があります。この構成項目は通常、デフォルト値のままになっていることに注意してください。値を変更する場合は、実際の状況に応じて最適な値を見つけるために、いくつかの値を試す必要があります。

    config set hot-region-schedule-limit 4 // 4 tasks of hot Region scheduling at the same time at most
  • hot-region-cache-hits-threshold 、ホットリージョンを識別するために必要な分数を設定するために使用されます。PD は、リージョンがこの分数を超えてホット スポット状態になった後にのみ、ホット スポット スケジューリングに参加できます。

  • tolerant-size-ratioバランス バッファ領域のサイズを制御します。2 つのストアのリーダーまたはリージョン間のスコア差がリージョンサイズの指定された倍数より小さい場合、PD によってバランスが取れていると見なされます。

    config set tolerant-size-ratio 20 // Set the size of the buffer area to about 20 times of the average Region Size
  • low-space-ratio 、ストア領域が不足しているとみなされるしきい値を制御します。ノードが占有する領域の割合が指定された値を超えると、PD は対応するノードへのデータの移行を可能な限り回避しようとします。同時に、PD は残りの領域を主にスケジュールして、対応するノードのディスク領域を使い果たさないようにします。

    config set low-space-ratio 0.9 // Set the threshold value of insufficient space to 0.9
  • high-space-ratio 、十分なストアスペースと見なされるしきい値を制御します。この構成は、 region-score-formula-versionv1に設定されている場合にのみ有効になります。ノードが占有するスペースの比率が指定された値よりも小さい場合、PD は残りのスペースを無視し、主に実際のデータ量をスケジュールします。

    config set high-space-ratio 0.5 // Set the threshold value of sufficient space to 0.5
  • cluster-versionはクラスターのバージョンであり、一部の機能を有効または無効にしたり、互換性の問題に対処したりするために使用されます。デフォルトでは、クラスター内で正常に実行されているすべての TiKV ノードの最小バージョンです。以前のバージョンにロールバックする必要がある場合にのみ、手動で設定できます。

    config set cluster-version 1.0.8 // Set the version of the cluster to 1.0.8
  • replication-mode 、デュアル データ センター シナリオにおけるリージョンのレプリケーション モードを制御します。詳細についてはDR自動同期モードを有効にするを参照してください。

  • leader-schedule-policy 、リーダーのスケジュール戦略を選択するために使用されます。 sizeまたはcountに従ってリーダーをスケジュールできます。

  • scheduler-max-waiting-operatorは、各スケジューラ内の待機オペレータの数を制御するために使用されます。

  • enable-remove-down-replica 、DownReplica を自動的に削除する機能を有効にするために使用されます。 falseに設定すると、PD はダウンタイムレプリカを自動的にクリーンアップしません。

  • enable-replace-offline-replica 、OfflineReplica の移行機能を有効にするために使用されます。 falseに設定すると、PD はオフライン レプリカを移行しません。

  • enable-make-up-replicaレプリカ作成機能を有効にするために使用されます。 falseに設定すると、PD はレプリカが十分でないリージョンに対してレプリカを追加しません。

  • enable-remove-extra-replica 、余分なレプリカを削除する機能を有効にするために使用されます。 falseに設定すると、PD は冗長レプリカを持つリージョンの余分なレプリカを削除しません。

  • enable-location-replacement分離レベルのチェックを有効にするために使用されます。 falseに設定すると、PD はスケジュールを通じてリージョンレプリカの分離レベルを上げません。

  • enable-debug-metricsデバッグ用のメトリックを有効にするために使用されます。 trueに設定すると、PD はbalance-tolerant-sizeなどの一部のメトリックを有効にします。

  • enable-placement-rulesは配置ルールを有効にするために使用され、v5.0 以降のバージョンではデフォルトで有効になっています。

  • store-limit-modeストア速度を制限するモードを制御するために使用されます。オプションのモードはautomanualです。 autoモードでは、ストアは負荷に応じて自動的にバランス調整されます (非推奨)。

  • store-limit-versionストア制限の式のバージョンを制御します。v1 モードでは、 store limitを手動で変更して、単一の TiKV のスケジュール速度を制限できます。v2 モードは実験的機能です。v2 モードでは、PD が TiKV スナップショットの機能に基づいて動的に調整するため、 store limit値を手動で設定する必要はありません。詳細については、 ストア制限の原則 v2を参照してください。

    config set store-limit-version v2 // using store limit v2
  • PD はフロー番号の最下位桁を丸め、リージョンフロー情報の変更によって発生する統計の更新を減らします。この設定項目は、リージョンフロー情報の丸める最下位桁の数を指定するために使用されます。たとえば、フロー100512デフォルト値が3であるため101000に丸められます。この設定はtrace-region-flowを置き​​換えます。

  • たとえば、 flow-round-by-digitの値を4に設定します。

    config set flow-round-by-digit 4

config placement-rules [disable | enable | load | save | show | rule-group]

config placement-rules [disable | enable | load | save | show | rule-group]の使い方については配置ルールを設定するを参照してください。

health

このコマンドを使用して、クラスターのヘルス情報を表示します。

使用法:

>> health // Display the health information [ { "name": "pd", "member_id": 13195394291058371180, "client_urls": [ "http://127.0.0.1:2379" ...... ], "health": true } ...... ]

hot [read | write | store| history <start_time> <end_time> [<key> <value>]]

このコマンドを使用して、クラスターのホット スポット情報を表示します。

使用法:

>> hot read // Display hot spot for the read operation >> hot write // Display hot spot for the write operation >> hot store // Display hot spot for all the read and write operations >> hot history 1629294000000 1631980800000 // Display history hot spot for the specified period (milliseconds). 1629294000000 is the start time and 1631980800000 is the end time. { "history_hot_region": [ { "update_time": 1630864801948, "region_id": 103, "peer_id": 1369002, "store_id": 3, "is_leader": true, "is_learner": false, "hot_region_type": "read", "hot_degree": 152, "flow_bytes": 0, "key_rate": 0, "query_rate": 305, "start_key": "7480000000000000FF5300000000000000F8", "end_key": "7480000000000000FF5600000000000000F8" }, ... ] } >> hot history 1629294000000 1631980800000 hot_region_type read region_id 1,2,3 store_id 1,2,3 peer_id 1,2,3 is_leader true is_learner true // Display history hotspot for the specified period with more conditions { "history_hot_region": [ { "update_time": 1630864801948, "region_id": 103, "peer_id": 1369002, "store_id": 3, "is_leader": true, "is_learner": false, "hot_region_type": "read", "hot_degree": 152, "flow_bytes": 0, "key_rate": 0, "query_rate": 305, "start_key": "7480000000000000FF5300000000000000F8", "end_key": "7480000000000000FF5600000000000000F8" }, ... ] }

label [store <name> <value>]

このコマンドを使用して、クラスターのラベル情報を表示します。

使用法:

>> label // Display all labels >> label store zone cn // Display all stores including the "zone":"cn" label

member [delete | leader_priority | leader [show | resign | transfer <member_name>]]

このコマンドを使用して、PD メンバーを表示したり、指定されたメンバーを削除したり、リーダーの優先順位を設定したりします。

使用法:

>> member // Display the information of all members { "header": {......}, "members": [......], "leader": {......}, "etcd_leader": {......}, } >> member delete name pd2 // Delete "pd2" Success! >> member delete id 1319539429105371180 // Delete a node using id Success! >> member leader show // Display the leader information { "name": "pd", "member_id": 13155432540099656863, "peer_urls": [......], "client_urls": [......] } >> member leader resign // Move leader away from the current member ...... >> member leader transfer pd3 // Migrate leader to a specified member ......

operator [check | show | add | remove]

このコマンドを使用して、スケジュール操作を表示および制御します。

使用法:

>> operator show // Display all operators >> operator show admin // Display all admin operators >> operator show leader // Display all leader operators >> operator show region // Display all Region operators >> operator add add-peer 1 2 // Add a replica of Region 1 on store 2 >> operator add add-learner 1 2 // Add a learner replica of Region 1 on store 2 >> operator add remove-peer 1 2 // Remove a replica of Region 1 on store 2 >> operator add transfer-leader 1 2 // Schedule the leader of Region 1 to store 2 >> operator add transfer-region 1 2 3 4 // Schedule Region 1 to stores 2,3,4 >> operator add transfer-peer 1 2 3 // Schedule the replica of Region 1 on store 2 to store 3 >> operator add merge-region 1 2 // Merge Region 1 with Region 2 >> operator add split-region 1 --policy=approximate // Split Region 1 into two Regions in halves, based on approximately estimated value >> operator add split-region 1 --policy=scan // Split Region 1 into two Regions in halves, based on accurate scan value >> operator remove 1 // Remove the scheduling operation of Region 1 >> operator check 1 // Check the status of the operators related to Region 1

領域の分割は、中央にできるだけ近い位置から始まります。この位置を見つけるには、「スキャン」と「近似」という 2 つの戦略を使用できます。これらの違いは、前者はリージョンをスキャンして中央のキーを決定するのに対し、後者は SST ファイルに記録された統計情報をチェックしておおよその位置を取得することです。一般に、前者の方が正確ですが、後者は I/O の消費が少なく、より速く完了できます。

ping

このコマンドを使用して、 ping PD にかかる時間を表示します。

使用法:

>> ping time: 43.12698ms

region <region_id> [--jq="<query string>"]

このコマンドを使用して、リージョン情報を表示します。jq 形式の出力については、 jq 形式の json 出力の使用法参照してください。

使用法:

>> region // Display the information of all Regions { "count": 1, "regions": [......] } >> region 2 // Display the information of the Region with the ID of 2 { "id": 2, "start_key": "7480000000000000FF1D00000000000000F8", "end_key": "7480000000000000FF1F00000000000000F8", "epoch": { "conf_ver": 1, "version": 15 }, "peers": [ { "id": 40, "store_id": 3 } ], "leader": { "id": 40, "store_id": 3 }, "written_bytes": 0, "read_bytes": 0, "written_keys": 0, "read_keys": 0, "approximate_size": 1, "approximate_keys": 0 }

region key [--format=raw|encode|hex] <key>

このコマンドを使用して、特定のキーが存在するリージョンを照会します。このコマンドは、raw、encoding、および 16 進形式をサポートしています。また、エンコード形式の場合は、キーを一重引用符で囲む必要があります。

16 進形式の使用法 (デフォルト):

>> region key 7480000000000000FF1300000000000000F8 { "region": { "id": 2, ...... } }

生の形式の使用:

>> region key --format=raw abc { "region": { "id": 2, ...... } }

エンコード形式の使用:

>> region key --format=encode 't\200\000\000\000\000\000\000\377\035_r\200\000\000\000\000\377\017U\320\000\000\000\000\000\372' { "region": { "id": 2, ...... } }

region scan

このコマンドを使用して、すべてのリージョンを取得します。

使用法:

>> region scan { "count": 20, "regions": [......], }

region sibling <region_id>

このコマンドを使用して、特定のリージョンに隣接するリージョンを確認します。

使用法:

>> region sibling 2 { "count": 2, "regions": [......], }

region keys [--format=raw|encode|hex] <start_key> <end_key> <limit>

このコマンドを使用して、指定された範囲[startkey, endkey)内のすべてのリージョンを照会します。 endKeyのない範囲がサポートされています。

limitパラメータはキーの数を制限します。デフォルト値limit16で、値-1は無制限のキーを意味します。

使用法:

>> region keys --format=raw a // Display all Regions that start from the key a with a default limit count of 16 { "count": 16, "regions": [......], } >> region keys --format=raw a z // Display all Regions in the range [a, z) with a default limit count of 16 { "count": 16, "regions": [......], } >> region keys --format=raw a z -1 // Display all Regions in the range [a, z) without a limit count { "count": ..., "regions": [......], } >> region keys --format=raw a "" 20 // Display all Regions that start from the key a with a limit count of 20 { "count": 20, "regions": [......], }

region store <store_id>

このコマンドを使用して、特定のストアのすべてのリージョンを一覧表示します。

使用法:

>> region store 2 { "count": 10, "regions": [......], }

region topread [limit]

このコマンドを使用して、読み取りフローが最も多いリージョンを一覧表示します。制限のデフォルト値は 16 です。

使用法:

>> region topread { "count": 16, "regions": [......], }

region topwrite [limit]

このコマンドを使用して、書き込みフローが最も多いリージョンを一覧表示します。制限のデフォルト値は 16 です。

使用法:

>> region topwrite { "count": 16, "regions": [......], }

region topconfver [limit]

このコマンドを使用して、トップ conf バージョンのリージョンを一覧表示します。制限のデフォルト値は 16 です。

使用法:

>> region topconfver { "count": 16, "regions": [......], }

region topversion [limit]

このコマンドを使用して、最上位バージョンのリージョンを一覧表示します。制限のデフォルト値は 16 です。

使用法:

>> region topversion { "count": 16, "regions": [......], }

region topsize [limit]

このコマンドを使用して、おおよそのサイズの領域を一覧表示します。制限のデフォルト値は 16 です。

使用法:

>> region topsize { "count": 16, "regions": [......], }

region check [miss-peer | extra-peer | down-peer | pending-peer | offline-peer | empty-region | hist-size | hist-keys][--jq="&#x3C;query string>"]

このコマンドを使用して、異常な状態の領域を確認します。jq 形式の出力については、 jq形式のJSON出力の使用参照してください。

各種タイプの説明:

  • ミスピア: レプリカが足りないリージョン
  • extra-peer: 追加のレプリカがあるリージョン
  • ダウンピア: 一部のレプリカがダウンしているリージョン
  • pending-peer: レプリカが保留中のリージョン

使用法:

>> region check miss-peer { "count": 2, "regions": [......], }

resource-manager [command]

リソースコントロールのコントローラー構成をビュー

resource-manager config controller show
{ "degraded-mode-wait-duration": "0s", "ltb-max-wait-duration": "30s", "request-unit": { # Configurations of RU. Do not modify. "read-base-cost": 0.125, "read-per-batch-base-cost": 0.5, "read-cost-per-byte": 0.0000152587890625, "write-base-cost": 1, "write-per-batch-base-cost": 1, "write-cost-per-byte": 0.0009765625, "read-cpu-ms-cost": 0.3333333333333333 }, "enable-controller-trace-log": "false" }
  • ltb-max-wait-duration : ローカル トークン バケット (LTB) の最大待機時間。デフォルト値は30sで、値の範囲は[0, 24h]です。SQL 要求の推定消費リクエストユニット (RU)が LTB の現在の累積 RU を超える場合、要求は一定時間待機する必要があります。推定待機時間がこの最大値を超えると、事前にアプリケーションにエラー メッセージERROR 8252 (HY000) : Exceeded resource group quota limitationが返されます。この値を増やすと、同時実行数が急増した場合、トランザクションやクエリが大規模になった場合にERROR 8252発生する可能性が低くなります。
  • enable-controller-trace-log : コントローラー診断ログを有効にするかどうかを制御します。

リソースコントロールのコントローラー構成を変更する

ltb-max-wait-duration設定を変更するには、次のコマンドを使用します。

pd-ctl resource-manager config controller set ltb-max-wait-duration 30m

scheduler [show | add | remove | pause | resume | config | describe]

このコマンドを使用して、スケジュール ポリシーを表示および制御します。

使用法:

>> scheduler show // Display all created schedulers >> scheduler add grant-leader-scheduler 1 // Schedule all the leaders of the Regions on store 1 to store 1 >> scheduler add evict-leader-scheduler 1 // Move all the Region leaders on store 1 out >> scheduler config evict-leader-scheduler // Display the stores in which the scheduler is located since v4.0.0 >> scheduler config evict-leader-scheduler add-store 2 // Add leader eviction scheduling for store 2 >> scheduler config evict-leader-scheduler delete-store 2 // Remove leader eviction scheduling for store 2 >> scheduler add shuffle-leader-scheduler // Randomly exchange the leader on different stores >> scheduler add shuffle-region-scheduler // Randomly schedule the Regions on different stores >> scheduler add evict-slow-store-scheduler // When there is one and only one slow store, evict all Region leaders of that store >> scheduler remove grant-leader-scheduler-1 // Remove the corresponding scheduler, and `-1` corresponds to the store ID >> scheduler pause balance-region-scheduler 10 // Pause the balance-region scheduler for 10 seconds >> scheduler pause all 10 // Pause all schedulers for 10 seconds >> scheduler resume balance-region-scheduler // Continue to run the balance-region scheduler >> scheduler resume all // Continue to run all schedulers >> scheduler config balance-hot-region-scheduler // Display the configuration of the balance-hot-region scheduler >> scheduler describe balance-region-scheduler // Display the running state and related diagnostic information of the balance-region scheduler

scheduler describe balance-region-scheduler

このコマンドを使用して、 balance-region-schedulerの実行状態と関連する診断情報を表示します。

TiDB v6.3.0 以降、PD はbalance-region-schedulerbalance-leader-schedulerの実行状態と簡単な診断情報を提供します。他のスケジューラとチェッカーはまだサポートされていません。この機能を有効にするには、 pd-ctlを使用してenable-diagnostic構成項目を変更します。

スケジューラの状態は次のいずれかになります。

  • disabled : スケジューラは使用できないか削除されています。
  • paused : スケジューラは一時停止されています。
  • scheduling : スケジューラはスケジューリング演算子を生成しています。
  • pending : スケジューラはスケジューリング オペレータを生成できません。 pending状態のスケジューラの場合、簡単な診断情報が返されます。簡単な情報には、ストアの状態が記述され、これらのストアをスケジューリング対象として選択できない理由が説明されています。
  • normal : スケジューリング演算子を生成する必要はありません。

scheduler config balance-leader-scheduler

このコマンドを使用して、 balance-leader-schedulerポリシーを表示および制御します。

TiDB v6.0.0 以降、PD は、バランス リーダーがタスクを処理する速度を制御するために、 balance-leader-schedulerBatchパラメータを導入しました。このパラメータを使用するには、pd-ctl を使用してbalance-leader batch構成項目を変更します。

v6.0.0 より前の PD にはこの設定項目がないため、 balance-leader batch=1となります。v6.0.0 以降のバージョンでは、 balance-leader batchのデフォルト値は4です。この設定項目を4より大きい値に設定するには、同時にscheduler-max-waiting-operator (デフォルト値は5 ) にも大きい値を設定する必要があります。両方の設定項目を変更した後にのみ、期待される高速化効果が得られます。

scheduler config balance-leader-scheduler set batch 3 // Set the size of the operator that the balance-leader scheduler can execute in a batch to 3

scheduler config balance-hot-region-scheduler

このコマンドを使用して、 balance-hot-region-schedulerポリシーを表示および制御します。

使用法:

>> scheduler config balance-hot-region-scheduler // Display all configuration of the balance-hot-region scheduler { "min-hot-byte-rate": 100, "min-hot-key-rate": 10, "min-hot-query-rate": 10, "max-zombie-rounds": 3, "max-peer-number": 1000, "byte-rate-rank-step-ratio": 0.05, "key-rate-rank-step-ratio": 0.05, "query-rate-rank-step-ratio": 0.05, "count-rank-step-ratio": 0.01, "great-dec-ratio": 0.95, "minor-dec-ratio": 0.99, "src-tolerance-ratio": 1.05, "dst-tolerance-ratio": 1.05, "read-priorities": [ "query", "byte" ], "write-leader-priorities": [ "key", "byte" ], "write-peer-priorities": [ "byte", "key" ], "strict-picking-store": "true", "enable-for-tiflash": "true", "rank-formula-version": "v2" }
  • min-hot-byte-rateカウントされる最小バイト数を意味し、通常は 100 です。

    scheduler config balance-hot-region-scheduler set min-hot-byte-rate 100
  • min-hot-key-rateカウントされるキーの最小数を意味し、通常は 10 です。

    scheduler config balance-hot-region-scheduler set min-hot-key-rate 10
  • min-hot-query-rateカウントされるクエリの最小数を意味し、通常は 10 です。

    scheduler config balance-hot-region-scheduler set min-hot-query-rate 10
  • max-zombie-rounds 、オペレータが保留中の影響力と見なされるハートビートの最大数を意味します。これをより大きな値に設定すると、保留中の影響力に含まれるオペレータが増える可能性があります。通常、値を調整する必要はありません。保留中の影響力とは、スケジュール中に生成されるが、まだ効果があるオペレータの影響力を指します。

    scheduler config balance-hot-region-scheduler set max-zombie-rounds 3
  • max-peer-number解決するピアの最大数を意味し、これによりスケジューラが遅くなりすぎるのを防ぎます。

    scheduler config balance-hot-region-scheduler set max-peer-number 1000
  • byte-rate-rank-step-ratiokey-rate-rank-step-ratioquery-rate-rank-step-ratiocount-rank-step-ratioそれぞれ、バイト、キー、クエリ、カウントのステップランクを意味します。rank-step-ratio は、ランクを計算するときのステップを決定しますgreat-dec-ratiominor-dec-ratiodecランクを決定するために使用されます。通常、これらの項目を変更する必要はありません。

    scheduler config balance-hot-region-scheduler set byte-rate-rank-step-ratio 0.05
  • src-tolerance-ratiodst-tolerance-ratio期待値スケジューラの設定項目です。 tolerance-ratioが小さいほどスケジューリングが容易になります。冗長なスケジューリングが発生する場合は、この値を適宜増やしてください。

    scheduler config balance-hot-region-scheduler set src-tolerance-ratio 1.1
  • read-prioritieswrite-leader-priorities 、およびwrite-peer-priorities 、ホットリージョンスケジューリングでスケジューラが優先するディメンションを制御します。構成では 2 つのディメンションがサポートされています。

    • read-prioritieswrite-leader-priorities 、読み取りリーダー タイプと書き込みリーダー タイプのホット領域をスケジュールする際にスケジューラが優先する次元を制御します。次元オプションはquerybyte 、およびkeyです。

    • write-peer-priorities 、書き込みピア タイプのホット領域をスケジュールするためにスケジューラが優先するディメンションを制御します。ディメンション オプションはbytekeyです。

    注記:

    クラスターコンポーネントがv5.2 より前の場合、 query次元の構成は有効になりません。一部のコンポーネントが v5.2 以降にアップグレードされた場合でも、 bytekey次元はデフォルトでホットリージョンスケジューリングの優先権を持ちます。クラスターのすべてのコンポーネントが v5.2 以降にアップグレードされた後も、互換性のためにこのような構成は有効になります。7 コマンドを使用してリアルタイム構成を表示できます。通常、これらの構成を変更する必要はありpd-ctlん。

    scheduler config balance-hot-region-scheduler set read-priorities query,byte
  • strict-picking-store 、ホットリージョンスケジューリングの検索スペースを制御します。通常は有効になっています。この構成項目は、 rank-formula-versionv1の場合にのみ動作に影響します。有効にすると、ホットリージョンスケジューリングによって、構成された 2 つのディメンションのホットリージョンバランスが確保されます。無効にすると、ホットリージョンスケジューリングによって、優先順位が最初のディメンションのバランスのみが確保され、他のディメンションのバランスが減少する可能性があります。通常は、この構成を変更する必要はありません。

    scheduler config balance-hot-region-scheduler set strict-picking-store true
  • rank-formula-version 、ホットリージョンスケジューリングで使用されるスケジューラ アルゴリズムのバージョンを制御します。値のオプションはv1v2です。デフォルト値はv2です。

    • v1アルゴリズムは、TiDB v6.3.0 以前のバージョンで使用されるスケジューラ戦略です。このアルゴリズムは主にストア間の負荷差を減らすことに重点を置いており、他のディメンションへの副作用の発生を回避します。
    • v2アルゴリズムは、TiDB v6.3.0 で導入された実験的スケジューラ戦略であり、TiDB v6.4.0 で一般提供 (GA) されています。このアルゴリズムは、副作用をほとんど伴わずにストアと要素間の公平性を向上させることに主に焦点を当てています。5 がstrict-picking-storeであるv1アルゴリズムと比較すると、 v2アルゴリズムは最初の次元の優先度均等化に重点を置きます。13 がstrict-picking-store falseあるtrueアルゴリズムと比較すると、 v2アルゴリズムv1 2 番目の次元のバランスを考慮します。
    • strict-picking-storetrueであるv1アルゴリズムは保守的であり、両方の次元に高負荷のストアがある場合にのみスケジューリングを生成できます。特定のシナリオでは、次元の競合によりバランス調整を続行できない場合があります。最初の次元でより適切なバランス調整を実現するには、 strict-picking-storefalseに設定する必要があります。 v2アルゴリズムは、両方の次元でより適切なバランス調整を実現し、無効なスケジューリングを削減できます。
    scheduler config balance-hot-region-scheduler set rank-formula-version v2
  • enable-for-tiflash 、 TiFlashインスタンスに対してホットリージョンスケジューリングを有効にするかどうかを制御します。通常は有効になっています。無効にすると、 TiFlashインスタンス間のホットリージョンスケジューリングは実行されません。

    scheduler config balance-hot-region-scheduler set enable-for-tiflash true

scheduler config evict-leader-scheduler

このコマンドを使用して、 evict-leader-schedulerの構成を表示および管理します。

  • evict-leader-schedulerがすでに存在する場合は、 add-storeサブコマンドを使用して、指定されたストアのリーダー削除スケジュールを追加します。

    scheduler config evict-leader-scheduler add-store 2 // Add leader eviction scheduling for store 2
  • evict-leader-schedulerがすでに存在する場合は、 delete-storeサブコマンドを使用して、指定されたストアのリーダー削除スケジュールを削除します。

    scheduler config evict-leader-scheduler delete-store 2 // Remove leader eviction scheduling for store 2

    evict-leader-schedulerのすべてのストア構成が削除されると、スケジューラ自体も自動的に削除されます。

service-gc-safepoint

このコマンドを使用して、現在の GC セーフポイントとサービス GC セーフポイントを照会します。出力は次のようになります。

{ "service_gc_safe_points": [ { "service_id": "gc_worker", "expired_at": 9223372036854775807, "safe_point": 439923410637160448 } ], "gc_safe_point": 0 }

store [delete | cancel-delete | label | weight | remove-tombstone | limit ] <store_id> [--jq="<query string>"]

jq 形式の出力については、 jq 形式の json 出力の使用法参照してください。

ストアを取得する

すべてのストアの情報を表示するには、次のコマンドを実行します。

store
{ "count": 3, "stores": [...] }

ID が 1 のストアを取得するには、次のコマンドを実行します。

store 1
......

ストアを削除する

ID が 1 のストアを削除するには、次のコマンドを実行します。

store delete 1

store deleteを使用して削除されたOffline状態のストアの削除をキャンセルするには、 store cancel-deleteコマンドを実行します。キャンセル後、ストアはOfflineからUpに変更されます。 store cancel-deleteコマンドではTombstone状態のストアをUp状態に変更できないことに注意してください。

ID が 1 のストアの削除をキャンセルするには、次のコマンドを実行します。

store cancel-delete 1

Tombstone状態にあるすべてのストアを削除するには、次のコマンドを実行します。

store remove-tombstone

注記:

ストアの削除中に PD リーダーが変更された場合は、 store limitコマンドを使用してストア制限を手動で変更する必要があります。

ストアラベルを管理する

ストアのラベルを管理するには、 store labelコマンドを実行します。

  • キーが"zone" 、値が"cn"ラベルを ID が 1 のストアに設定するには、次のコマンドを実行します。

    store label 1 zone=cn
  • ストアのラベルを更新するには、たとえば、ID が 1 のストアのキー"zone"の値を"cn"から"us"に変更するには、次のコマンドを実行します。

    store label 1 zone=us
  • ID が 1 のストアのすべてのラベルを書き換えるには、 --rewriteオプションを使用します。このオプションは既存のラベルをすべて上書きすることに注意してください。

    store label 1 region=us-est-1 disk=ssd --rewrite
  • ID が 1 のストアのラベル"disk"を削除するには、オプション--deleteを使用します。

    store label 1 disk --delete

注記:

  • ストアのラベルは、TiKV のラベルと PD のラベルをマージすることによって更新されます。具体的には、TiKV 構成ファイルでストア ラベルを変更してクラスターを再起動すると、PD は自身のストア ラベルを TiKV ストア ラベルとマージし、ラベルを更新して、マージされた結果を保持します。
  • TiUPを使用してストアのラベルを管理するには、クラスターを再起動する前にstore label <id> --forceコマンドを実行して、PD に保存されているラベルを空にします。

ストアの重みを設定する

ID が 1 のストアのリーダー ウェイトを 5 に、リージョンウェイトを 10 に設定するには、次のコマンドを実行します。

store weight 1 5 10

ストアのスケジュール速度を設定する

store limitでは店舗のスケジュール速度を設定できます。 store limitの原理と使用方法の詳細については、 store limitを参照してください。

>> store limit // Show the speed limit of adding-peer operations and the limit of removing-peer operations per minute in all stores >> store limit add-peer // Show the speed limit of adding-peer operations per minute in all stores >> store limit remove-peer // Show the limit of removing-peer operations per minute in all stores >> store limit all 5 // Set the limit of adding-peer operations to 5 and the limit of removing-peer operations to 5 per minute for all stores >> store limit 1 5 // Set the limit of adding-peer operations to 5 and the limit of removing-peer operations to 5 per minute for store 1 >> store limit all 5 add-peer // Set the limit of adding-peer operations to 5 per minute for all stores >> store limit 1 5 add-peer // Set the limit of adding-peer operations to 5 per minute for store 1 >> store limit 1 5 remove-peer // Set the limit of removing-peer operations to 5 per minute for store 1 >> store limit all 5 remove-peer // Set the limit of removing-peer operations to 5 per minute for all stores

注記:

pd-ctl使用して、TiKV ストアの状態 ( UpDisconnectOfflineDown 、またはTombstone ) を確認できます。各状態の関係については、 TiKVストアの各状態間の関係を参照してください。

log [fatal | error | warn | info | debug]

このコマンドを使用して、PD リーダーのログ レベルを設定します。

使用法:

log warn

tso

このコマンドを使用して、TSO の物理時間と論理時間を解析します。

使用法:

>> tso 395181938313123110 // Parse TSO system: 2017-10-09 05:50:59 +0800 CST logic: 120102

unsafe remove-failed-stores [store-ids | show]

このコマンドは、レプリカが永久的に破損してデータが利用できなくなった場合に、損失を伴うリカバリ操作を実行するために使用します。次の例を参照してください。詳細はオンラインの安全でない回復で説明されています。

永久に損傷したストアを削除するには、オンラインの安全でないリカバリを実行します。

unsafe remove-failed-stores 101,102,103
Success!

オンライン安全でない回復の現在の状態または履歴状態を表示します。

unsafe remove-failed-stores show
[ "Collecting cluster info from all alive stores, 10/12.", "Stores that have reports to PD: 1, 2, 3, ...", "Stores that have not reported to PD: 11, 12", ]

Jq形式のJSON出力の使用

storeの出力を簡素化

>> store --jq=".stores[].store | { id, address, state_name}" {"id":1,"address":"127.0.0.1:20161","state_name":"Up"} {"id":30,"address":"127.0.0.1:20162","state_name":"Up"} ...

ノードの残り容量を照会する

>> store --jq=".stores[] | {id: .store.id, available: .status.available}" {"id":1,"available":"10 GiB"} {"id":30,"available":"10 GiB"} ...

ステータスがUpではないすべてのノードを照会する

store --jq='.stores[].store | select(.state_name!="Up") | { id, address, state_name}'
{"id":1,"address":"127.0.0.1:20161""state_name":"Offline"} {"id":5,"address":"127.0.0.1:20162""state_name":"Offline"} ...

すべてのTiFlashノードをクエリする

store --jq='.stores[].store | select(.labels | length>0 and contains([{"key":"engine","value":"tiflash"}])) | { id, address, state_name}'
{"id":1,"address":"127.0.0.1:20161""state_name":"Up"} {"id":5,"address":"127.0.0.1:20162""state_name":"Up"} ...

リージョンレプリカの配布ステータスを照会する

>> region --jq=".regions[] | {id: .id, peer_stores: [.peers[].store_id]}" {"id":2,"peer_stores":[1,30,31]} {"id":4,"peer_stores":[1,31,34]} ...

レプリカの数に応じて領域をフィルタリングする

たとえば、レプリカ数が 3 でないすべてのリージョンをフィルタリングするには、次のようにします。

>> region --jq=".regions[] | {id: .id, peer_stores: [.peers[].store_id] | select(length != 3)}" {"id":12,"peer_stores":[30,32]} {"id":2,"peer_stores":[1,30,31,32]}

レプリカのストアIDに従ってリージョンをフィルタリングする

たとえば、store30 にレプリカがあるすべてのリージョンをフィルタリングするには、次のようにします。

>> region --jq=".regions[] | {id: .id, peer_stores: [.peers[].store_id] | select(any(.==30))}" {"id":6,"peer_stores":[1,30,31]} {"id":22,"peer_stores":[1,30,32]} ...

同じ方法で、store30 または store31 にレプリカがあるすべてのリージョンを見つけることもできます。

>> region --jq=".regions[] | {id: .id, peer_stores: [.peers[].store_id] | select(any(.==(30,31)))}" {"id":16,"peer_stores":[1,30,34]} {"id":28,"peer_stores":[1,30,32]} {"id":12,"peer_stores":[30,32]} ...

データを復元するときに関連する地域を探す

たとえば、[store1、store30、store31] がダウンタイム時に使用できない場合、ダウンしているレプリカが通常のレプリカよりも多いすべてのリージョンを見つけることができます。

>> region --jq=".regions[] | {id: .id, peer_stores: [.peers[].store_id] | select(length as $total | map(if .==(1,30,31) then . else empty end) | length>=$total-length) }" {"id":2,"peer_stores":[1,30,31,32]} {"id":12,"peer_stores":[30,32]} {"id":14,"peer_stores":[1,30,32]} ...

または、[store1、store30、store31] が起動に失敗した場合、store1 でデータを安全に手動で削除できるリージョンを見つけることができます。この方法では、store1 にレプリカがあり、他の DownPeer がないすべてのリージョンを除外できます。

>> region --jq=".regions[] | {id: .id, peer_stores: [.peers[].store_id] | select(length>1 and any(.==1) and all(.!=(30,31)))}" {"id":24,"peer_stores":[1,32,33]}

[store30, store31] がダウンしている場合、 remove-peerオペレータ、つまり DownPeer が 1 つだけのリージョンを作成して、安全に処理できるすべてのリージョンを見つけます。

>> region --jq=".regions[] | {id: .id, remove_peer: [.peers[].store_id] | select(length>1) | map(if .==(30,31) then . else empty end) | select(length==1)}" {"id":12,"remove_peer":[30]} {"id":4,"remove_peer":[31]} {"id":22,"remove_peer":[30]} ...

このページは役に立ちましたか?

Playground
登録なしで TiDB の機能をワンストップでインタラクティブに体験できます。
製品
TiDB Dedicated
TiDB Serverless
TiDB
価格
PoC お問い合わせ
エコシステム
TiKV
TiFlash
OSS Insight
© 2024 PingCAP. All Rights Reserved.
Privacy Policy.