PD Controlユーザー ガイド

PD Controlは、PD のコマンド ライン ツールとして、クラスターの状態情報を取得し、クラスターをチューニングします。

PD Controlをインストールする

ノート:

使用するコントロール ツールのバージョンは、クラスターのバージョンと一致していることが推奨されます。

TiUP コマンドを使用する

PD Controlを使用するには、 tiup ctl:<cluster-version> pd -u http://<pd_ip>:<pd_port> [-i]コマンドを実行します。

インストール パッケージをダウンロードする

最新バージョンのpd-ctlを入手するには、TiDBサーバーのインストール パッケージをダウンロードします。 pd-ctlctl-{version}-linux-{arch}.tar.gzパッケージに含まれています。

インストールパッケージOSアーキテクチャSHA256 チェックサム
https://download.pingcap.org/tidb-community-server-{version}-linux-amd64.tar.gz (pd-ctl)Linuxamd64https://download.pingcap.org/tidb-community-server-{version}-linux-amd64.sha256
https://download.pingcap.org/tidb-community-server-{version}-linux-arm64.tar.gz (pd-ctl)Linuxアーム64https://download.pingcap.org/tidb-community-server-{version}-linux-arm64.sha256

ノート:

リンクの{version}は、TiDB のバージョン番号を示します。たとえば、 amd64アーキテクチャのv6.3.0のダウンロード リンクはhttps://download.pingcap.org/tidb-community-server-v6.3.0-linux-amd64.tar.gzです。

ソースコードからコンパイル

  1. 行け Go モジュールを使用するため、バージョン 1.13 以降。
  2. PDプロジェクトのルート ディレクトリで、 makeまたはmake pd-ctlコマンドを使用してbin/pd-ctlをコンパイルおよび生成します。

使用法

シングルコマンドモード:

tiup ctl pd store -u http://127.0.0.1:2379

対話モード:

tiup ctl pd -i -u http://127.0.0.1:2379

環境変数を使用します。

export PD_ADDR=http://127.0.0.1:2379
tiup ctl pd

TLS を使用して暗号化します。

tiup ctl pd -u https://127.0.0.1:2379 --cacert="path/to/ca" --cert="path/to/cert" --key="path/to/key"

コマンド ライン フラグ

--cacert

  • 信頼できる CA の証明書ファイルへのパスを PEM 形式で指定します
  • デフォルト: ""

--cert

  • SSLの証明書へのパスをPEM形式で指定します
  • デフォルト: ""

--detach / -d

  • 単一コマンド ライン モードを使用する (readline に入らない)
  • デフォルト: 真

--help / -h

  • ヘルプ情報を出力します
  • デフォルト: false

--interact / -i

  • 対話モードを使用します (readline に入ります)
  • デフォルト: false

--key

  • --certで指定した証明書の秘密鍵であるSSLの証明書鍵ファイルへのパスをPEM形式で指定する
  • デフォルト: ""

--pd / -u

  • PDアドレスを指定
  • デフォルトのアドレス: http://127.0.0.1:2379
  • 環境変数: PD_ADDR

-- --version / -V

  • バージョン情報を出力して終了します
  • デフォルト: false

指示

cluster

このコマンドを使用して、クラスターの基本情報を表示します。

使用法:

>> cluster                                     // To show the cluster information
{
  "id": 6493707687106161130,
  "max_peer_count": 3
}

config [show | set <option> <value> | placement-rules]

このコマンドを使用して、構成情報を表示または変更します。

使用法:

>> config show                                // Display the config information of the scheduling
{
  "replication": {
    "enable-placement-rules": "true",
    "isolation-level": "",
    "location-labels": "",
    "max-replicas": 3,
    "strictly-match-label": "false"
  },
  "schedule": {
    "enable-cross-table-merge": "true",
    "high-space-ratio": 0.7,
    "hot-region-cache-hits-threshold": 3,
    "hot-region-schedule-limit": 4,
    "leader-schedule-limit": 4,
    "leader-schedule-policy": "count",
    "low-space-ratio": 0.8,
    "max-merge-region-keys": 200000,
    "max-merge-region-size": 20,
    "max-pending-peer-count": 64,
    "max-snapshot-count": 64,
    "max-store-down-time": "30m0s",
    "merge-schedule-limit": 8,
    "patrol-region-interval": "10ms",
    "region-schedule-limit": 2048,
    "region-score-formula-version": "v2",
    "replica-schedule-limit": 64,
    "scheduler-max-waiting-operator": 5,
    "split-merge-interval": "1h0m0s",
    "tolerant-size-ratio": 0
  }
}
>> config show all                            // Display all config information
>> config show replication                    // Display the config information of replication
{
  "max-replicas": 3,
  "location-labels": "",
  "isolation-level": "",
  "strictly-match-label": "false",
  "enable-placement-rules": "true"
}

>> config show cluster-version                // Display the current version of the cluster, which is the current minimum version of TiKV nodes in the cluster and does not correspond to the binary version.
"5.2.2"
  • max-snapshot-countは、1 つのストアが同時に受信または送信するスナップショットの最大数を制御します。スケジューラは、通常のアプリケーション リソースを占有しないように、この構成によって制限されます。レプリカの追加またはバランシングの速度を向上させる必要がある場合は、この値を増やしてください。

    config set max-snapshot-count 64  // Set the maximum number of snapshots to 64
    
  • max-pending-peer-countは、1 つのストア内の保留中のピアの最大数を制御します。スケジューラーは、一部のノードで最新のログなしで多数のリージョンが生成されるのを避けるために、この構成によって制限されます。レプリカの追加またはバランシングの速度を向上させる必要がある場合は、この値を増やしてください。 0 に設定すると、制限がないことを示します。

    config set max-pending-peer-count 64  // Set the maximum number of pending peers to 64
    
  • max-merge-region-sizeは、リージョンマージのサイズの上限を制御します (単位は MiB)。 regionSizeが指定値を超えると、PD は隣接するリージョンとマージしません。 0 に設定すると、リージョンマージが無効になります。

    config set max-merge-region-size 16 // Set the upper limit on the size of Region Merge to 16 MiB
    
  • max-merge-region-keysは、リージョンマージのキー カウントの上限を制御します。 regionKeyCountが指定値を超えると、PD は隣接するリージョンとマージしません。

    config set max-merge-region-keys 50000 // Set the the upper limit on keyCount to 50000
    
  • split-merge-intervalは、同じリージョンでのsplitmergeの操作の間隔を制御します。これは、新しく分割されたリージョンが一定期間内にマージされないことを意味します。

    config set split-merge-interval 24h  // Set the interval between `split` and `merge` to one day
    
  • enable-one-way-mergeは、PD が Region を次のリージョンとマージすることのみを許可するかどうかを制御しリージョン。 falseに設定すると、PD はリージョンが隣接する 2 つのリージョンとマージできるようにします。

    config set enable-one-way-merge true  // Enables one-way merging.
    
  • enable-cross-table-mergeはクロステーブルのリージョンのマージを有効にするために使用されます。 falseに設定すると、PD は異なるテーブルのリージョンをマージしません。このオプションは、キー タイプが「テーブル」の場合にのみ機能します。

    config set enable-cross-table-merge true  // Enable cross table merge.
    
  • key-typeは、クラスターに使用されるキーのエンコード タイプを指定します。サポートされているオプションは ["table", "raw", "txn"] で、デフォルト値は "table" です。

    • クラスターに TiDB インスタンスが存在しない場合、 key-typeは「raw」または「txn」になり、PD はenable-cross-table-mergeの設定に関係なく、テーブル全体でリージョンをマージできます。
    • クラスターに TiDB インスタンスが存在する場合、 key-typeは「テーブル」である必要があります。 PD がテーブル間でリージョンをマージできるかどうかは、 enable-cross-table-mergeによって決定されます。 key-typeが「raw」の場合、配置ルールは機能しません。
    config set key-type raw  // Enable cross table merge.
    
  • region-score-formula-versionは、リージョンスコア式のバージョンを制御します。値のオプションはv1v2です。式のバージョン 2 は、TiKV ノードをオンラインまたはオフラインにするなど、一部のシナリオで冗長なバランスリージョンスケジューリングを減らすのに役立ちます。

    config set region-score-formula-version v2
    
  • patrol-region-intervalは、 replicaCheckerがリージョンのヘルス ステータスをチェックする実行頻度を制御します。間隔が短いほど、実行頻度が高くなります。通常、調整する必要はありません。

    config set patrol-region-interval 10ms // Set the execution frequency of replicaChecker to 10ms
    
  • max-store-down-timeを超えると、PD が切断されたストアを復元できないと判断する時間を制御します。 PD が指定された期間内にストアからハートビートを受信しない場合、PD は他のノードにレプリカを追加します。

    config set max-store-down-time 30m  // Set the time within which PD receives no heartbeats and after which PD starts to add replicas to 30 minutes
    
  • max-store-preparing-timeは、ストアがオンラインになるまでの最大待機時間を制御します。ストアのオンライン段階で、PD はストアのオンライン進行状況を照会できます。指定された時間を超えると、PD はストアがオンラインであると見なし、ストアのオンラインの進行状況を再度照会することはできません。ただし、これはリージョンが新しいオンライン ストアに移行するのを妨げるものではありません。ほとんどのシナリオでは、このパラメーターを調整する必要はありません。

    次のコマンドは、ストアがオンラインになるまでの最大待機時間を 4 時間に指定します。

    config set max-store-preparing-time 4h
    
  • leader-schedule-limitは、リーダーを同時にスケジュールするタスクの数を制御します。この値は、リーダー バランスの速度に影響します。値が大きいほど高速であることを意味し、値を 0 に設定するとスケジューリングが終了します。通常、リーダー スケジューリングの負荷は小さいため、必要に応じて値を増やすことができます。

    config set leader-schedule-limit 4         // 4 tasks of leader scheduling at the same time at most
    
  • region-schedule-limitは、リージョンを同時にスケジューリングするタスクの数を制御します。この値により、作成されるリージョンバランス オペレータが多すぎるのを回避できます。デフォルト値は2048で、すべてのサイズのクラスターで十分です。値を0に設定すると、スケジューリングが終了します。通常、リージョンのスケジューリング速度はstore-limitに制限されていますが、何を行っているかを正確に把握していない限り、この値をカスタマイズしないことをお勧めします。

    config set region-schedule-limit 2         // 2 tasks of Region scheduling at the same time at most
    
  • replica-schedule-limitは、レプリカを同時にスケジュールするタスクの数を制御します。この値は、ノードがダウンまたは削除されたときのスケジューリング速度に影響します。値が大きいほど高速であることを意味し、値を 0 に設定するとスケジューリングが終了します。通常、レプリカのスケジューリングは負荷が大きいため、あまり大きな値を設定しないでください。通常、この構成項目はデフォルト値のままであることに注意してください。値を変更する場合は、いくつかの値を試して、実際の状況に応じてどれが最適かを確認する必要があります。

    config set replica-schedule-limit 4        // 4 tasks of replica scheduling at the same time at most
    
  • merge-schedule-limitは、 リージョン Merge スケジューリング タスクの数を制御します。値を 0 に設定すると、リージョンマージが閉じます。通常、Merge スケジューリングは負荷が大きいため、あまり大きな値を設定しないでください。通常、この構成項目はデフォルト値のままであることに注意してください。値を変更する場合は、いくつかの値を試して、実際の状況に応じてどれが最適かを確認する必要があります。

    config set merge-schedule-limit 16       // 16 tasks of Merge scheduling at the same time at most
    
  • hot-region-schedule-limitは、同時に実行されているホットリージョンスケジューリング タスクを制御します。値を0に設定すると、スケジューリングが無効になります。大きすぎる値を設定することはお勧めしません。そうしないと、システムのパフォーマンスに影響を与える可能性があります。通常、この構成項目はデフォルト値のままであることに注意してください。値を変更する場合は、いくつかの値を試して、実際の状況に応じてどれが最適かを確認する必要があります。

    config set hot-region-schedule-limit 4       // 4 tasks of hot Region scheduling at the same time at most
    
  • hot-region-cache-hits-thresholdは、ホットリージョンを識別するのに必要な分数を設定するために使用されます。 PD は、リージョンがこの分数を超えてホットスポット状態になった後にのみ、ホットスポット スケジューリングに参加できます。

  • tolerant-size-ratioは、バランス バッファ領域のサイズを制御します。 2 店舗のリーダーまたはリージョンのスコア差が、指定されたリージョンサイズの倍数未満の場合、PD によってバランスが取れていると見なされます。

    config set tolerant-size-ratio 20        // Set the size of the buffer area to about 20 times of the average Region Size
    
  • low-space-ratioは、ストア スペースが不十分であると見なされるしきい値を制御します。ノードが占有するスペースの割合が指定された値を超えると、PD は該当するノードへのデータの移行を可能な限り回避しようとします。同時に、PD は主に残りの領域をスケジュールして、対応するノードのディスク領域を使い果たすことを回避します。

    config set low-space-ratio 0.9              // Set the threshold value of insufficient space to 0.9
    
  • high-space-ratioは、十分なストア スペースと見なされるしきい値を制御します。この構成は、 region-score-formula-versionv1に設定されている場合にのみ有効です。ノードが占有する容量の比率が指定された値よりも小さい場合、PD は残りの容量を無視し、主に実際のデータ ボリュームをスケジュールします。

    config set high-space-ratio 0.5             // Set the threshold value of sufficient space to 0.5
    
  • cluster-versionはクラスターのバージョンで、一部の機能を有効または無効にしたり、互換性の問題に対処したりするために使用されます。デフォルトでは、これはクラスター内で正常に実行されているすべての TiKV ノードの最小バージョンです。以前のバージョンにロールバックする必要がある場合にのみ、手動で設定できます。

    config set cluster-version 1.0.8              // Set the version of the cluster to 1.0.8
    
  • replication-modeは、デュアル データ センター シナリオでのリージョンのレプリケーション モードを制御します。詳細はDR 自動同期モードを有効にするを参照してください。

  • leader-schedule-policyは、リーダーのスケジューリング戦略を選択するために使用されます。 sizeまたはcountに従ってリーダーをスケジュールできます。

  • scheduler-max-waiting-operatorは、各スケジューラーで待機中のオペレーターの数を制御するために使用されます。

  • enable-remove-down-replicaは、DownReplica を自動的に削除する機能を有効にするために使用されます。 falseに設定すると、PD はダウンタイム レプリカを自動的にクリーンアップしません。

  • enable-replace-offline-replicaは、OfflineReplica の移行機能を有効にするために使用されます。 falseに設定すると、PD はオフライン レプリカを移行しません。

  • enable-make-up-replicaは、レプリカを作成する機能を有効にするために使用されます。 falseに設定すると、PD は十分なレプリカがないリージョンのレプリカを追加しません。

  • enable-remove-extra-replicaは、余分なレプリカを削除する機能を有効にするために使用されます。 falseに設定すると、PD は冗長レプリカを持つリージョンの余分なレプリカを削除しません。

  • 分離レベルのチェックを有効にするには、 enable-location-replacementを使用します。 falseに設定すると、PD はスケジューリングによってリージョンレプリカの分離レベルを上げません。

  • enable-debug-metricsは、デバッグ用のメトリックを有効にするために使用されます。 trueに設定すると、PD はbalance-tolerant-sizeなどのいくつかのメトリックを有効にします。

  • enable-placement-rulesは、v5.0 以降のバージョンでデフォルトで有効になっている配置ルールを有効にするために使用されます。

  • store-limit-modeは、ストア速度を制限するモードを制御するために使用されます。オプションのモードはautomanualです。 autoモードでは、負荷に応じてストアが自動的にバランス調整されます (実験的)。

  • PD は、フロー番号の最下位桁を四捨五入します。これにより、リージョンフロー情報の変更によって引き起こされる統計の更新が減少します。この構成項目は、リージョンフロー情報を丸める最小桁数を指定するために使用されます。たとえば、デフォルト値が3であるため、フロー100512101000に丸められます。この構成はtrace-region-flowを置き換えます。

  • たとえば、 flow-round-by-digitの値を4に設定します。

    config set flow-round-by-digit 4
    

config placement-rules [disable | enable | load | save | show | rule-group]

config placement-rules [disable | enable | load | save | show | rule-group]の使い方は配置ルールを構成するを参照。

health

このコマンドを使用して、クラスターのヘルス情報を表示します。

使用法:

>> health                                // Display the health information
[
  {
    "name": "pd",
    "member_id": 13195394291058371180,
    "client_urls": [
      "http://127.0.0.1:2379"
      ......
    ],
    "health": true
  }
  ......
]

hot [read | write | store| history <start_time> <end_time> [<key> <value>]]

このコマンドを使用して、クラスターのホット スポット情報を表示します。

使用法:

>> hot read                                // Display hot spot for the read operation
>> hot write                               // Display hot spot for the write operation
>> hot store                               // Display hot spot for all the read and write operations
>> hot history 1629294000000 1631980800000 // Display history hot spot for the specified period (milliseconds). 1629294000000 is the start time and 1631980800000 is the end time.
{
  "history_hot_region": [
    {
      "update_time": 1630864801948,
      "region_id": 103,
      "peer_id": 1369002,
      "store_id": 3,
      "is_leader": true,
      "is_learner": false,
      "hot_region_type": "read",
      "hot_degree": 152,
      "flow_bytes": 0,
      "key_rate": 0,
      "query_rate": 305,
      "start_key": "7480000000000000FF5300000000000000F8",
      "end_key": "7480000000000000FF5600000000000000F8"
    },
    ...
  ]
}
>> hot history 1629294000000 1631980800000 hot_region_type read region_id 1,2,3 store_id 1,2,3 peer_id 1,2,3 is_leader true is_learner true // Display history hotspot for the specified period with more conditions
{
  "history_hot_region": [
    {
      "update_time": 1630864801948,
      "region_id": 103,
      "peer_id": 1369002,
      "store_id": 3,
      "is_leader": true,
      "is_learner": false,
      "hot_region_type": "read",
      "hot_degree": 152,
      "flow_bytes": 0,
      "key_rate": 0,
      "query_rate": 305,
      "start_key": "7480000000000000FF5300000000000000F8",
      "end_key": "7480000000000000FF5600000000000000F8"
    },
    ...
  ]
}

label [store <name> <value>]

このコマンドを使用して、クラスターのラベル情報を表示します。

使用法:

>> label                                // Display all labels
>> label store zone cn                  // Display all stores including the "zone":"cn" label

member [delete | leader_priority | leader [show | resign | transfer <member_name>]]

このコマンドを使用して、PD メンバーを表示したり、指定したメンバーを削除したり、リーダーの優先順位を構成したりします。

使用法:

>> member                               // Display the information of all members
{
  "header": {......},
  "members": [......],
  "leader": {......},
  "etcd_leader": {......},
}
>> member delete name pd2               // Delete "pd2"
Success!
>> member delete id 1319539429105371180 // Delete a node using id
Success!
>> member leader show                   // Display the leader information
{
  "name": "pd",
  "member_id": 13155432540099656863,
  "peer_urls": [......],
  "client_urls": [......]
}
>> member leader resign // Move leader away from the current member
......
>> member leader transfer pd3 // Migrate leader to a specified member
......

operator [check | show | add | remove]

このコマンドを使用して、スケジューリング操作を表示および制御します。

使用法:

>> operator show                                        // Display all operators
>> operator show admin                                  // Display all admin operators
>> operator show leader                                 // Display all leader operators
>> operator show region                                 // Display all Region operators
>> operator add add-peer 1 2                            // Add a replica of Region 1 on store 2
>> operator add add-learner 1 2                         // Add a learner replica of Region 1 on store 2
>> operator add remove-peer 1 2                         // Remove a replica of Region 1 on store 2
>> operator add transfer-leader 1 2                     // Schedule the leader of Region 1 to store 2
>> operator add transfer-region 1 2 3 4                 // Schedule Region 1 to stores 2,3,4
>> operator add transfer-peer 1 2 3                     // Schedule the replica of Region 1 on store 2 to store 3
>> operator add merge-region 1 2                        // Merge Region 1 with Region 2
>> operator add split-region 1 --policy=approximate     // Split Region 1 into two Regions in halves, based on approximately estimated value
>> operator add split-region 1 --policy=scan            // Split Region 1 into two Regions in halves, based on accurate scan value
>> operator remove 1                                    // Remove the scheduling operation of Region 1
>> operator check 1                                     // Check the status of the operators related to Region 1

リージョンの分割は、できるだけ中央に近い位置から開始します。この位置は、「スキャン」と「概算」という 2 つの戦略を使用して見つけることができます。それらの違いは、前者はリージョンをスキャンして中間キーを決定し、後者は SST ファイルに記録された統計をチェックしておおよその位置を取得することです。一般に、前者はより正確ですが、後者はより少ない I/O を消費し、より速く完了することができます。

ping

このコマンドを使用して、 pingの PD にかかる時間を表示します。

使用法:

>> ping
time: 43.12698ms

region <region_id> [--jq="<query string>"]

このコマンドを使用して、リージョン情報を表示します。 jq 形式の出力については、 jq-formatted-json-output-usageを参照してください。

使用法:

>> region                               // Display the information of all Regions
{
  "count": 1,
  "regions": [......]
}

>> region 2                             // Display the information of the Region with the ID of 2
{
  "id": 2,
  "start_key": "7480000000000000FF1D00000000000000F8",
  "end_key": "7480000000000000FF1F00000000000000F8",
  "epoch": {
    "conf_ver": 1,
    "version": 15
  },
  "peers": [
    {
      "id": 40,
      "store_id": 3
    }
  ],
  "leader": {
    "id": 40,
    "store_id": 3
  },
  "written_bytes": 0,
  "read_bytes": 0,
  "written_keys": 0,
  "read_keys": 0,
  "approximate_size": 1,
  "approximate_keys": 0
}

region key [--format=raw|encode|hex] <key>

このコマンドを使用して、特定のキーが存在するリージョンを照会します。未加工、エンコード、および 16 進形式をサポートしています。また、キーがエンコーディング形式の場合は、キーを一重引用符で囲む必要があります。

16 進形式の使用法 (デフォルト):

>> region key 7480000000000000FF1300000000000000F8
{
  "region": {
    "id": 2,
    ......
  }
}

Raw フォーマットの使用法:

>> region key --format=raw abc
{
  "region": {
    "id": 2,
    ......
  }
}

エンコード形式の使用法:

>> region key --format=encode 't\200\000\000\000\000\000\000\377\035_r\200\000\000\000\000\377\017U\320\000\000\000\000\000\372'
{
  "region": {
    "id": 2,
    ......
  }
}

region scan

このコマンドを使用して、すべてのリージョンを取得します。

使用法:

>> region scan
{
  "count": 20,
  "regions": [......],
}

region sibling <region_id>

このコマンドを使用して、特定のリージョンの隣接する Region を確認します。

使用法:

>> region sibling 2
{
  "count": 2,
  "regions": [......],
}

region keys [--format=raw|encode|hex] <start_key> <end_key> <limit>

このコマンドを使用して、特定の範囲[startkey, endkey)内のすべてのリージョンを照会します。 endKey秒のない範囲がサポートされています。

limitパラメータは、キーの数を制限します。デフォルト値limit16で、値-1は無制限のキーを意味します。

使用法:

>> region keys --format=raw a         // Display all Regions that start from the key a with a default limit count of 16
{
  "count": 16,
  "regions": [......],
}

>> region keys --format=raw a z      // Display all Regions in the range [a, z) with a default limit count of 16
{
  "count": 16,
  "regions": [......],
}

>> region keys --format=raw a z -1   // Display all Regions in the range [a, z) without a limit count
{
  "count": ...,
  "regions": [......],
}

>> region keys --format=raw a "" 20   // Display all Regions that start from the key a with a limit count of 20
{
  "count": 20,
  "regions": [......],
}

region store <store_id>

このコマンドを使用して、特定のストアのすべてのリージョンを一覧表示します。

使用法:

>> region store 2
{
  "count": 10,
  "regions": [......],
}

region topread [limit]

このコマンドを使用して、読み取りフローが上位のリージョンを一覧表示します。制限のデフォルト値は 16 です。

使用法:

>> region topread
{
  "count": 16,
  "regions": [......],
}

region topwrite [limit]

このコマンドを使用して、書き込みフローが上位のリージョンを一覧表示します。制限のデフォルト値は 16 です。

使用法:

>> region topwrite
{
  "count": 16,
  "regions": [......],
}

region topconfver [limit]

このコマンドを使用して、最上位の conf バージョンでリージョンを一覧表示します。制限のデフォルト値は 16 です。

使用法:

>> region topconfver
{
  "count": 16,
  "regions": [......],
}

region topversion [limit]

このコマンドを使用して、トップ バージョンのリージョンを一覧表示します。制限のデフォルト値は 16 です。

使用法:

>> region topversion
{
  "count": 16,
  "regions": [......],
}

region topsize [limit]

このコマンドを使用して、上部のおおよそのサイズでリージョンを一覧表示します。制限のデフォルト値は 16 です。

使用法:

>> region topsize
{
  "count": 16,
  "regions": [......],
}

region check [miss-peer | extra-peer | down-peer | pending-peer | offline-peer | empty-region | hist-size | hist-keys]

このコマンドを使用して、異常な状態のリージョンをチェックします。

さまざまなタイプの説明:

  • miss-peer: 十分なレプリカがないリージョン
  • extra-peer: 追加のレプリカを持つリージョン
  • down-peer: 一部のレプリカがダウンしているリージョン
  • pending-peer: 一部のレプリカが保留中のリージョン

使用法:

>> region check miss-peer
{
  "count": 2,
  "regions": [......],
}

scheduler [show | add | remove | pause | resume | config | describe]

このコマンドを使用して、スケジューリング ポリシーを表示および制御します。

使用法:

>> scheduler show                                 // Display all created schedulers
>> scheduler add grant-leader-scheduler 1         // Schedule all the leaders of the Regions on store 1 to store 1
>> scheduler add evict-leader-scheduler 1         // Move all the Region leaders on store 1 out
>> scheduler config evict-leader-scheduler        // Display the stores in which the scheduler is located since v4.0.0
>> scheduler add shuffle-leader-scheduler         // Randomly exchange the leader on different stores
>> scheduler add shuffle-region-scheduler         // Randomly scheduling the Regions on different stores
>> scheduler add evict-slow-store-scheduler       // When there is one and only one slow store, evict all Region leaders of that store
>> scheduler remove grant-leader-scheduler-1      // Remove the corresponding scheduler, and `-1` corresponds to the store ID
>> scheduler pause balance-region-scheduler 10    // Pause the balance-region scheduler for 10 seconds
>> scheduler pause all 10                         // Pause all schedulers for 10 seconds
>> scheduler resume balance-region-scheduler      // Continue to run the balance-region scheduler
>> scheduler resume all                           // Continue to run all schedulers
>> scheduler config balance-hot-region-scheduler  // Display the configuration of the balance-hot-region scheduler
>> scheduler describe balance-region-scheduler    // Display the running state and related diagnostic information of the balance-region scheduler

scheduler describe balance-region-scheduler

このコマンドを使用して、 balance-region-schedulerの実行状態と関連する診断情報を表示します。

TiDB v6.3.0 以降、PD はbalance-region-schedulerbalance-leader-schedulerの実行状態と簡単な診断情報を提供します。その他のスケジューラーとチェッカーはまだサポートされていません。この機能を有効にするには、 pd-ctlを使用してenable-diagnostic構成項目を変更します。

スケジューラの状態は、次のいずれかになります。

  • disabled : スケジューラは使用できないか、削除されています。
  • paused : スケジューラは一時停止しています。
  • scheduling : スケジューラはスケジューリング オペレータを生成しています。
  • pending : スケジューラはスケジューリング オペレータを生成できません。 pending状態のスケジューラの場合、簡単な診断情報が返されます。簡単な情報には、店舗の状態と、これらの店舗をスケジュールに選択できない理由が説明されています。
  • normal : スケジューリング オペレータを生成する必要はありません。

scheduler config balance-leader-scheduler

このコマンドを使用して、 balance-leader-schedulerポリシーを表示および制御します。

TiDB v6.0.0 以降、PD はbalance-leader-schedulerBatchパラメータを導入して、バランス リーダーがタスクを処理する速度を制御します。このパラメーターを使用するには、pd-ctl を使用してbalance-leader batch構成項目を変更できます。

v6.0.0 より前では、PD にはこの構成項目がなく、つまりbalance-leader batch=1です。 v6.0.0 以降のバージョンでは、デフォルト値のbalance-leader batch4です。この構成項目を4より大きい値に設定するには、同時にscheduler-max-waiting-operator (デフォルト値は5 ) により大きい値を設定する必要があります。両方の構成項目を変更した後にのみ、期待される加速効果を得ることができます。

scheduler config balance-leader-scheduler set batch 3 // Set the size of the operator that the balance-leader scheduler can execute in a batch to 3

scheduler config balance-hot-region-scheduler

このコマンドを使用して、 balance-hot-region-schedulerポリシーを表示および制御します。

使用法:

>> scheduler config balance-hot-region-scheduler  // Display all configuration of the balance-hot-region scheduler
{
  "min-hot-byte-rate": 100,
  "min-hot-key-rate": 10,
  "min-hot-query-rate": 10,
  "max-zombie-rounds": 3,
  "max-peer-number": 1000,
  "byte-rate-rank-step-ratio": 0.05,
  "key-rate-rank-step-ratio": 0.05,
  "query-rate-rank-step-ratio": 0.05,
  "count-rank-step-ratio": 0.01,
  "great-dec-ratio": 0.95,
  "minor-dec-ratio": 0.99,
  "src-tolerance-ratio": 1.05,
  "dst-tolerance-ratio": 1.05,
  "read-priorities": [
    "query",
    "byte"
  ],
  "write-leader-priorities": [
    "key",
    "byte"
  ],
  "write-peer-priorities": [
    "byte",
    "key"
  ],
  "strict-picking-store": "true",
  "enable-for-tiflash": "true"
}
  • min-hot-byte-rateはカウントされる最小のバイト数を意味し、通常は 100 です。

    scheduler config balance-hot-region-scheduler set min-hot-byte-rate 100
    
  • min-hot-key-rateは、カウントされるキーの最小数を意味し、通常は 10 です。

    scheduler config balance-hot-region-scheduler set min-hot-key-rate 10
    
  • min-hot-query-rateは、カウントされるクエリの最小数を意味し、通常は 10 です。

    scheduler config balance-hot-region-scheduler set min-hot-query-rate 10
    
  • max-zombie-roundsは、オペレーターが保留中の影響と見なすことができるハートビートの最大数を意味します。より大きな値に設定すると、保留中の影響に含まれるオペレーターが増える可能性があります。通常、その値を調整する必要はありません。保留中の影響とは、スケジューリング中に生成されるが、まだ効果があるオペレーターの影響を指します。

    scheduler config balance-hot-region-scheduler set max-zombie-rounds 3
    
  • max-peer-numberは、解決されるピアの最大数を意味し、スケジューラが遅すぎるのを防ぎます。

    scheduler config balance-hot-region-scheduler set max-peer-number 1000
    
  • byte-rate-rank-step-ratiokey-rate-rank-step-ratioquery-rate-rank-step-ratio 、およびcount-rank-step-ratioは、それぞれバイト、キー、クエリ、およびカウントのステップ ランクを意味します。ランクステップ比は、ランクを計算する際のステップを決定します。 great-dec-ratiominor-dec-ratioは、 decのランクを決定するために使用されます。通常、これらの項目を変更する必要はありません。

    scheduler config balance-hot-region-scheduler set byte-rate-rank-step-ratio 0.05
    
  • src-tolerance-ratiodst-tolerance-ratioは、期待スケジューラの設定項目です。 tolerance-ratioが小さいほど、スケジューリングが容易になります。冗長なスケジューリングが発生した場合は、この値を適切に増やすことができます。

    scheduler config balance-hot-region-scheduler set src-tolerance-ratio 1.1
    
  • read-prioritieswrite-leader-priorities 、およびwrite-peer-prioritiesは、スケジューラーがホットリージョンスケジューリングで優先するディメンションを制御します。構成では 2 つのディメンションがサポートされています。

    • read-prioritieswrite-leader-prioritiesは、読み取りおよび書き込みリーダー タイプのホット リージョンをスケジュールするためにスケジューラが優先するディメンションを制御します。次元オプションはquerybyte 、およびkeyです。

    • write-peer-prioritiesは、書き込みピア タイプのホット リージョンをスケジュールするために、スケジューラがどのディメンションを優先するかを制御します。次元オプションはbytekeyです。

    ノート:

    クラスタ コンポーネントが v5.2 より前の場合、 queryディメンションの構成は有効になりません。一部のコンポーネントが v5.2 以降にアップグレードされた場合でも、デフォルトではbyte次元とkey次元が引き続きホットリージョンスケジューリングの優先順位を持ちます。クラスターのすべてのコンポーネントが v5.2 以降にアップグレードされた後も、そのような構成は互換性のために有効になります。 pd-ctlコマンドを使用して、リアルタイムの構成を表示できます。通常、これらの構成を変更する必要はありません。

    scheduler config balance-hot-region-scheduler set read-priorities query,byte
    
  • strict-picking-storeは、ホットリージョンスケジューリングの検索スペースを制御します。通常は有効になっています。有効にすると、ホットリージョンスケジューリングにより、構成された 2 つのディメンションでホットスポットのバランスが確保されます。無効にすると、ホットリージョンスケジューリングは優先順位が最も高いディメンションのバランスのみを確保するため、他のディメンションのバランスが低下する可能性があります。通常、この構成を変更する必要はありません。

    scheduler config balance-hot-region-scheduler set strict-picking-store true
    
  • enable-for-tiflashは、ホットリージョンスケジューリングが TiFlash インスタンスに対して有効かどうかを制御します。通常は有効になっています。無効にすると、TiFlash インスタンス間のホットリージョンスケジューリングは実行されません。

    scheduler config balance-hot-region-scheduler set enable-for-tiflash true
    

store [delete | cancel-delete | label | weight | remove-tombstone | limit ] <store_id> [--jq="<query string>"]

jq 形式の出力については、 jq-formatted-json-output-usageを参照してください。

ストアを取得する

すべてのストアの情報を表示するには、次のコマンドを実行します。

store
{
  "count": 3,
  "stores": [...]
}

ID が 1 のストアを取得するには、次のコマンドを実行します。

store 1
......

ストアを削除する

ID が 1 のストアを削除するには、次のコマンドを実行します。

store delete 1

store deleteを使用して削除されたOffline状態ストアの削除をキャンセルするには、 store cancel-deleteコマンドを実行します。キャンセル後、店舗はOfflineからUpに変わります。 store cancel-deleteコマンドは、 Tombstone状態のストアをUp状態に変更できないことに注意してください。

ID 1 のストアの削除をキャンセルするには、次のコマンドを実行します。

store cancel-delete 1

Tombstoneの状態のすべてのストアを削除するには、次のコマンドを実行します。

store remove-tombstone

ノート:

ストアの削除中に PD リーダーが変更された場合は、 store limitコマンドを使用して手動でストア制限を変更する必要があります。

ストア ラベルの管理

ストアのラベルを管理するには、 store labelコマンドを実行します。

  • キーが"zone"で値が"cn"のラベルを ID が 1 のストアに設定するには、次のコマンドを実行します。

    store label 1 zone=cn
    
  • ストアのラベルを更新するには、たとえば、ID が 1 のストアのキー"zone"の値を"cn"から"us"に変更するには、次のコマンドを実行します。

    store label 1 zone=us
    
  • ID が 1 のストアのすべてのラベルを書き換えるには、 --rewriteオプションを使用します。このオプションは、既存のすべてのラベルを上書きすることに注意してください。

    store label 1 region=us-est-1 disk=ssd --rewrite
    
  • ID が 1 のストアのラベル"disk"を削除するには、オプション--deleteを使用します。

    store label 1 disk --delete
    

ノート:

  • ストアのラベルは、TiKV のラベルと PD のラベルをマージして更新されます。具体的には、TiKV 構成ファイルでストア ラベルを変更してクラスターを再起動した後、PD は独自のストア ラベルを TiKV ストア ラベルとマージし、ラベルを更新して、マージされた結果を保持します。
  • TiUP を使用してストアのラベルを管理するには、クラスターを再起動する前にstore label <id> --forceコマンドを実行して、PD に保存されているラベルを空にすることができます。

店舗重量の構成

ID が 1 のストアのリーダーの重みを 5 に、リージョンの重みを 10 に設定するには、次のコマンドを実行します。

store weight 1 5 10

ストアのスケジューリング速度を構成する

store limitを使用して、店舗のスケジューリング速度を設定できます。 store limitの原理と使用法の詳細については、 store limitを参照してください。

>> store limit                         // Show the speed limit of adding-peer operations and the limit of removing-peer operations per minute in all stores
>> store limit add-peer                // Show the speed limit of adding-peer operations per minute in all stores
>> store limit remove-peer             // Show the limit of removing-peer operations per minute in all stores
>> store limit all 5                   // Set the limit of adding-peer operations to 5 and the limit of removing-peer operations to 5 per minute for all stores
>> store limit 1 5                     // Set the limit of adding-peer operations to 5 and the limit of removing-peer operations to 5 per minute for store 1
>> store limit all 5 add-peer          // Set the limit of adding-peer operations to 5 per minute for all stores
>> store limit 1 5 add-peer            // Set the limit of adding-peer operations to 5 per minute for store 1
>> store limit 1 5 remove-peer         // Set the limit of removing-peer operations to 5 per minute for store 1
>> store limit all 5 remove-peer       // Set the limit of removing-peer operations to 5 per minute for all stores

ノート:

  • store limitコマンドの元のregion-addおよびregion-removeパラメータは廃止され、 add-peerおよびremove-peerに置き換えられました。
  • pd-ctlを使用して、TiKV ストアの状態 ( UpDisconnectOfflineDown 、またはTombstone ) を確認できます。各状態の関係はTiKV ストアの各状態の関係参照。

log [fatal | error | warn | info | debug]

このコマンドを使用して、PD リーダーのログ レベルを設定します。

使用法:

log warn

tso

このコマンドを使用して、TSO の物理時刻と論理時刻を解析します。

使用法:

>> tso 395181938313123110        // Parse TSO
system:  2017-10-09 05:50:59 +0800 CST
logic:  120102

unsafe remove-failed-stores [store-ids | show]

このコマンドを使用して、永続的に損傷したレプリカによってデータが使用できなくなった場合に、損失のある回復操作を実行します。次の例を参照してください。詳細はオンラインの安全でない回復に記載

Online Unsafe Recovery を実行して、完全に破損したストアを削除します。

unsafe remove-failed-stores 101,102,103
Success!

Online Unsafe Recovery の現在または過去の状態を表示します。

unsafe remove-failed-stores show
[
  "Collecting cluster info from all alive stores, 10/12.",
  "Stores that have reports to PD: 1, 2, 3, ...",
  "Stores that have not reported to PD: 11, 12",
]

Jq 形式の JSON 出力の使用法

storeの出力を簡素化する

>> store --jq=".stores[].store | { id, address, state_name}"
{"id":1,"address":"127.0.0.1:20161","state_name":"Up"}
{"id":30,"address":"127.0.0.1:20162","state_name":"Up"}
...

ノードの残りのスペースを照会する

>> store --jq=".stores[] | {id: .store.id, available: .status.available}"
{"id":1,"available":"10 GiB"}
{"id":30,"available":"10 GiB"}
...

ステータスがUpでないすべてのノードを照会する

store --jq='.stores[].store | select(.state_name!="Up") | { id, address, state_name}'
{"id":1,"address":"127.0.0.1:20161""state_name":"Offline"}
{"id":5,"address":"127.0.0.1:20162""state_name":"Offline"}
...

すべての TiFlash ノードを照会する

store --jq='.stores[].store | select(.labels | length>0 and contains([{"key":"engine","value":"tiflash"}])) | { id, address, state_name}'
{"id":1,"address":"127.0.0.1:20161""state_name":"Up"}
{"id":5,"address":"127.0.0.1:20162""state_name":"Up"}
...

リージョンレプリカの配布ステータスを照会する

>> region --jq=".regions[] | {id: .id, peer_stores: [.peers[].store_id]}"
{"id":2,"peer_stores":[1,30,31]}
{"id":4,"peer_stores":[1,31,34]}
...

レプリカの数に応じてリージョンをフィルタリングする

たとえば、レプリカの数が 3 ではないすべてのリージョンを除外するには、次のようにします。

>> region --jq=".regions[] | {id: .id, peer_stores: [.peers[].store_id] | select(length != 3)}"
{"id":12,"peer_stores":[30,32]}
{"id":2,"peer_stores":[1,30,31,32]}

レプリカのストア ID に従ってリージョンをフィルター処理する

たとえば、store30 にレプリカがあるすべてのリージョンを除外するには、次のようにします。

>> region --jq=".regions[] | {id: .id, peer_stores: [.peers[].store_id] | select(any(.==30))}"
{"id":6,"peer_stores":[1,30,31]}
{"id":22,"peer_stores":[1,30,32]}
...

同じ方法で、store30 または store31 にレプリカがあるすべてのリージョンを見つけることもできます。

>> region --jq=".regions[] | {id: .id, peer_stores: [.peers[].store_id] | select(any(.==(30,31)))}"
{"id":16,"peer_stores":[1,30,34]}
{"id":28,"peer_stores":[1,30,32]}
{"id":12,"peer_stores":[30,32]}
...

データの復元時に関連するリージョンを探す

たとえば、[store1, store30, store31] がダウンタイムに利用できない場合、ダウン レプリカが通常のレプリカより多いすべてのリージョンを見つけることができます。

>> region --jq=".regions[] | {id: .id, peer_stores: [.peers[].store_id] | select(length as $total | map(if .==(1,30,31) then . else empty end) | length>=$total-length) }"
{"id":2,"peer_stores":[1,30,31,32]}
{"id":12,"peer_stores":[30,32]}
{"id":14,"peer_stores":[1,30,32]}
...

または、[store1, store30, store31] が起動に失敗した場合、store1 でデータを手動で安全に削除できるリージョンを見つけることができます。このようにして、store1 にレプリカがあるが他の DownPeer を持たないすべてのリージョンを除外できます。

>> region --jq=".regions[] | {id: .id, peer_stores: [.peers[].store_id] | select(length>1 and any(.==1) and all(.!=(30,31)))}"
{"id":24,"peer_stores":[1,32,33]}

[store30, store31] がダウンしている場合、 remove-peerの Operator を作成することで安全に処理できるすべてのリージョン、つまり DownPeer が 1 つだけのリージョンを見つけます。

>> region --jq=".regions[] | {id: .id, remove_peer: [.peers[].store_id] | select(length>1) | map(if .==(30,31) then . else empty end) | select(length==1)}"
{"id":12,"remove_peer":[30]}
{"id":4,"remove_peer":[31]}
{"id":22,"remove_peer":[30]}
...
エコシステム
TiDB
TiKV
TiSpark
Chaos Mesh
© 2022 PingCAP. All Rights Reserved.