TiUPを使用してTiDBクラスターをスケーリングする

TiDBクラスタの容量は、オンラインサービスを中断することなく増減できます。

このドキュメントでは、TiUPを使用してTiDB、TiKV、PD、TiCDC、またはTiFlashクラスタをスケーリングする方法について説明します。 TiUPをインストールしていない場合は、 ステップ2.制御マシンにTiUPをデプロイしますの手順を参照してください。

現在のクラスタ名リストを表示するには、 tiup cluster listを実行します。

たとえば、クラスタの元のトポロジが次の場合です。

ホストIPサービス
10.0.1.3TiDB + TiFlash
10.0.1.4TiDB + PD
10.0.1.5TiKV+モニター
10.0.1.1TiKV
10.0.1.2TiKV

TiDB / PD/TiKVクラスタをスケールアウトする

このセクションでは、TiDBノードを10.0.1.5のホストに追加する方法を例示します。

ノート:

同様の手順でPDノードを追加できます。 TiKVノードを追加する前に、クラスタの負荷に応じてPDスケジューリングパラメーターを事前に調整することをお勧めします。

  1. スケールアウトトポロジを構成します。

    ノート:

    • デフォルトでは、ポートとディレクトリの情報は必要ありません。
    • 1台のマシンに複数のインスタンスがデプロイされている場合は、それらに異なるポートとディレクトリを割り当てる必要があります。ポートまたはディレクトリに競合がある場合は、展開またはスケーリング中に通知を受け取ります。
    • TiUP v1.0.0以降、スケールアウト構成は元のクラスタのグローバル構成を継承します。

    scale-out.yamlのファイルにスケールアウトトポロジ構成を追加します。

    vi scale-out.yaml
    tidb_servers: - host: 10.0.1.5 ssh_port: 22 port: 4000 status_port: 10080 deploy_dir: /data/deploy/install/deploy/tidb-4000 log_dir: /data/deploy/install/log/tidb-4000

    TiKV構成ファイルテンプレートは次のとおりです。

    tikv_servers: - host: 10.0.1.5 ssh_port: 22 port: 20160 status_port: 20180 deploy_dir: /data/deploy/install/deploy/tikv-20160 data_dir: /data/deploy/install/data/tikv-20160 log_dir: /data/deploy/install/log/tikv-20160

    PD構成ファイルテンプレートは次のとおりです。

    pd_servers: - host: 10.0.1.5 ssh_port: 22 name: pd-1 client_port: 2379 peer_port: 2380 deploy_dir: /data/deploy/install/deploy/pd-2379 data_dir: /data/deploy/install/data/pd-2379 log_dir: /data/deploy/install/log/pd-2379

    現在のクラスタの構成を表示するには、 tiup cluster edit-config <cluster-name>を実行します。 globalserver_configsのパラメーター構成はscale-out.yamlに継承され、したがってscale-out.yamlでも有効になるためです。

  2. scale-outコマンドを実行します。

    scale-outコマンドを実行する前に、 checkおよびcheck --applyコマンドを使用して、クラスタの潜在的なリスクを検出し、自動的に修復します。

    1. 潜在的なリスクを確認します。

      tiup cluster check <cluster-name> scale-out.yaml --cluster --user root [-p] [-i /home/root/.ssh/gcp_rsa]
    2. 自動修復を有効にします。

      tiup cluster check <cluster-name> scale-out.yaml --cluster --apply --user root [-p] [-i /home/root/.ssh/gcp_rsa]
    3. scale-outコマンドを実行します。

      tiup cluster scale-out <cluster-name> scale-out.yaml [-p] [-i /home/root/.ssh/gcp_rsa]

    上記のコマンドでは:

    • scale-out.yamlはスケールアウト構成ファイルです。
    • --user rootは、クラスタのスケールアウトを完了するためにrootユーザーとしてターゲットマシンにログインすることを示します。 rootユーザーは、ターゲットマシンに対してsshおよびsudoの特権を持っていることが期待されます。または、 ssh特権とsudo特権を持つ他のユーザーを使用して、展開を完了することもできます。
    • [-i][-p]はオプションです。パスワードなしでターゲットマシンへのログインを設定した場合、これらのパラメータは必要ありません。そうでない場合は、2つのパラメーターのいずれかを選択してください。 [-i]は、ターゲットマシンにアクセスできるrootユーザー(または--userで指定された他のユーザー)の秘密鍵です。 [-p]は、ユーザーパスワードをインタラクティブに入力するために使用されます。

    Scaled cluster <cluster-name> out successfullyが表示されている場合、スケールアウト操作は成功しています。

  3. クラスタのステータスを確認します。

    tiup cluster display <cluster-name>

    ブラウザを使用してhttp://10.0.1.5:3000の監視プラットフォームにアクセスし、クラスタと新しいノードのステータスを監視します。

スケールアウト後のクラスタトポロジは次のとおりです。

ホストIPサービス
10.0.1.3TiDB + TiFlash
10.0.1.4TiDB + PD
10.0.1.5TiDB +TiKV+モニター
10.0.1.1TiKV
10.0.1.2TiKV

TiFlashクラスタをスケールアウトする

このセクションでは、TiFlashノードを10.0.1.4のホストに追加する方法を例示します。

ノート:

TiFlashノードを既存のTiDBクラスタに追加する場合は、次の点に注意してください。

  • 現在のTiDBバージョンがTiFlashの使用をサポートしていることを確認します。それ以外の場合は、TiDBクラスタをv5.0以降のバージョンにアップグレードします。
  • tiup ctl:<cluster-version> pd -u http://<pd_ip>:<pd_port> config set enable-placement-rules trueコマンドを実行して、配置ルール機能を有効にします。または、 pd-ctlで対応するコマンドを実行します。
  1. ノード情報をscale-out.yamlのファイルに追加します。

    scale-out.yamlのファイルを作成して、TiFlashノード情報を追加します。

    tiflash_servers: - host: 10.0.1.4

    現在、追加できるのはIPアドレスのみで、ドメイン名は追加できません。

  2. scale-outコマンドを実行します。

    tiup cluster scale-out <cluster-name> scale-out.yaml

    ノート:

    上記のコマンドは、ユーザーがコマンドと新しいマシンを実行するための相互信頼が構成されていることを前提としています。相互信頼を設定できない場合は、 -pオプションを使用して新しいマシンのパスワードを入力するか、 -iオプションを使用して秘密鍵ファイルを指定します。

  3. クラスタのステータスを表示します。

    tiup cluster display <cluster-name>

    ブラウザを使用してhttp://10.0.1.5:3000の監視プラットフォームにアクセスし、クラスタと新しいノードのステータスを表示します。

スケールアウト後のクラスタトポロジは次のとおりです。

ホストIPサービス
10.0.1.3TiDB + TiFlash
10.0.1.4TiDB + PD + TiFlash
10.0.1.5TiDB +TiKV+モニター
10.0.1.1TiKV
10.0.1.2TiKV

TiCDCクラスタをスケールアウトする

このセクションでは、2つのTiCDCノードを10.0.1.3つおよび10.0.1.4のホストに追加する方法を例示します。

  1. ノード情報をscale-out.yamlのファイルに追加します。

    scale-out.yamlのファイルを作成して、TiCDCノード情報を追加します。

    cdc_servers: - host: 10.0.1.3 gc-ttl: 86400 data_dir: /data/deploy/install/data/cdc-8300 - host: 10.0.1.4 gc-ttl: 86400 data_dir: /data/deploy/install/data/cdc-8300
  2. scale-outコマンドを実行します。

    tiup cluster scale-out <cluster-name> scale-out.yaml

    ノート:

    上記のコマンドは、ユーザーがコマンドと新しいマシンを実行するための相互信頼が構成されていることを前提としています。相互信頼を設定できない場合は、 -pオプションを使用して新しいマシンのパスワードを入力するか、 -iオプションを使用して秘密鍵ファイルを指定します。

  3. クラスタのステータスを表示します。

    tiup cluster display <cluster-name>

    ブラウザを使用してhttp://10.0.1.5:3000の監視プラットフォームにアクセスし、クラスタと新しいノードのステータスを表示します。

スケールアウト後のクラスタトポロジは次のとおりです。

ホストIPサービス
10.0.1.3TiDB + TiFlash + TiCDC
10.0.1.4TiDB + PD + TiFlash + TiCDC
10.0.1.5TiDB +TiKV+モニター
10.0.1.1TiKV
10.0.1.2TiKV

TiDB / PD/TiKVクラスタでのスケーリング

このセクションでは、 10.0.1.5のホストからTiKVノードを削除する方法を例示します。

ノート:

  • 同様の手順を実行して、TiDBまたはPDノードを削除できます。
  • TiKV、TiFlash、およびTiDB Binlogコンポーネントは非同期でオフラインになり、停止プロセスに時間がかかるため、TiUPはさまざまな方法でそれらをオフラインにします。詳細については、 コンポーネントのオフラインプロセスの特定の処理を参照してください。
  • TiKVのPDクライアントは、PDノードのリストをキャッシュします。 TiKVの現在のバージョンには、PDノードを自動的かつ定期的に更新するメカニズムがあり、TiKVによってキャッシュされたPDノードの期限切れリストの問題を軽減するのに役立ちます。ただし、PDをスケールアウトした後は、スケールアウトの前に存在するすべてのPDノードを一度に直接削除しないようにする必要があります。必要に応じて、既存のすべてのPDノードをオフラインにする前に、PDリーダーを新しく追加されたPDノードに切り替えてください。
  1. ノードID情報を表示します。

    tiup cluster display <cluster-name>
    Starting /root/.tiup/components/cluster/v1.9.0/cluster display <cluster-name> TiDB Cluster: <cluster-name> TiDB Version: v5.4.2 ID Role Host Ports Status Data Dir Deploy Dir -- ---- ---- ----- ------ -------- ---------- 10.0.1.3:8300 cdc 10.0.1.3 8300 Up data/cdc-8300 deploy/cdc-8300 10.0.1.4:8300 cdc 10.0.1.4 8300 Up data/cdc-8300 deploy/cdc-8300 10.0.1.4:2379 pd 10.0.1.4 2379/2380 Healthy data/pd-2379 deploy/pd-2379 10.0.1.1:20160 tikv 10.0.1.1 20160/20180 Up data/tikv-20160 deploy/tikv-20160 10.0.1.2:20160 tikv 10.0.1.2 20160/20180 Up data/tikv-20160 deploy/tikv-20160 10.0.1.5:20160 tikv 10.0.1.5 20160/20180 Up data/tikv-20160 deploy/tikv-20160 10.0.1.3:4000 tidb 10.0.1.3 4000/10080 Up - deploy/tidb-4000 10.0.1.4:4000 tidb 10.0.1.4 4000/10080 Up - deploy/tidb-4000 10.0.1.5:4000 tidb 10.0.1.5 4000/10080 Up - deploy/tidb-4000 10.0.1.3:9000 tiflash 10.0.1.3 9000/8123/3930/20170/20292/8234 Up data/tiflash-9000 deploy/tiflash-9000 10.0.1.4:9000 tiflash 10.0.1.4 9000/8123/3930/20170/20292/8234 Up data/tiflash-9000 deploy/tiflash-9000 10.0.1.5:9090 prometheus 10.0.1.5 9090 Up data/prometheus-9090 deploy/prometheus-9090 10.0.1.5:3000 grafana 10.0.1.5 3000 Up - deploy/grafana-3000 10.0.1.5:9093 alertmanager 10.0.1.5 9093/9294 Up data/alertmanager-9093 deploy/alertmanager-9093
  2. スケールインコマンドを実行します。

    tiup cluster scale-in <cluster-name> --node 10.0.1.5:20160

    --nodeパラメーターは、オフラインにするノードのIDです。

    Scaled cluster <cluster-name> in successfullyが表示されている場合、スケールイン操作は成功しています。

  3. クラスタのステータスを確認します。

    スケールインプロセスには時間がかかります。次のコマンドを実行して、スケールインステータスを確認できます。

    tiup cluster display <cluster-name>

    スケールインするノードがTombstoneになると、スケールイン操作は成功します。

    ブラウザを使用してhttp://10.0.1.5:3000の監視プラットフォームにアクセスし、クラスタのステータスを表示します。

現在のトポロジは次のとおりです。

ホストIPサービス
10.0.1.3TiDB + TiFlash + TiCDC
10.0.1.4TiDB + PD + TiFlash + TiCDC
10.0.1.5TiDB +モニター(TiKVは削除されます)
10.0.1.1TiKV
10.0.1.2TiKV

TiFlashクラスタでのスケーリング

このセクションでは、 10.0.1.4のホストからTiFlashノードを削除する方法を例示します。

1.残りのTiFlashノードの数に応じて、テーブルのレプリカの数を調整します

ノードがダウンする前に、TiFlashクラスタの残りのノードの数がすべてのテーブルのレプリカの最大数以上であることを確認してください。それ以外の場合は、関連するテーブルのTiFlashレプリカの数を変更します。

  1. レプリカがクラスタの残りのTiFlashノードの数よりも大きいすべてのテーブルに対して、TiDBクライアントで次のコマンドを実行します。

    ALTER TABLE <db-name>.<table-name> SET tiflash replica 0;
  2. 関連するテーブルのTiFlashレプリカが削除されるのを待ちます。 テーブルのレプリケーションの進行状況を確認するであり、関連するテーブルのレプリケーション情報が見つからない場合、レプリカは削除されます。

2.スケールイン操作を実行します

次のいずれかの解決策を使用して、スケールイン操作を実行します。

解決策1.TiUPを使用してTiFlashノードを削除します

  1. 削除するノードの名前を確認します。

    tiup cluster display <cluster-name>
  2. TiFlashノードを削除します(ステップ1のノード名が10.0.1.4:9000であると想定します)。

    tiup cluster scale-in <cluster-name> --node 10.0.1.4:9000

解決策2.手動でTiFlashノードを削除します

特別な場合(ノードを強制的に停止する必要がある場合など)、またはTiUPスケールイン操作が失敗した場合は、次の手順でTiFlashノードを手動で削除できます。

  1. pd-ctlのstoreコマンドを使用して、このTiFlashノードに対応するストアIDを表示します。

    • pd-ctlにstoreコマンドを入力します(バイナリファイルはtidb-ansibleディレクトリのresources/bin未満です)。

    • TiUPデプロイメントを使用する場合は、 pd-ctltiup ctl pdに置き換えます。

    tiup ctl:<cluster-version> pd -u http://<pd_ip>:<pd_port> store

    ノート:

    クラスタに複数のPDインスタンスが存在する場合は、上記のコマンドでアクティブなPDインスタンスのIPアドレス:ポートを指定するだけで済みます。

  2. pd-ctlでTiFlashノードを削除します。

    • pd-ctlにstore delete <store_id>を入力します( <store_id>は前の手順で見つかったTiFlashノードのストアIDです。

    • TiUPデプロイメントを使用する場合は、 pd-ctltiup ctl pdに置き換えます。

      tiup ctl:<cluster-version> pd -u http://<pd_ip>:<pd_port> store delete <store_id>

    ノート:

    クラスタに複数のPDインスタンスが存在する場合は、上記のコマンドでアクティブなPDインスタンスのIPアドレス:ポートを指定するだけで済みます。

  3. TiFlashプロセスを停止する前に、TiFlashノードのストアが消えるのを待つか、 state_nameTombstoneになるのを待ちます。

  4. TiFlashデータファイルを手動で削除します(場所は、クラスタトポロジファイルのTiFlash構成の下のdata_dirディレクトリにあります)。

  5. TiUPのクラスタ構成ファイルを手動で更新します(編集モードでダウンするTiFlashノードの情報を削除します)。

    tiup cluster edit-config <cluster-name>

ノート:

クラスタのすべてのTiFlashノードの実行を停止する前に、TiFlashにレプリケートされたすべてのテーブルがキャンセルされない場合は、PDのレプリケーションルールを手動でクリーンアップする必要があります。そうしないと、TiFlashノードを正常に停止できません。

PDのレプリケーションルールを手動でクリーンアップする手順は次のとおりです。

  1. 現在のPDインスタンスのTiFlashに関連するすべてのデータレプリケーションルールを表示します。

    curl http://<pd_ip>:<pd_port>/pd/api/v1/config/rules/group/tiflash
    [ { "group_id": "tiflash", "id": "table-45-r", "override": true, "start_key": "7480000000000000FF2D5F720000000000FA", "end_key": "7480000000000000FF2E00000000000000F8", "role": "learner", "count": 1, "label_constraints": [ { "key": "engine", "op": "in", "values": [ "tiflash" ] } ] } ]
  2. TiFlashに関連するすべてのデータ複製ルールを削除します。例として、 idtable-45-rであるルールを取り上げます。次のコマンドで削除します。

    curl -v -X DELETE http://<pd_ip>:<pd_port>/pd/api/v1/config/rule/tiflash/table-45-r
  3. クラスタのステータスを表示します。

    tiup cluster display <cluster-name>

    ブラウザを使用してhttp://10.0.1.5:3000の監視プラットフォームにアクセスし、クラスタと新しいノードのステータスを表示します。

スケールアウト後のクラスタトポロジは次のとおりです。

ホストIPサービス
10.0.1.3TiDB + TiFlash + TiCDC
10.0.1.4TiDB + PD + TiCDC (TiFlashは削除されます)
10.0.1.5TiDB+モニター
10.0.1.1TiKV
10.0.1.2TiKV

TiCDCクラスタでのスケーリング

このセクションでは、 10.0.1.4のホストからTiCDCノードを削除する方法を例示します。

  1. ノードをオフラインにします。

    tiup cluster scale-in <cluster-name> --node 10.0.1.4:8300
  2. クラスタのステータスを表示します。

    tiup cluster display <cluster-name>

    ブラウザを使用してhttp://10.0.1.5:3000の監視プラットフォームにアクセスし、クラスタのステータスを表示します。

現在のトポロジは次のとおりです。

ホストIPサービス
10.0.1.3TiDB + TiFlash + TiCDC
10.0.1.4TiDB + PD + (TiCDCは削除されます)
10.0.1.5TiDB+モニター
10.0.1.1TiKV
10.0.1.2TiKV

このページは役に立ちましたか?