📣
TiDB Cloud Essential はパブリックプレビュー中です。このページは自動翻訳されたものです。原文はこちらからご覧ください。

TiUPを使用して PD マイクロサービス ノードをスケールする

このドキュメントでは、クラスター内のPDマイクロサービスノード (TSO ノードとスケジューリング ノードを含む) をスケーリングする方法と、 TiUPを使用して PD 動作モードを切り替える方法について説明します。

現在のクラスター名リストを表示するには、 tiup cluster list実行します。

たとえば、クラスターの元のトポロジは次のようになります。

ホストIPサービス
10.0.1.4TiDB + PD
10.0.1.5TiKV + モニター
10.0.1.1TiKV
10.0.1.2TiKV
10.0.1.6TSO
10.0.1.7スケジュール

TSO/スケジューリングノードを追加する

注記:

PD マイクロサービスがまだ有効になっていない TiDB クラスターに TSO/スケジューリング ノードを追加するには、代わりに通常モードからマイクロサービスモードに切り替えるの手順に従ってください。

このセクションでは、PD マイクロサービスが有効になっている TiDB クラスターに TSO ノード (IP アドレス10.0.1.8 ) とスケジューリング ノード (IP アドレス10.0.1.9 ) を追加する方法を例示します。

1. スケールアウトトポロジを構成する

注記:

  • デフォルトでは、ポートとディレクトリの情報は必要ありません。ただし、1台のマシンに複数のインスタンスがある場合は、各インスタンスに異なるポートとディレクトリを割り当てる必要があります。ポートまたはディレクトリが競合する場合は、デプロイまたはスケーリング中に通知が表示されます。
  • TiUP v1.0.0 以降、スケールアウト構成は元のクラスターのglobal構成を継承します。

scale-out.ymlファイルにスケールアウト トポロジ構成を追加します。

vi scale-out.yml

以下は TSO ノードの構成例です。

tso_servers: - host: 10.0.1.8 port: 3379

以下はスケジューリング ノードの構成例です。

scheduling_servers: - host: 10.0.1.9 port: 3379

現在のクラスターの構成を表示するには、 tiup cluster edit-config <cluster-name>実行します。 globalserver_configsのパラメータ設定はscale-out.ymlに継承されるため、 scale-out.ymlでも有効になります。

2.スケールアウトコマンドを実行する

scale-outコマンドを実行する前に、 checkコマンドとcheck --applyコマンドを使用して、クラスター内の潜在的なリスクを検出し、自動的に修復します。

  1. 潜在的なリスクを確認します。

    tiup cluster check <cluster-name> scale-out.yml --cluster --user root [-p] [-i /home/root/.ssh/gcp_rsa]
  2. 自動修復を有効にする:

    tiup cluster check <cluster-name> scale-out.yml --cluster --apply --user root [-p] [-i /home/root/.ssh/gcp_rsa]
  3. scale-outコマンドを実行します。

    tiup cluster scale-out <cluster-name> scale-out.yml [-p] [-i /home/root/.ssh/gcp_rsa]

上記のコマンドでは、

  • scale-out.ymlはスケールアウト構成ファイルです。
  • --user root 、クラスタのスケールアウトを完了するために、ターゲットマシンにrootユーザーとしてログインすることを示します。4 rootユーザーは、ターゲットマシンに対してsshsudo権限を持つことが想定されています。または、 sshsudo権限を持つ他のユーザーを使用してデプロイを完了することもできます。
  • [-i][-p]オプションです。ターゲットマシンへのログインにパスワードを使用しない設定をしている場合は、これらのパラメータは不要です。そうでない場合は、2つのパラメータのいずれかを選択してください。4 [-i] 、ターゲットマシンにアクセスできるルートユーザー(または--userで指定された他のユーザー)の秘密鍵です。8 [-p] 、ユーザーパスワードを対話的に入力するために使用されます。

Scaled cluster <cluster-name> out successfully表示された場合、スケールアウト操作は成功しています。

3. クラスターのステータスを確認する

tiup cluster display <cluster-name>

ブラウザを使用してhttp://10.0.1.5:3000の監視プラットフォームにアクセスし、クラスターと新しいノードのステータスを監視します。

スケールアウト後のクラスター トポロジは次のようになります。

ホストIPサービス
10.0.1.4TiDB + PD
10.0.1.5TiKV + モニター
10.0.1.1TiKV
10.0.1.2TiKV
10.0.1.6TSO
10.0.1.7スケジュール
10.0.1.8TSO
10.0.1.9スケジュール

TSO/スケジューリングノードを削除する

注記:

PD マイクロサービスが有効になっているクラスターを非マイクロサービス モードに切り替える必要がある場合は、代わりにマイクロサービスモードから通常モードに切り替えるの手順に従ってください。

このセクションでは、複数の TSO ノードまたはスケジューリング ノードを持つ TiDB クラスターから TSO ノード (IP アドレス10.0.1.8 ) とスケジューリング ノード (IP アドレス10.0.1.9 ) を削除する方法を例示します。

1. ノードID情報をビュー

tiup cluster display <cluster-name>
Starting /root/.tiup/components/cluster/v1.16/cluster display <cluster-name> TiDB Cluster: <cluster-name> TiDB Version: v8.5.3 ID Role Host Ports Status Data Dir Deploy Dir -- ---- ---- ----- ------ -------- ---------- 10.0.1.4:2379 pd 10.0.1.4 2379/2380 Healthy data/pd-2379 deploy/pd-2379 10.0.1.1:20160 tikv 10.0.1.1 20160/20180 Up data/tikv-20160 deploy/tikv-20160 10.0.1.2:20160 tikv 10.0.1.2 20160/20180 Up data/tikv-20160 deploy/tikv-20160 10.0.1.5:20160 tikv 10.0.1.5 20160/20180 Up data/tikv-20160 deploy/tikv-20160 10.0.1.4:4000 tidb 10.0.1.4 4000/10080 Up - deploy/tidb-4000 10.0.1.5:9090 prometheus 10.0.1.5 9090 Up data/prometheus-9090 deploy/prometheus-9090 10.0.1.5:3000 grafana 10.0.1.5 3000 Up - deploy/grafana-3000 10.0.1.5:9093 alertmanager 10.0.1.5 9093/9094 Up data/alertmanager-9093 deploy/alertmanager-9093 10.0.1.6:3379 tso 10.0.1.6 3379 Up|P data/tso-3379 deploy/tso-3379 10.0.1.8:3379 tso 10.0.1.8 3379 Up data/tso-3379 deploy/tso-3379 10.0.1.7:3379 scheduling 10.0.1.7 3379 Up|P data/scheduling-3379 deploy/scheduling-3379 10.0.1.9:3379 scheduling 10.0.1.9 3379 Up data/scheduling-3379 deploy/scheduling-3379

2. スケールインコマンドを実行する

tiup cluster scale-in <cluster-name> --node 10.0.1.8:3379 tiup cluster scale-in <cluster-name> --node 10.0.1.9:3379

--nodeパラメータは、オフラインにするノードの ID です。

Scaled cluster <cluster-name> in successfully表示された場合、スケールイン操作は成功しています。

3. クラスターのステータスを確認する

次のコマンドを実行して、ノードが正常に削除されたかどうかを確認します。

tiup cluster display <cluster-name>

ブラウザを使用してhttp://10.0.1.5:3000の監視プラットフォームにアクセスし、クラスター全体のステータスを監視します。

スケールイン後、現在のトポロジは次のようになります。

ホストIPサービス
10.0.1.4TiDB + PD
10.0.1.5TiKV + モニター
10.0.1.1TiKV
10.0.1.2TiKV
10.0.1.6TSO
10.0.1.7スケジュール

PD動作モードを切り替える

PD サービスを次の 2 つの動作モード間で切り替えることができます。

  • 通常モード: PD ノードのみでルーティング サービス、タイムスタンプ割り当て、およびクラスター スケジューリング関数を提供します。
  • マイクロサービスモード:PDタイムスタンプ割り当て機能をTSOノード( tsoマイクロサービスを提供)に、クラスタースケジューリング機能をスケジューリングノード( schedulingマイクロサービスを提供)にそれぞれ個別にデプロイできます。これにより、これら2つの関数はPDのルーティング機能から分離され、PDノードはメタデータのルーティングサービスに集中できます。

注記:

モード切り替え中は、PD サービスが数分間利用できなくなります。

通常モードからマイクロサービスモードに切り替える

PD マイクロサービスが有効になっていないクラスターの場合は、次のように PD マイクロサービス モードに切り替えて、TSO ノード (IP アドレス10.0.1.8 ) とスケジューリング ノード (IP アドレス10.0.1.9 ) を追加できます。

  1. scale-out.ymlファイルにスケールアウト トポロジ構成を追加します。

    vi scale-out.yml

    以下は設定例です。

    tso_servers: - host: 10.0.1.8 port: 3379 scheduling_servers: - host: 10.0.1.9 port: 3379
  2. クラスター構成を変更し、クラスターを PD マイクロサービス モードに切り替えます。

    tiup cluster edit-config <cluster-name>

    pd_mode: msglobal加算します:

    global: user: tidb ssh_port: 22 listen_host: 0.0.0.0 deploy_dir: /tidb-deploy data_dir: /tidb-data os: linux arch: amd64 systemd_mode: system pd_mode: ms
  3. PD ノード構成のローリング アップデートを実行します。

    tiup cluster reload <cluster-name> -R pd

    注記:

    前のreloadコマンドを実行した後、PD タイムスタンプ割り当てサービスは利用できなくなりますが、次のステップのscale-outコマンドの実行が完了すると再び利用できるようになります。

  4. scale-outコマンドを実行して PD マイクロサービス ノードを追加します。

    tiup cluster scale-out <cluster-name> scale-out.yml

マイクロサービスモードから通常モードに切り替える

PD マイクロサービスが有効になっているクラスター (IP アドレス10.0.1.8に TSO ノードがあり、IP アドレス10.0.1.9にスケジューリング ノードがあると想定) の場合は、次のように非マイクロサービス モードに切り替えることができます。

  1. クラスター構成を変更し、クラスターを非マイクロサービス モードに切り替えます。

    tiup cluster edit-config <cluster-name>

    globalからpd_mode: ms削除します:

    global: user: tidb ssh_port: 22 listen_host: 0.0.0.0 deploy_dir: /tidb-deploy data_dir: /tidb-data os: linux arch: amd64 systemd_mode: system
  2. scale-inコマンドを実行して、すべての PD マイクロサービス ノードを削除します。

    tiup cluster scale-in <cluster-name> --node 10.0.1.8:3379,10.0.1.9:3379

    注記:

    前のscale-inコマンドを実行した後、PD タイムスタンプ割り当てサービスは利用できなくなりますが、次のステップのreloadコマンドの実行が完了すると再び利用できるようになります。

  3. PD ノード構成のローリング アップデートを実行します。

    tiup cluster reload <cluster-name> -R pd

このページは役に立ちましたか?