TiUP を使用して DMクラスタを管理する

このドキュメントでは、 TiUP DMコンポーネントを使用して DM クラスターを維持する方法を紹介します。

DM クラスターをまだ展開していない場合は、手順についてTiUP を使用して DMクラスタをデプロイするを参照できます。

ノート:

  • 次のコンポーネント間のポートが相互接続されていることを確認してください
    • DM-master ノードのpeer_port (デフォルトでは8291 ) は相互接続されています。
    • 各 DM-master ノードは、すべての DM-worker ノードのportつ (デフォルトでは8262 ) に接続できます。
    • 各 DM-worker ノードは、すべての DM-master ノードのportつ (デフォルトでは8261 ) に接続できます。
    • TiUP ノードは、すべての DM マスター ノードのportつ (デフォルトでは8261 ) に接続できます。
    • TiUP ノードは、すべての DM-worker ノードのport (デフォルトでは8262 ) に接続できます。

TiUP DMコンポーネントのヘルプ情報については、次のコマンドを実行してください。

tiup dm --help
Deploy a DM cluster for production Usage: tiup dm [flags] tiup dm [command] Available Commands: deploy Deploy a DM cluster for production start Start a DM cluster stop Stop a DM cluster restart Restart a DM cluster list List all clusters destroy Destroy a specified DM cluster audit Show audit log of cluster operation exec Run shell command on host in the dm cluster edit-config Edit DM cluster config display Display information of a DM cluster reload Reload a DM cluster's config and restart if needed upgrade Upgrade a specified DM cluster patch Replace the remote package with a specified package and restart the service scale-out Scale out a DM cluster scale-in Scale in a DM cluster import Import an exist DM 1.0 cluster from dm-ansible and re-deploy 2.0 version help Help about any command Flags: -h, --help help for tiup-dm --native-ssh Use the native SSH client installed on local system instead of the build-in one. --ssh-timeout int Timeout in seconds to connect host via SSH, ignored for operations that don't need an SSH connection. (default 5) -v, --version version for tiup-dm --wait-timeout int Timeout in seconds to wait for an operation to complete, ignored for operations that don't fit. (default 60) -y, --yes Skip all confirmations and assumes 'yes'

クラスタ リストをビューする

クラスターが正常にデプロイされたら、次のコマンドを実行してクラスター リストを表示します。

tiup dm list
Name User Version Path PrivateKey ---- ---- ------- ---- ---------- prod-cluster tidb ${version} /root/.tiup/storage/dm/clusters/test /root/.tiup/storage/dm/clusters/test/ssh/id_rsa

クラスターを開始する

クラスターが正常にデプロイされたら、次のコマンドを実行してクラスターを開始します。

tiup dm start prod-cluster

クラスターの名前を忘れた場合は、 tiup dm listを実行してクラスター リストを表示します。

クラスターの状態を確認する

TiUP は、クラスター内の各コンポーネントのステータスを表示するためのtiup dm displayのコマンドを提供します。このコマンドを使用すると、コンポーネントのステータスを確認するために各マシンにログインする必要がなくなります。コマンドの使用法は次のとおりです。

tiup dm display prod-cluster
dm Cluster: prod-cluster dm Version: ${version} ID Role Host Ports OS/Arch Status Data Dir Deploy Dir -- ---- ---- ----- ------- ------ -------- ---------- 172.19.0.101:9093 alertmanager 172.19.0.101 9093/9094 linux/x86_64 Up /home/tidb/data/alertmanager-9093 /home/tidb/deploy/alertmanager-9093 172.19.0.101:8261 dm-master 172.19.0.101 8261/8291 linux/x86_64 Healthy|L /home/tidb/data/dm-master-8261 /home/tidb/deploy/dm-master-8261 172.19.0.102:8261 dm-master 172.19.0.102 8261/8291 linux/x86_64 Healthy /home/tidb/data/dm-master-8261 /home/tidb/deploy/dm-master-8261 172.19.0.103:8261 dm-master 172.19.0.103 8261/8291 linux/x86_64 Healthy /home/tidb/data/dm-master-8261 /home/tidb/deploy/dm-master-8261 172.19.0.101:8262 dm-worker 172.19.0.101 8262 linux/x86_64 Free /home/tidb/data/dm-worker-8262 /home/tidb/deploy/dm-worker-8262 172.19.0.102:8262 dm-worker 172.19.0.102 8262 linux/x86_64 Free /home/tidb/data/dm-worker-8262 /home/tidb/deploy/dm-worker-8262 172.19.0.103:8262 dm-worker 172.19.0.103 8262 linux/x86_64 Free /home/tidb/data/dm-worker-8262 /home/tidb/deploy/dm-worker-8262 172.19.0.101:3000 grafana 172.19.0.101 3000 linux/x86_64 Up - /home/tidb/deploy/grafana-3000 172.19.0.101:9090 prometheus 172.19.0.101 9090 linux/x86_64 Up /home/tidb/data/prometheus-9090 /home/tidb/deploy/prometheus-9090

Status列は、サービスが正常に実行されているかどうかを示すためにUpまたはDownを使用します。

DM-master コンポーネントの場合、ステータスに|Lが追加される場合があります。これは、DM-master ノードがリーダーであることを示します。 DM-worker コンポーネントの場合、 Freeは現在の DM-worker ノードがアップストリームにバインドされていないことを示します。

クラスターでのスケーリング

クラスターでのスケーリングとは、一部のノードをオフラインにすることを意味します。この操作は、指定されたノードをクラスターから削除し、残りのデータ ファイルを削除します。

クラスターをスケールインすると、DM-master および DM-worker コンポーネントでの DM 操作は次の順序で実行されます。

  1. コンポーネント プロセスを停止します。
  2. DM-master の API を呼び出してmemberを削除します。
  3. ノードに関連するデータ ファイルをクリーンアップします。

スケールイン コマンドの基本的な使用法:

tiup dm scale-in <cluster-name> -N <node-id>

このコマンドを使用するには、クラスター名とノード ID の少なくとも 2 つの引数を指定する必要があります。ノード ID は、前のセクションのtiup dm displayコマンドを使用して取得できます。

たとえば、 172.16.5.140で DM-worker ノードをスケーリングするには (DM-master でのスケーリングと同様)、次のコマンドを実行します。

tiup dm scale-in prod-cluster -N 172.16.5.140:8262

クラスターをスケールアウトする

スケールアウト操作には、デプロイと同様の内部ロジックがありますTiUP DMコンポーネントは、まずノードの SSH 接続を確認し、ターゲット ノードに必要なディレクトリを作成してから、デプロイ操作を実行し、ノード サービスを開始します。

たとえば、 prod-clusterクラスター内の DM-worker ノードをスケールアウトするには、次の手順を実行します (DM-master のスケールアウトにも同様の手順があります)。

  1. scale.yamlファイルを作成し、新しいワーカー ノードの情報を追加します。

    ノート:

    既存のノードではなく、新しいノードの説明のみを含むトポロジ ファイルを作成する必要があります。その他の構成項目 (デプロイメント・ディレクトリーなど) については、このTiUP 構成パラメーターの例を参照してください。

    --- worker_servers: - host: 172.16.5.140
  2. スケールアウト操作を実行します。 TiUP DMは、 scale.yamlで説明したポート、ディレクトリ、およびその他の情報に従って、対応するノードをクラスターに追加します。

    tiup dm scale-out prod-cluster scale.yaml

    コマンドの実行後、 tiup dm display prod-clusterを実行すると、スケールアウトされたクラスターの状態を確認できます。

ローリング アップグレード

ノート:

v2.0.5 以降、dmctl サポートデータ ソースのエクスポートとインポート、およびクラスターのタスクConfiguration / コンフィグレーション

アップグレードする前に、 config exportを使用してクラスターの構成ファイルをエクスポートできます。アップグレード後、以前のバージョンにダウングレードする必要がある場合は、最初に以前のクラスターを再デプロイしてから、 config importを使用して以前の構成ファイルをインポートできます。

v2.0.5 より前のクラスターの場合、dmctl v2.0.5 以降を使用して、データ ソースとタスク構成ファイルをエクスポートおよびインポートできます。

v2.0.2以降のクラスタでは、現在、Relay Workerに関連する設定の自動インポートはサポートされていません。 start-relayのコマンドを使用して、手動でリレーログを開始を実行できます。

ローリング アップグレード プロセスは、アプリケーションに対して可能な限り透過的に行われ、ビジネスに影響を与えません。操作はノードによって異なります。

アップグレード コマンド

tiup dm upgradeコマンドを実行して、DM クラスターをアップグレードできます。たとえば、次のコマンドはクラスターを${version}にアップグレードします。このコマンドを実行する前に、 ${version}を必要なバージョンに変更します。

tiup dm upgrade prod-cluster ${version}

構成の更新

コンポーネント構成を動的に更新する場合、 TiUP DMコンポーネントは各クラスターの現在の構成を保存します。この構成を編集するには、 tiup dm edit-config <cluster-name>コマンドを実行します。例えば:

tiup dm edit-config prod-cluster

TiUP DMは、vi エディターで構成ファイルを開きます。他のエディターを使用する場合は、 EDITOR環境変数を使用して、 export EDITOR=nanoなどのエディターをカスタマイズします。ファイルを編集したら、変更を保存します。新しい構成をクラスターに適用するには、次のコマンドを実行します。

tiup dm reload prod-cluster

このコマンドは、構成をターゲット マシンに送信し、クラスターを再起動して構成を有効にします。

コンポーネントの更新

通常のアップグレードでは、 upgradeコマンドを使用できます。ただし、デバッグなどの一部のシナリオでは、現在実行中のコンポーネントを一時パッケージに置き換える必要がある場合があります。これを実現するには、 patchコマンドを使用します。

tiup dm patch --help
Replace the remote package with a specified package and restart the service Usage: tiup dm patch [flags] Flags: -h, --help help for patch -N, --node strings Specify the nodes --overwrite Use this package in the future scale-out operations -R, --role strings Specify the role --transfer-timeout int Timeout in seconds when transferring dm-master leaders (default 300) Global Flags: --native-ssh Use the native SSH client installed on local system instead of the build-in one. --ssh-timeout int Timeout in seconds to connect host via SSH, ignored for operations that don't need an SSH connection. (default 5) --wait-timeout int Timeout in seconds to wait for an operation to complete, ignored for operations that don't fit. (default 60) -y, --yes Skip all confirmations and assumes 'yes'

DM-master ホットフィックス パッケージが/tmp/dm-master-hotfix.tar.gzにあり、クラスター内のすべての DM-master パッケージを置き換える場合は、次のコマンドを実行します。

tiup dm patch prod-cluster /tmp/dm-master-hotfix.tar.gz -R dm-master

クラスター内の 1 つの DM-master パッケージのみを置き換えることもできます。

tiup dm patch prod-cluster /tmp/dm--hotfix.tar.gz -N 172.16.4.5:8261

DM-Ansible を使用してデプロイされた DM 1.0 クラスターをインポートしてアップグレードする

ノート:

  • TiUP は、DM 1.0 クラスターでの DM ポータル コンポーネントのインポートをサポートしていません。
  • インポートする前に、元のクラスターを停止する必要があります。
  • 2.0 にアップグレードする必要があるタスクに対してstop-taskを実行しないでください。
  • TiUP は、v2.0.0-rc.2 以降のバージョンの DM クラスターへのインポートのみをサポートします。
  • importコマンドは、DM 1.0 クラスターから新しい DM 2.0 クラスターにデータをインポートするために使用されます。 DM 移行タスクを既存の DM 2.0 クラスターにインポートする必要がある場合は、 TiDB データ移行を v1.0.x から v2.0+ に手動でアップグレードするを参照してください。
  • 一部のコンポーネントのデプロイメント ディレクトリは、元のクラスタのものとは異なります。 displayコマンドを実行して詳細を表示できます。
  • インポートする前にtiup update --self && tiup update dmを実行して、 TiUP DMコンポーネントが最新バージョンであることを確認します。
  • インポート後、クラスタには DM-master ノードが 1 つだけ存在します。 DM-master をスケールアウトするには、 クラスターをスケールアウトするを参照してください。

TiUP がリリースされる前は、DM-Ansible を使用して DM クラスターをデプロイすることがよくありました。 DM-Ansible によってデプロイされた DM 1.0 クラスターを TiUP が引き継ぐことができるようにするには、 importコマンドを使用します。

たとえば、DM Ansible を使用してデプロイされたクラスターをインポートするには、次のようにします。

tiup dm import --dir=/path/to/dm-ansible --cluster-version ${version}

tiup list dm-masterを実行して、TiUP でサポートされている最新のクラスター バージョンを表示します。

importコマンドを使用するプロセスは次のとおりです。

  1. TiUP は、DM-Ansible を使用して以前にデプロイされた DM クラスターに基づいて、トポロジー ファイルtopology.ymlを生成します。
  2. トポロジ ファイルが生成されていることを確認したら、それを使用して v2.0 以降のバージョンの DM クラスターをデプロイできます。

デプロイが完了したら、 tiup dm startコマンドを実行してクラスターを開始し、DM カーネルのアップグレード プロセスを開始できます。

操作ログをビュー

操作ログを表示するには、 auditコマンドを使用します。 auditコマンドの使用法は次のとおりです。

Usage: tiup dm audit [audit-id] [flags] Flags: -h, --help help for audit

[audit-id]引数が指定されていない場合、コマンドは実行されたコマンドのリストを表示します。例えば:

tiup dm audit
ID Time Command -- ---- ------- 4D5kQY 2020-08-13T05:38:19Z tiup dm display test 4D5kNv 2020-08-13T05:36:13Z tiup dm list 4D5kNr 2020-08-13T05:36:10Z tiup dm deploy -p prod-cluster ${version} ./examples/dm/minimal.yaml

最初の列はaudit-idです。特定のコマンドの実行ログを表示するには、次のようにaudit-id引数を渡します。

tiup dm audit 4D5kQY

DM クラスター内のホストでコマンドを実行する

DM クラスター内のホストでコマンドを実行するには、 execコマンドを使用します。 execコマンドの使用法は次のとおりです。

Usage: tiup dm exec <cluster-name> [flags] Flags: --command string the command run on cluster host (default "ls") -h, --help help for exec -N, --node strings Only exec on host with specified nodes -R, --role strings Only exec on host with specified roles --sudo use root permissions (default false)

たとえば、すべての DM ノードでls /tmpを実行するには、次のコマンドを実行します。

tiup dm exec prod-cluster --command='ls /tmp'

dmctl

TiUP は、DM クラスタ コントローラを統合しますdmctl

次のコマンドを実行して、dmctl を使用します。

tiup dmctl [args]

dmctl のバージョンを指定します。このコマンドを実行する前に、 ${version}を必要なバージョンに変更します。

tiup dmctl:${version} [args]

ソースを追加する前の dmctl コマンドはdmctl --master-addr master1:8261 operate-source create /tmp/source1.ymlです。 dmctl が TiUP に統合された後のコマンドは次のとおりです。

tiup dmctl --master-addr master1:8261 operate-source create /tmp/source1.yml

システムのネイティブ SSH クライアントを使用してクラスターに接続する

クラスタ マシンで実行される上記のすべての操作は、TiUP に組み込まれている SSH クライアントを使用してクラスタに接続し、コマンドを実行します。ただし、シナリオによっては、制御マシン システムにネイティブな SSH クライアントを使用して、このようなクラスター操作を実行する必要がある場合もあります。例えば:

  • 認証に SSH プラグインを使用するには
  • カスタマイズされた SSH クライアントを使用するには

次に、 --native-sshコマンドライン フラグを使用して、システム ネイティブのコマンドライン ツールを有効にできます。

  • クラスターをデプロイする: tiup dm deploy <cluster-name> <version> <topo> --native-ssh
  • クラスターを開始する: tiup dm start <cluster-name> --native-ssh
  • クラスターのアップグレード: tiup dm upgrade ... --native-ssh

上記のすべてのクラスター操作コマンドに--native-sshを追加して、システムのネイティブ SSH クライアントを使用できます。

すべてのコマンドでこのようなフラグを追加することを避けるために、 TIUP_NATIVE_SSHシステム変数を使用して、ローカル SSH クライアントを使用するかどうかを指定できます。

export TIUP_NATIVE_SSH=true # or export TIUP_NATIVE_SSH=1 # or export TIUP_NATIVE_SSH=enable

この環境変数と--native-sshを同時に指定すると、 --native-sshが優先されます。

ノート:

クラスター展開のプロセス中に、接続にパスワードを使用する必要がある場合、またはキー ファイルでpassphraseが構成されている場合は、制御マシンにsshpassがインストールされていることを確認する必要があります。それ以外の場合、タイムアウト エラーが報告されます。

Playground
新規
登録なしで TiDB の機能をワンストップでインタラクティブに体験できます。
製品
TiDB Cloud
TiDB
価格
PoC お問い合わせ
エコシステム
TiKV
TiFlash
OSS Insight
© 2024 PingCAP. All Rights Reserved.
Privacy Policy.