TiUPを使用して DMクラスタをデプロイ

TiUP 、TiDB 4.0 で導入されたクラスター運用および保守ツールです。TiUPは、 Golangで記述されたクラスター管理コンポーネントであるTiUP DM提供します。TiUP TiUP DMを使用すると、DM クラスターの展開、起動、停止、破棄、スケーリング、アップグレードなどの日常的な TiDB データ移行 (DM) 操作を簡単に実行し、DM クラスター パラメーターを管理できます。

TiUP は、DM v2.0 以降の DM バージョンのデプロイをサポートしています。このドキュメントでは、さまざまなトポロジの DM クラスターをデプロイする方法について説明します。

注記:

ターゲットマシンのオペレーティング システムが SELinux をサポートしている場合は、SELinux が無効になっていることを確認してください。

前提条件

DM が完全なデータ レプリケーション タスクを実行する場合、DM ワーカーは 1 つのアップストリーム データベースのみにバインドされます。DM ワーカーは最初に全量のデータをローカルにエクスポートし、次にそのデータをダウンストリーム データベースにインポートします。したがって、ワーカーのホスト スペースは、エクスポートするすべてのアップストリーム テーブルを格納するのに十分な大きさである必要があります。storageパスは、後でタスクを作成するときに指定します。

さらに、DM クラスターを展開する際には、 ハードウェアおよびソフトウェアの要件満たす必要があります。

ステップ1: 制御マシンにTiUPをインストールする

通常のユーザー アカウント (ユーザーtidbを例に挙げます) を使用して制御マシンにログインします。次のすべてのTiUPインストールおよびクラスター管理操作は、ユーザーtidbによって実行できます。

  1. 次のコマンドを実行してTiUPをインストールします。

    curl --proto '=https' --tlsv1.2 -sSf https://tiup-mirrors.pingcap.com/install.sh | sh

    インストール後、 ~/.bashrc PATH にTiUPを追加するように変更されているため、これを使用するには新しいターミナルを開くか、グローバル環境変数source ~/.bashrcを再宣言する必要があります。

  2. TiUP DMコンポーネントをインストールします:

    tiup install dm dmctl

ステップ2: 初期化構成ファイルを編集する

意図したクラスター トポロジに応じて、クラスター初期化構成ファイルを手動で作成および編集する必要があります。

設定ファイルテンプレートに従って、YAML 構成ファイル (たとえば、名前がtopology.yaml ) を作成する必要があります。その他のシナリオでは、それに応じて構成を編集します。

コマンドtiup dm template > topology.yamlを使用すると、構成ファイル テンプレートをすばやく生成できます。

3 つの DM マスター、3 つの DM ワーカー、および 1 つの監視コンポーネントインスタンスをデプロイする構成は次のとおりです。

# The global variables apply to all other components in the configuration. If one specific value is missing in the component instance, the corresponding global variable serves as the default value. global: user: "tidb" ssh_port: 22 deploy_dir: "/dm-deploy" data_dir: "/dm-data" server_configs: master: log-level: info # rpc-timeout: "30s" # rpc-rate-limit: 10.0 # rpc-rate-burst: 40 worker: log-level: info master_servers: - host: 10.0.1.11 name: master1 ssh_port: 22 port: 8261 # peer_port: 8291 # deploy_dir: "/dm-deploy/dm-master-8261" # data_dir: "/dm-data/dm-master-8261" # log_dir: "/dm-deploy/dm-master-8261/log" # numa_node: "0,1" # The following configs are used to overwrite the `server_configs.master` values. config: log-level: info # rpc-timeout: "30s" # rpc-rate-limit: 10.0 # rpc-rate-burst: 40 - host: 10.0.1.18 name: master2 ssh_port: 22 port: 8261 - host: 10.0.1.19 name: master3 ssh_port: 22 port: 8261 # If you do not need to ensure high availability of the DM cluster, deploy only one DM-master node, and the number of deployed DM-worker nodes must be no less than the number of upstream MySQL/MariaDB instances to be migrated. # To ensure high availability of the DM cluster, it is recommended to deploy three DM-master nodes, and the number of deployed DM-worker nodes must exceed the number of upstream MySQL/MariaDB instances to be migrated (for example, the number of DM-worker nodes is two more than the number of upstream instances). worker_servers: - host: 10.0.1.12 ssh_port: 22 port: 8262 # deploy_dir: "/dm-deploy/dm-worker-8262" # log_dir: "/dm-deploy/dm-worker-8262/log" # numa_node: "0,1" # The following configs are used to overwrite the `server_configs.worker` values. config: log-level: info - host: 10.0.1.19 ssh_port: 22 port: 8262 monitoring_servers: - host: 10.0.1.13 ssh_port: 22 port: 9090 # deploy_dir: "/tidb-deploy/prometheus-8249" # data_dir: "/tidb-data/prometheus-8249" # log_dir: "/tidb-deploy/prometheus-8249/log" grafana_servers: - host: 10.0.1.14 port: 3000 # deploy_dir: /tidb-deploy/grafana-3000 alertmanager_servers: - host: 10.0.1.15 ssh_port: 22 web_port: 9093 # cluster_port: 9094 # deploy_dir: "/tidb-deploy/alertmanager-9093" # data_dir: "/tidb-data/alertmanager-9093" # log_dir: "/tidb-deploy/alertmanager-9093/log"

注記:

  • 1 つのホストで DM ワーカーをあまり多く実行することは推奨されません。各 DM ワーカーには、少なくとも 2 コアの CPU と 4 GiB のメモリを割り当てる必要があります。

  • 次のコンポーネント間のポートが相互接続されていることを確認します。

    • DM マスター ノードのうちpeer_port (デフォルトでは8291 ) が相互接続されています。
    • 各 DM マスター ノードは、すべての DM ワーカー ノードのうちのportに接続できます (デフォルトでは8262 )。
    • 各 DM ワーカー ノードは、すべての DM マスター ノードのうちのportに接続できます (デフォルトでは8261 )。
    • TiUPノードは、すべての DM マスター ノードのうちport (デフォルトでは8261 ) に接続できます。
    • TiUPノードは、すべての DM ワーカー ノードのうちport (デフォルトでは8262 ) に接続できます。

master_servers.host.configパラメータの詳細についてはマスターパラメータ worker_servers.host.config参照してください。5 パラメータの詳細についてはワーカーパラメータを参照してください。

ステップ3: デプロイメントコマンドを実行する

注記:

TiUPを使用して TiDB をデプロイする場合、セキュリティ認証に秘密鍵または対話型パスワードを使用できます。

  • 秘密鍵を使用する場合は、 -iまたは--identity_fileを通じて鍵のパスを指定できます。
  • パスワードを使用する場合は、 -pフラグを追加してパスワード対話ウィンドウに入ります。
  • ターゲット マシンへのパスワードなしのログインが構成されている場合、認証は必要ありません。
tiup dm deploy ${name} ${version} ./topology.yaml -u ${ssh_user} [-p] [-i /home/root/.ssh/gcp_rsa]

このステップで使用されるパラメータは次のとおりです。

パラメータ説明
${name}DM クラスターの名前 (例: dm-test)
${version}DM クラスターのバージョン。 tiup list dm-master実行すると、サポートされている他のバージョンを確認できます。
./topology.yamlトポロジ構成ファイルのパス。
-uまたは--userクラスターの展開を完了するには、root ユーザーまたは ssh および sudo権限を持つ他のユーザー アカウントとしてターゲット マシンにログインします。
-pまたは--passwordターゲット ホストのパスワード。指定すると、パスワード認証が使用されます。
-iまたは--identity_fileSSH ID ファイルのパス。指定すると、公開キー認証が使用されます (デフォルトは "/root/.ssh/id_rsa")。

出力ログの最後にDeployed cluster `dm-test` successfully表示されます。これは、デプロイメントが成功したことを示します。

ステップ4: TiUPによって管理されているクラスターを確認する

tiup dm list

TiUP は複数の DM クラスターの管理をサポートしています。上記のコマンドは、名前、デプロイメント ユーザー、バージョン、秘密鍵情報など、現在TiUPによって管理されているすべてのクラスターの情報を出力します。

Name User Version Path PrivateKey ---- ---- ------- ---- ---------- dm-test tidb ${version} /root/.tiup/storage/dm/clusters/dm-test /root/.tiup/storage/dm/clusters/dm-test/ssh/id_rsa

ステップ5: 展開されたDMクラスタのステータスを確認する

dm-testクラスターのステータスを確認するには、次のコマンドを実行します。

tiup dm display dm-test

予想される出力には、インスタンス ID、ロール、ホスト、リスニング ポート、ステータス (クラスターはまだ起動されていないため、ステータスはDown inactive )、およびディレクトリ情報が含まれます。

ステップ6: DMクラスターを起動する

tiup dm start dm-test

出力ログにStarted cluster `dm-test` successfully含まれていれば、起動は成功です。

ステップ7: DMクラスターの実行ステータスを確認する

TiUPを使用して DM クラスターのステータスを確認します。

tiup dm display dm-test

出力のStatusUp場合、クラスターの状態は正常です。

ステップ 8: dmctl を使用して移行タスクを管理する

dmctl は、DM クラスターを制御するために使用されるコマンドライン ツールです。 TiUP経由でdmctlを使用するをお勧めします。

dmctl はコマンドモードと対話モードの両方をサポートしています。詳細についてはdmctl を使用して DM クラスターを管理を参照してください。

このページは役に立ちましたか?