TiUPを使用してDMクラスターをデプロイする

TiUPは、TiDB4.0で導入されたクラスタの運用および保守ツールです。 TiUPは、Golangで記述されたクラスタ管理コンポーネントであるTiUP DMを提供します。 TiUP DMを使用すると、DMクラスターの展開、開始、停止、破棄、スケーリング、アップグレードなど、毎日のTiDBデータ移行(DM)操作を簡単に実行し、DMクラスタパラメーターを管理できクラスタ。

TiUPは、DMv2.0以降のDMバージョンのデプロイをサポートします。このドキュメントでは、さまざまなトポロジのDMクラスターを展開する方法を紹介します。

ノート:

ターゲットマシンのオペレーティングシステムがSELinuxをサポートしている場合は、SELinuxが無効になっていることを確認してください。

前提条件

DMが完全なデータレプリケーションタスクを実行する場合、DMワーカーは1つのアップストリームデータベースのみにバインドされます。 DMワーカーは、最初に全量のデータをローカルにエクスポートし、次にデータをダウンストリームデータベースにインポートします。したがって、ワーカーのホストスペースは、エクスポートするすべてのアップストリームテーブルを格納するのに十分な大きさである必要があります。ストレージパスは、後でタスクを作成するときに指定されます。

さらに、DMクラスタをデプロイするときにハードウェアとソフトウェアの要件を満たす必要があります。

ステップ1:制御マシンにTiUPをインストールします

通常のユーザーアカウントを使用してコントロールマシンにログインします(例としてtidb人のユーザーを取り上げます)。以下のすべてのTiUPインストールおよびクラスタ管理操作は、 tidbのユーザーが実行できます。

  1. 次のコマンドを実行して、TiUPをインストールします。

    curl --proto '=https' --tlsv1.2 -sSf https://tiup-mirrors.pingcap.com/install.sh | sh

    インストール後、 ~/.bashrcはPATHにTiUPを追加するように変更されているため、新しいターミナルを開くか、グローバル環境変数source ~/.bashrcを再宣言して使用する必要があります。

  2. TiUPDMコンポーネントをインストールします。

    tiup install dm dmctl

ステップ2:初期化構成ファイルを編集する

目的のクラスタトポロジに従って、クラスタ初期化構成ファイルを手動で作成および編集する必要があります。

構成ファイルテンプレートに従ってYAML構成ファイル(たとえばtopology.yamlという名前)を作成する必要があります。他のシナリオでは、それに応じて構成を編集します。

コマンドtiup dm template > topology.yamlを使用すると、構成ファイルテンプレートをすばやく生成できます。

3つのDMマスター、3つのDMワーカー、および1つの監視コンポーネントインスタンスをデプロイする構成は次のとおりです。

# The global variables apply to all other components in the configuration. If one specific value is missing in the component instance, the corresponding global variable serves as the default value. global: user: "tidb" ssh_port: 22 deploy_dir: "/dm-deploy" data_dir: "/dm-data" server_configs: master: log-level: info # rpc-timeout: "30s" # rpc-rate-limit: 10.0 # rpc-rate-burst: 40 worker: log-level: info master_servers: - host: 10.0.1.11 name: master1 ssh_port: 22 port: 8261 # peer_port: 8291 # deploy_dir: "/dm-deploy/dm-master-8261" # data_dir: "/dm-data/dm-master-8261" # log_dir: "/dm-deploy/dm-master-8261/log" # numa_node: "0,1" # The following configs are used to overwrite the `server_configs.master` values. config: log-level: info # rpc-timeout: "30s" # rpc-rate-limit: 10.0 # rpc-rate-burst: 40 - host: 10.0.1.18 name: master2 ssh_port: 22 port: 8261 - host: 10.0.1.19 name: master3 ssh_port: 22 port: 8261 # If you do not need to ensure high availability of the DM cluster, deploy only one DM-master node, and the number of deployed DM-worker nodes must be no less than the number of upstream MySQL/MariaDB instances to be migrated. # To ensure high availability of the DM cluster, it is recommended to deploy three DM-master nodes, and the number of deployed DM-worker nodes must exceed the number of upstream MySQL/MariaDB instances to be migrated (for example, the number of DM-worker nodes is two more than the number of upstream instances). worker_servers: - host: 10.0.1.12 ssh_port: 22 port: 8262 # deploy_dir: "/dm-deploy/dm-worker-8262" # log_dir: "/dm-deploy/dm-worker-8262/log" # numa_node: "0,1" # The following configs are used to overwrite the `server_configs.worker` values. config: log-level: info - host: 10.0.1.19 ssh_port: 22 port: 8262 monitoring_servers: - host: 10.0.1.13 ssh_port: 22 port: 9090 # deploy_dir: "/tidb-deploy/prometheus-8249" # data_dir: "/tidb-data/prometheus-8249" # log_dir: "/tidb-deploy/prometheus-8249/log" grafana_servers: - host: 10.0.1.14 port: 3000 # deploy_dir: /tidb-deploy/grafana-3000 alertmanager_servers: - host: 10.0.1.15 ssh_port: 22 web_port: 9093 # cluster_port: 9094 # deploy_dir: "/tidb-deploy/alertmanager-9093" # data_dir: "/tidb-data/alertmanager-9093" # log_dir: "/tidb-deploy/alertmanager-9093/log"

ノート:

  • 1つのホストであまりにも多くのDMワーカーを実行することはお勧めしません。各DMワーカーには、少なくとも2つのコアCPUと4つのGiBメモリを割り当てる必要があります。

  • 次のコンポーネント間のポートが相互接続されていることを確認してください。

    • DMマスターノード間のpeer_port (デフォルトでは8291 )は相互接続されています。
    • 各DMマスターノードは、すべてのDMワーカーノードのportつ(デフォルトでは8262 )に接続できます。
    • 各DM-workerノードは、すべてのDM-masterノードのportつ(デフォルトでは8261 )に接続できます。
    • TiUPノードは、すべてのDMマスターノードのportつ(デフォルトでは8261 )に接続できます。
    • TiUPノードは、すべてのDMワーカーノードのportつ(デフォルトでは8262 )に接続できます。

master_servers.host.configつのパラメーターの説明については、 マスターパラメーターを参照してください。 worker_servers.host.configのパラメーターの説明については、 ワーカーパラメータを参照してください。

手順3:展開コマンドを実行する

ノート:

TiUPを使用してTiDBを展開する場合、セキュリティ認証に秘密鍵または対話型パスワードを使用できます。

  • 秘密鍵を使用する場合は、 -iまたは--identity_fileを介して鍵のパスを指定できます。
  • パスワードを使用する場合は、 -pフラグを追加して、パスワード操作ウィンドウに入ります。
  • ターゲットマシンへのパスワードなしのログインが設定されている場合、認証は必要ありません。
tiup dm deploy ${name} ${version} ./topology.yaml -u ${ssh_user} [-p] [-i /home/root/.ssh/gcp_rsa]

このステップで使用されるパラメーターは次のとおりです。

パラメータ説明
${name}DMクラスタの名前。例:dm-test
${version}DMクラスタのバージョン。 tiup list dm-masterを実行すると、サポートされている他のバージョンを確認できます。
./topology.yamlトポロジー構成ファイルのパス。
-uまたは--userrootユーザーまたはsshおよびsudo権限を持つ他のユーザーアカウントとしてターゲットマシンにログインし、クラスタの展開を完了します。
-pまたは--passwordターゲットホストのパスワード。指定した場合、パスワード認証が使用されます。
-iまたは--identity_fileSSHIDファイルのパス。指定した場合、公開鍵認証が使用されます(デフォルトは「/root/.ssh/id_rsa」)。

出力ログの最後に、 Deployed cluster `dm-test` successfullyが表示されます。これは、展開が成功したことを示します。

ステップ4:TiUPによって管理されているクラスターを確認します

tiup dm list

TiUPは、複数のDMクラスターの管理をサポートしています。上記のコマンドは、名前、展開ユーザー、バージョン、秘密鍵情報など、現在TiUPによって管理されているすべてのクラスターの情報を出力します。

Name User Version Path PrivateKey ---- ---- ------- ---- ---------- dm-test tidb ${version} /root/.tiup/storage/dm/clusters/dm-test /root/.tiup/storage/dm/clusters/dm-test/ssh/id_rsa

手順5:デプロイされたDMクラスタのステータスを確認する

dm-testのクラスタのステータスを確認するには、次のコマンドを実行します。

tiup dm display dm-test

期待される出力には、インスタンスID、ロール、ホスト、リスニングポート、ステータス(クラスタがまだ開始されていないため、ステータスはDown )、およびディレクトリ情報が含まれinactive

ステップ6:TiDBクラスタを開始します

tiup dm start dm-test

出力ログにStarted cluster `dm-test` successfullyが含まれている場合、開始は成功しています。

手順7:TiDBクラスタの実行ステータスを確認する

TiUPを使用してDMクラスタのステータスを確認します。

tiup dm display dm-test

出力でStatusUpの場合、クラスタのステータスは正常です。

ステップ8:dmctlを使用した移行タスクの管理

dmctlは、DMクラスターを制御するために使用されるコマンドラインツールです。 TiUP経由でdmctlを使用するをお勧めします。

dmctlは、コマンドモードとインタラクティブモードの両方をサポートします。詳細については、 dmctlを使用してDMクラスターを管理するを参照してください。

このページは役に立ちましたか?

Playground
新規
登録なしで TiDB の機能をワンストップでインタラクティブに体験できます。
製品
TiDB Cloud
TiDB
価格
PoC お問い合わせ
エコシステム
TiKV
TiFlash
OSS Insight
© 2024 PingCAP. All Rights Reserved.
Privacy Policy.