TiUPを使用して DMクラスタをオフラインでデプロイ

このドキュメントでは、 TiUPを使用して DM クラスターをオフラインで展開する方法について説明します。

ステップ 1: TiUPオフラインコンポーネントパッケージを準備する

  • TiUPパッケージ マネージャーをオンラインでインストールします。

    1. TiUPツールをインストールします。

      curl --proto '=https' --tlsv1.2 -sSf https://tiup-mirrors.pingcap.com/install.sh | sh
    2. グローバル環境変数を再宣言します。

      source .bash_profile
    3. TiUPがインストールされているかどうかを確認します。

      which tiup
  • TiUPを使ってミラーを引く

    1. インターネットにアクセスできるマシン上で必要なコンポーネントをプルします。

      # You can modify ${version} to the needed version. tiup mirror clone tidb-dm-${version}-linux-amd64 --os=linux --arch=amd64 \ --dm-master=${version} --dm-worker=${version} --dmctl=${version} \ --alertmanager=v0.17.0 --grafana=v4.0.3 --prometheus=v4.0.3 \ --tiup=v$(tiup --version|grep 'tiup'|awk -F ' ' '{print $1}') --dm=v$(tiup --version|grep 'tiup'|awk -F ' ' '{print $1}')

      上記のコマンドは、現在のディレクトリにtidb-dm-${version}-linux-amd64という名前のディレクトリを作成します。このディレクトリには、 TiUPによって管理されるコンポーネントパッケージが含まれています。

    2. tarコマンドを使用してコンポーネントパッケージをパックし、そのパッケージを分離環境の制御マシンに送信します。

      tar czvf tidb-dm-${version}-linux-amd64.tar.gz tidb-dm-${version}-linux-amd64

      tidb-dm-${version}-linux-amd64.tar.gz独立したオフライン環境パッケージです。

ステップ 2: オフラインTiUPコンポーネントをデプロイ

パッケージをターゲット クラスターの制御マシンに送信した後、次のコマンドを実行してTiUPコンポーネントをインストールします。

# You can modify ${version} to the needed version. tar xzvf tidb-dm-${version}-linux-amd64.tar.gz sh tidb-dm-${version}-linux-amd64/local_install.sh source /home/tidb/.bash_profile

local_install.shスクリプトはtiup mirror set tidb-dm-${version}-linux-amd64コマンドを自動的に実行して、現在のミラー アドレスをtidb-dm-${version}-linux-amd64に設定します。

ミラーを別のディレクトリに切り替えるには、 tiup mirror set <mirror-dir>コマンドを手動で実行します。公式ミラーに戻したい場合は、 tiup mirror set https://tiup-mirrors.pingcap.comを実行します。

ステップ 3: 初期化構成ファイルを編集する

さまざまなクラスター トポロジに応じてクラスター初期化構成ファイルを編集する必要があります。

完全な構成テンプレートについては、 TiUP設定パラメータ テンプレートを参照してください。 topology.yaml設定ファイルを作成します。その他の組み合わせシナリオでは、テンプレートに従って必要に応じて構成ファイルを編集します。

3 つの DM マスター、3 つの DM ワーカー、および 1 つの監視コンポーネントインスタンスをデプロイする構成は次のとおりです。

--- global: user: "tidb" ssh_port: 22 deploy_dir: "/home/tidb/dm/deploy" data_dir: "/home/tidb/dm/data" # arch: "amd64" master_servers: - host: 172.19.0.101 - host: 172.19.0.102 - host: 172.19.0.103 worker_servers: - host: 172.19.0.101 - host: 172.19.0.102 - host: 172.19.0.103 monitoring_servers: - host: 172.19.0.101 grafana_servers: - host: 172.19.0.101 alertmanager_servers: - host: 172.19.0.101

注記:

  • DM クラスターの高可用性を確保する必要がない場合は、DM マスター ノードを 1 つだけデプロイし、デプロイされた DM ワーカー ノードの数が、移行する上流の MySQL/MariaDB インスタンスの数以上である必要があります。

  • DM クラスターの高可用性を確保するには、3 つの DM マスター ノードをデプロイすることをお勧めします。また、デプロイされた DM ワーカー ノードの数は、移行する上流の MySQL/MariaDB インスタンスの数 (たとえば、 DM ワーカー ノードの数は上流インスタンスの数より 2 つ多くなります)。

  • グローバルに有効にするパラメータについては、設定ファイルのserver_configsセクションで対応するコンポーネントのパラメータを設定します。

  • 特定のノードで有効にするパラメータについては、このノードのconfigでこれらのパラメータを設定します。

  • 構成のサブカテゴリを示すには.を使用します ( log.slow-thresholdなど)。その他の形式については、 TiUP設定テンプレートを参照してください。

  • パラメーターの詳細については、 マスターconfig.toml.exampleおよびワーカーのconfig.toml.exampleを参照してください。

  • 次のコンポーネント間のポートが相互接続されていることを確認してください。

    • DM マスター ノードのうちのpeer_port (デフォルトでは8291 ) は相互接続されています。
    • 各 DM マスター ノードは、すべての DM ワーカー ノードのうちport (デフォルトでは8262 ) に接続できます。
    • 各 DM ワーカー ノードは、すべての DM マスター ノードのうちport (デフォルトでは8261 ) に接続できます。
    • TiUPノードは、すべての DM マスター ノードのうちのportに接続できます (デフォルトでは8261 )。
    • TiUPノードは、すべての DM ワーカー ノードのうちのportに接続できます (デフォルトでは8262 )。

ステップ 4: デプロイメント コマンドを実行する

注記:

TiUPを使用して DM を展開する場合、セキュリティ認証に秘密キーまたは対話型パスワードを使用できます。

  • 秘密キーを使用する場合は、 -iまたは--identity_fileでキーのパスを指定できます。
  • パスワードを使用する場合は、 -pフラグを追加してパスワード対話ウィンドウに入ります。
  • ターゲット マシンへのパスワードなしのログインが設定されている場合、認証は必要ありません。
tiup dm deploy dm-test ${version} ./topology.yaml --user root [-p] [-i /home/root/.ssh/gcp_rsa]

上記のコマンドでは次のようになります。

  • デプロイされた DM クラスターの名前はdm-testです。
  • DM クラスターのバージョンは${version}です。 tiup list dm-masterを実行すると、 TiUPでサポートされている最新バージョンを表示できます。
  • 初期化設定ファイルはtopology.yamlです。
  • --user root : rootキーを使用してターゲット マシンにログインしてクラスターのデプロイメントを完了するか、 sshおよびsudo権限を持つ他のユーザーを使用してデプロイメントを完了することもできます。
  • [-i]および[-p] : オプション。パスワードなしでターゲット マシンへのログインを設定した場合、これらのパラメータは必要ありません。そうでない場合は、2 つのパラメータのいずれかを選択します。 [-i]ターゲット マシンにアクセスできるユーザーroot (または--userで指定された他のユーザー) の秘密キーです。 [-p]ユーザーのパスワードを対話的に入力するために使用されます。
  • TiUP DM は組み込み SSH クライアントを使用します。制御マシン システムにネイティブな SSH クライアントを使用する場合は、 システムのネイティブ SSH クライアントを使用してクラスターに接続するに従って設定を編集します。

出力ログの最後にはDeployed cluster `dm-test` successfullyが表示されます。これは、展開が成功したことを示します。

ステップ 5: TiUPによって管理されているクラスターを確認する

tiup dm list

TiUP は、複数の DM クラスターの管理をサポートします。上記のコマンドは、名前、デプロイメント ユーザー、バージョン、秘密キー情報など、現在TiUPによって管理されているすべてのクラスターの情報を出力します。

Name User Version Path PrivateKey ---- ---- ------- ---- ---------- dm-test tidb ${version} /root/.tiup/storage/dm/clusters/dm-test /root/.tiup/storage/dm/clusters/dm-test/ssh/id_rsa

ステップ 6: デプロイされた DM クラスターのステータスを確認する

dm-testクラスターのステータスを確認するには、次のコマンドを実行します。

tiup dm display dm-test

予期される出力には、インスタンス ID、ロール、ホスト、リスニング ポート、ステータス (クラスターがまだ起動していないため、ステータスはDown / inactive )、およびクラスターdm-testのディレクトリ情報が含まれます。

ステップ 7: クラスターを開始する

tiup dm start dm-test

出力ログにStarted cluster `dm-test` successfullyが含まれていれば、起動は成功です。

ステップ 8: クラスターの実行ステータスを確認する

TiUPを使用して DM クラスターのステータスを確認します。

tiup dm display dm-test

出力のStatusUpの場合、クラスターのステータスは正常です。

このページは役に立ちましたか?

Playground
新規
登録なしで TiDB の機能をワンストップでインタラクティブに体験できます。
製品
TiDB Cloud
TiDB
価格
PoC お問い合わせ
エコシステム
TiKV
TiFlash
OSS Insight
© 2024 PingCAP. All Rights Reserved.
Privacy Policy.