TiUPを使用した DMクラスタ展開用のトポロジコンフィグレーションファイル

TiDB データ マイグレーション (DM) クラスターをデプロイまたはスケーリングするには、クラスター トポロジーを記述するトポロジー ファイル ( サンプル ) を提供する必要があります。

同様に、クラスター トポロジを変更するには、トポロジ ファイルを変更する必要があります。違いは、クラスターのデプロイ後は、トポロジー ファイル内のフィールドの一部のみを変更できることです。このドキュメントでは、トポロジ ファイルの各セクションと各セクションの各フィールドを紹介します。

ファイル構造

TiUPを使用した DM クラスター展開のトポロジ構成ファイルには、次のセクションが含まれる場合があります。

  • グローバル : クラスターのグローバル構成。一部の構成項目はクラスターのデフォルト値を使用し、インスタンスごとに個別に構成できます。
  • サーバー構成 : コンポーネントのグローバル構成。各コンポーネントを個別に構成できます。インスタンスに同じキーを持つ構成アイテムがある場合、インスタンスの構成アイテムが有効になります。
  • マスターサーバー : DM マスター インスタンスの構成。この構成では、DMコンポーネントのマスター サービスがデプロイされるマシンを指定します。
  • ワーカーサーバー : DM ワーカー インスタンスの構成。この構成では、DMコンポーネントのワーカー サービスがデプロイされるマシンを指定します。
  • 監視サーバー : Prometheus インスタンスがデプロイされるマシンを指定します。 TiUP は複数の Prometheus インスタンスのデプロイをサポートしていますが、最初のインスタンスのみが使用されます。
  • グラファナサーバー : Grafana インスタンスの構成。構成では、Grafana インスタンスがデプロイされるマシンを指定します。
  • アラートマネージャー_サーバー : Alertemanager インスタンスの構成。この構成では、Alertmanager インスタンスがデプロイされるマシンを指定します。

global

globalセクションはクラスターのグローバル構成に対応し、次のフィールドがあります。

  • user : デプロイされたクラスターを開始するユーザー。デフォルト値は「tidb」です。 <user>フィールドで指定されたユーザーがターゲット マシンに存在しない場合、 TiUP は自動的にユーザーの作成を試みます。
  • group : ユーザーが自動作成されたときにユーザーが所属するユーザーグループ。デフォルト値は<user>フィールドと同じです。指定したグループが存在しない場合は、自動的に作成されます。
  • ssh_port : 操作のためにターゲット マシンに接続するための SSH ポート。デフォルト値は「22」です。
  • deploy_dir : 各コンポーネントのデプロイメント ディレクトリ。デフォルト値は「デプロイ」です。施工ルールは以下の通りです。
    • 絶対パスdeploy_dirがインスタンス レベルで設定されている場合、実際のデプロイメント ディレクトリはインスタンスに設定されているdeploy_dirなります。
    • 各インスタンスについて、 deploy_dirを構成しない場合、デフォルト値は相対パス<component-name>-<component-port>です。
    • global.deploy_dirが絶対パスに設定されている場合、コンポーネントは<global.deploy_dir>/<instance.deploy_dir>ディレクトリにデプロイされます。
    • global.deploy_dirが相対パスに設定されている場合、コンポーネントは/home/<global.user>/<global.deploy_dir>/<instance.deploy_dir>ディレクトリにデプロイされます。
  • data_dir : データディレクトリ。デフォルト値は「データ」です。施工ルールは以下の通りです。
    • 絶対パスdata_dirがインスタンス レベルで設定されている場合、実際のデータ ディレクトリはインスタンスに設定されているdata_dirです。
    • 各インスタンスでdata_dirが構成されていない場合、デフォルト値は<global.data_dir>です。
    • 相対パスにdata_dirを設定した場合、コンポーネントデータは<deploy_dir>/<data_dir>に格納されます。 <deploy_dir>の構築ルールについては、 deploy_dirフィールドの構築ルールを参照してください。
  • log_dir : データディレクトリ。デフォルト値は「ログ」です。施工ルールは以下の通りです。
    • 絶対パスlog_dirがインスタンス レベルで設定されている場合、実際のログ ディレクトリはインスタンスに設定されているlog_dirなります。
    • 各インスタンスについて、ユーザーがlog_dir構成しない場合、デフォルト値は<global.log_dir>です。
    • log_dirが相対パスの場合、コンポーネントログは<deploy_dir>/<log_dir>に保存されます。 <deploy_dir>の構築ルールについては、 deploy_dirフィールドの構築ルールを参照してください。
  • os : ターゲット マシンのオペレーティング システム。このフィールドは、ターゲット マシンにプッシュされるコンポーネントにどのオペレーティング システムを適応させるかを制御します。デフォルト値は「linux」です。
  • arch : ターゲット マシンの CPUアーキテクチャ。このフィールドは、ターゲット マシンにプッシュされるバイナリ パッケージをどのプラットフォームに適応させるかを制御します。サポートされている値は「amd64」と「arm64」です。デフォルト値は「amd64」です。
  • resource_control : ランタイムリソース制御。このフィールドのすべての設定は、systemd のサービス ファイルに書き込まれます。デフォルトでは制限はありません。制御できるリソースは以下のとおりです。
    • memory_limit : 実行時の最大メモリを制限します。例えば「2G」は、最大2GBのメモリを使用できることを意味します。
    • cpu_quota : 実行時の最大 CPU 使用率を制限します。たとえば、「200%」です。
    • io_read_bandwidth_max : ディスク読み取りの最大 I/O 帯域幅を制限します。たとえば、 "/dev/disk/by-path/pci-0000:00:1f.2-scsi-0:0:0:0:0 100M"
    • io_write_bandwidth_max : ディスク書き込みの最大 I/O 帯域幅を制限します。たとえば、 "/dev/disk/by-path/pci-0000:00:1f.2-scsi-0:0:0:0:0 100M"
    • limit_core : コア ダンプのサイズを制御します。

global構成例:

global: user: "tidb" resource_control: memory_limit: "2G"

この例では、クラスターの起動にtidbユーザーが使用され、実行中の各コンポーネントのメモリが最大 2 GB に制限されることが構成で指定されています。

server_configs

server_configsは、サービスを構成し、各コンポーネントの構成ファイルを生成するために使用されます。 globalセクションと同様に、 server_configsセクションの設定は、インスタンス内の同じキーを持つ設定によって上書きできます。 server_configsは主に次のフィールドが含まれます。

server_configs構成例は次のとおりです。

server_configs: master: log-level: info rpc-timeout: "30s" rpc-rate-limit: 10.0 rpc-rate-burst: 40 worker: log-level: info

master_servers

master_servers 、DMコンポーネントのマスター ノードがデプロイされるマシンを指定します。各マシンのサービス構成を指定することもできます。 master_serversは配列です。各配列要素には次のフィールドが含まれます。

  • host : デプロイ先のマシンを指定します。フィールド値は IP アドレスであり、必須です。
  • ssh_port : 操作のためにターゲット マシンに接続する SSH ポートを指定します。フィールドが指定されていない場合は、 globalセクションのssh_portが使用されます。
  • name : DM マスター インスタンスの名前を指定します。名前は異なるインスタンスに対して一意である必要があります。そうしないと、クラスターをデプロイできません。
  • port : DM マスターがサービスを提供するポートを指定します。デフォルト値は「8261」です。
  • peer_port : DM マスター間の通信用のポートを指定します。デフォルト値は「8291」です。
  • deploy_dir : デプロイメントディレクトリを指定します。フィールドが指定されていないか、相対ディレクトリとして指定されている場合、デプロイメント ディレクトリはglobalセクションのdeploy_dir設定に従って生成されます。
  • data_dir : データディレクトリを指定します。フィールドが指定されていないか、相対ディレクトリとして指定されている場合、データ ディレクトリはセクションglobaldata_dir設定に従って生成されます。
  • log_dir : ログディレクトリを指定します。フィールドが指定されていないか、相対ディレクトリとして指定されている場合、ログ ディレクトリはセクションgloballog_dir設定に従って生成されます。
  • numa_node : NUMA ポリシーをインスタンスに割り当てます。このフィールドを指定する前に、ターゲット マシンにヌマクトルインストールされていることを確認する必要があります。このフィールドが指定されている場合、 cpubind および membind ポリシーはヌマクトルを使用して割り当てられます。このフィールドは文字列型です。フィールド値は、「0,1」などの NUMA ノードの ID です。
  • config : このフィールドの設定ルールは、セクションserver_configsmasterと同じです。 configを指定した場合、 configの設定はserver_configsmasterの設定とマージされ (2 つのフィールドが重複する場合、このフィールドの設定が有効になります)、設定ファイルが生成され、設定ファイルで指定されたマシンに配布されます。 hostフィールド。
  • os : hostフィールドで指定されたマシンのオペレーティング システム。フィールドが指定されていない場合、デフォルト値はglobalセクションで設定されたos値です。
  • arch : hostフィールドで指定されたマシンのアーキテクチャ。フィールドが指定されていない場合、デフォルト値はglobalセクションで設定されたarch値です。
  • resource_control : このサービスのリソース制御。このフィールドを指定した場合、このフィールドの設定はglobalセクションのresource_controlの設定とマージされ(2つのフィールドが重複している場合は、このフィールドの設定が有効になります)、systemdの設定ファイルが生成および配布されます。 hostフィールドで指定されたマシンに送信します。このフィールドの設定ルールは、セクションglobalresource_controlと同じです。
  • v1_source_path : v1.0.x からアップグレードする場合、このフィールドで V1 ソースの構成ファイルが配置されているディレクトリを指定できます。

master_serversセクションでは、展開の完了後に次のフィールドを変更できません。

  • host
  • name
  • port
  • peer_port
  • deploy_dir
  • data_dir
  • log_dir
  • arch
  • os
  • v1_source_path

master_servers構成例は次のとおりです。

master_servers: - host: 10.0.1.11 name: master1 ssh_port: 22 port: 8261 peer_port: 8291 deploy_dir: "/dm-deploy/dm-master-8261" data_dir: "/dm-data/dm-master-8261" log_dir: "/dm-deploy/dm-master-8261/log" numa_node: "0,1" # The following configs are used to overwrite the `server_configs.master` values. config: log-level: info rpc-timeout: "30s" rpc-rate-limit: 10.0 rpc-rate-burst: 40 - host: 10.0.1.18 name: master2 - host: 10.0.1.19 name: master3

worker_servers

worker_servers 、DMコンポーネントのマスター ノードがデプロイされるマシンを指定します。各マシンのサービス構成を指定することもできます。 worker_serversは配列です。各配列要素には次のフィールドが含まれます。

  • host : デプロイ先のマシンを指定します。フィールド値は IP アドレスであり、必須です。
  • ssh_port : 操作のためにターゲット マシンに接続する SSH ポートを指定します。フィールドが指定されていない場合は、 globalセクションのssh_portが使用されます。
  • name : DM ワーカー インスタンスの名前を指定します。名前は異なるインスタンスに対して一意である必要があります。そうしないと、クラスターをデプロイできません。
  • port : DM ワーカーがサービスを提供するポートを指定します。デフォルト値は「8262」です。
  • deploy_dir : デプロイメントディレクトリを指定します。フィールドが指定されていないか、相対ディレクトリとして指定されている場合、デプロイメント ディレクトリはglobalセクションのdeploy_dir設定に従って生成されます。
  • data_dir : データディレクトリを指定します。フィールドが指定されていないか、相対ディレクトリとして指定されている場合、データ ディレクトリはセクションglobaldata_dir設定に従って生成されます。
  • log_dir : ログディレクトリを指定します。フィールドが指定されていないか、相対ディレクトリとして指定されている場合、ログ ディレクトリはセクションgloballog_dir設定に従って生成されます。
  • numa_node : NUMA ポリシーをインスタンスに割り当てます。このフィールドを指定する前に、ターゲット マシンにヌマクトルインストールされていることを確認する必要があります。このフィールドが指定されている場合、 cpubind および membind ポリシーはヌマクトルを使用して割り当てられます。このフィールドは文字列型です。フィールド値は、「0,1」などの NUMA ノードの ID です。
  • config : このフィールドの設定ルールは、セクションserver_configsworkerと同じです。 configを指定した場合、 configの設定はserver_configsworkerの設定とマージされ (2 つのフィールドが重複する場合、このフィールドの設定が有効になります)、設定ファイルが生成され、設定ファイルで指定されたマシンに配布されます。 hostフィールド。
  • os : hostフィールドで指定されたマシンのオペレーティング システム。フィールドが指定されていない場合、デフォルト値はglobalセクションで設定されたos値です。
  • arch : hostフィールドで指定されたマシンのアーキテクチャ。フィールドが指定されていない場合、デフォルト値はglobalセクションで設定されたarch値です。
  • resource_control : このサービスのリソース制御。このフィールドを指定した場合、このフィールドの設定はglobalセクションのresource_controlの設定とマージされ(2つのフィールドが重複している場合は、このフィールドの設定が有効になります)、systemdの設定ファイルが生成および配布されます。 hostフィールドで指定されたマシンに送信します。このフィールドの設定ルールは、セクションglobalresource_controlと同じです。

worker_serversセクションでは、展開の完了後に次のフィールドを変更できません。

  • host
  • name
  • port
  • deploy_dir
  • data_dir
  • log_dir
  • arch
  • os

worker_servers構成例は次のとおりです。

worker_servers: - host: 10.0.1.12 ssh_port: 22 port: 8262 deploy_dir: "/dm-deploy/dm-worker-8262" log_dir: "/dm-deploy/dm-worker-8262/log" numa_node: "0,1" # config is used to overwrite the `server_configs.worker` values config: log-level: info - host: 10.0.1.19

monitoring_servers

monitoring_servers 、Prometheus サービスがデプロイされるマシンを指定します。マシン上のサービス構成を指定することもできます。 monitoring_serversは配列です。各配列要素には次のフィールドが含まれます。

  • host : デプロイ先のマシンを指定します。フィールド値は IP アドレスであり、必須です。
  • ssh_port : 操作のためにターゲット マシンに接続する SSH ポートを指定します。フィールドが指定されていない場合は、 globalセクションのssh_portが使用されます。
  • port : Prometheus がサービスを提供するポートを指定します。デフォルト値は「9090」です。
  • deploy_dir : デプロイメントディレクトリを指定します。フィールドが指定されていないか、相対ディレクトリとして指定されている場合、デプロイメント ディレクトリはglobalセクションのdeploy_dir設定に従って生成されます。
  • data_dir : データディレクトリを指定します。フィールドが指定されていないか、相対ディレクトリとして指定されている場合、データ ディレクトリはセクションglobaldata_dir設定に従って生成されます。
  • log_dir : ログディレクトリを指定します。フィールドが指定されていないか、相対ディレクトリとして指定されている場合、ログ ディレクトリはセクションgloballog_dir設定に従って生成されます。
  • numa_node : NUMA ポリシーをインスタンスに割り当てます。このフィールドを指定する前に、ターゲット マシンにヌマクトルインストールされていることを確認する必要があります。このフィールドが指定されている場合、 cpubind および membind ポリシーはヌマクトルを使用して割り当てられます。このフィールドは文字列型です。フィールド値は、「0,1」などの NUMA ノードの ID です。
  • storage_retention : Prometheus 監視データの保持時間を指定します。デフォルト値は「15d」です。
  • rule_dir : *.rules.ymlつのファイル全体が配置されているローカル ディレクトリを指定します。指定されたディレクトリ内のファイルは、クラスター構成の初期化フェーズ中に Prometheus ルールとしてターゲット マシンに送信されます。
  • remote_config : Prometheus データのリモートへの書き込み、またはリモートからのデータの読み取りをサポートします。このフィールドには 2 つの構成があります。
    • remote_write : Prometheus のドキュメント&#x3C;remote_write>を参照してください。
    • remote_read : Prometheus のドキュメント&#x3C;remote_read>を参照してください。
  • external_alertmanagers : external_alertmanagersフィールドが設定されている場合、Prometheus はクラスターの外部にある Alertmanager に設定動作を警告します。このフィールドは配列であり、その各要素は外部 Alertmanager であり、 hostフィールドとweb_portフィールドで構成されます。
  • os : hostフィールドで指定されたマシンのオペレーティング システム。フィールドが指定されていない場合、デフォルト値はglobalセクションで設定されたos値です。
  • arch : hostフィールドで指定されたマシンのアーキテクチャ。フィールドが指定されていない場合、デフォルト値はglobalセクションで設定されたarch値です。
  • resource_control : このサービスのリソース制御。このフィールドを指定した場合、このフィールドの設定はglobalセクションのresource_controlの設定とマージされ(2つのフィールドが重複している場合は、このフィールドの設定が有効になります)、systemdの設定ファイルが生成および配布されます。 hostフィールドで指定されたマシンに送信します。このフィールドの設定ルールは、セクションglobalresource_controlと同じです。

monitoring_serversセクションでは、展開の完了後に次のフィールドを変更できません。

  • host
  • port
  • deploy_dir
  • data_dir
  • log_dir
  • arch
  • os

monitoring_servers構成例は次のとおりです。

monitoring_servers: - host: 10.0.1.11 rule_dir: /local/rule/dir remote_config: remote_write: - queue_config: batch_send_deadline: 5m capacity: 100000 max_samples_per_send: 10000 max_shards: 300 url: http://127.0.0.1:8003/write remote_read: - url: http://127.0.0.1:8003/read\ external_alertmanagers: - host: 10.1.1.1 web_port: 9093 - host: 10.1.1.2 web_port: 9094

grafana_servers

grafana_servers 、Grafana サービスがデプロイされるマシンを指定します。マシン上のサービス構成を指定することもできます。 grafana_serversは配列です。各配列要素には次のフィールドが含まれます。

  • host : デプロイ先のマシンを指定します。フィールド値は IP アドレスであり、必須です。
  • ssh_port : 操作のためにターゲット マシンに接続する SSH ポートを指定します。フィールドが指定されていない場合は、 globalセクションのssh_portが使用されます。
  • port : Grafana がサービスを提供するポートを指定します。デフォルト値は「3000」です。
  • deploy_dir : デプロイメントディレクトリを指定します。フィールドが指定されていないか、相対ディレクトリとして指定されている場合、デプロイメント ディレクトリはセクションglobaldeploy_dir設定に従って生成されます。
  • os : hostフィールドで指定されたマシンのオペレーティング システム。フィールドが指定されていない場合、デフォルト値はglobalセクションで設定されたos値です。
  • arch : hostフィールドで指定されたマシンのアーキテクチャ。フィールドが指定されていない場合、デフォルト値はglobalセクションで設定されたarch値です。
  • username : Grafana ログイン画面のユーザー名を指定します。
  • password : Grafana の対応するパスワードを指定します。
  • dashboard_dir : dashboard(*.json)つのファイル全体が配置されているローカル ディレクトリを指定します。指定されたディレクトリ内のファイルは、クラスター構成の初期化フェーズ中に Grafana ダッシュボードとしてターゲット マシンに送信されます。
  • resource_control : このサービスのリソース制御。このフィールドを指定した場合、このフィールドの設定はglobalセクションのresource_controlの設定とマージされ(2つのフィールドが重複している場合は、このフィールドの設定が有効になります)、systemdの設定ファイルが生成および配布されます。 hostフィールドで指定されたマシンに送信します。このフィールドの設定ルールは、セクションglobalresource_controlと同じです。

注記:

grafana_serversdashboard_dirフィールドが構成されている場合は、 tiup cluster renameコマンドを実行してクラスターの名前を変更した後、次の操作を実行する必要があります。

  1. ローカルdashboardsディレクトリで、 datasourceフィールドの値を新しいクラスター名に更新します ( datasourceはクラスター名にちなんで命名されます)。
  2. tiup cluster reload -R grafanaコマンドを実行します。

grafana_serversでは、デプロイメントの完了後に次のフィールドを変更することはできません。

  • host
  • port
  • deploy_dir
  • arch
  • os

grafana_servers構成例は次のとおりです。

grafana_servers: - host: 10.0.1.11 dashboard_dir: /local/dashboard/dir

alertmanager_servers

alertmanager_servers Alertmanager サービスが展開されるマシンを指定します。各マシンのサービス構成を指定することもできます。 alertmanager_serversは配列です。各配列要素には次のフィールドが含まれます。

  • host : デプロイ先のマシンを指定します。フィールド値は IP アドレスであり、必須です。
  • ssh_port : 操作のためにターゲット マシンに接続する SSH ポートを指定します。フィールドが指定されていない場合は、 globalセクションのssh_portが使用されます。
  • web_port : Alertmanager が Web サービスを提供するポートを指定します。デフォルト値は「9093」です。
  • cluster_port : 1 つのアラートマネージャーと他のアラートマネージャー間の通信ポートを指定します。デフォルト値は「9094」です。
  • deploy_dir : デプロイメントディレクトリを指定します。フィールドが指定されていないか、相対ディレクトリとして指定されている場合、デプロイメント ディレクトリはセクションglobaldeploy_dir設定に従って生成されます。
  • data_dir : データディレクトリを指定します。フィールドが指定されていないか、相対ディレクトリとして指定されている場合、データ ディレクトリはセクションglobaldata_dir設定に従って生成されます。
  • log_dir : ログディレクトリを指定します。フィールドが指定されていないか、相対ディレクトリとして指定されている場合、ログ ディレクトリはセクションgloballog_dir設定に従って生成されます。
  • numa_node : NUMA ポリシーをインスタンスに割り当てます。このフィールドを指定する前に、ターゲット マシンにヌマクトルインストールされていることを確認する必要があります。このフィールドが指定されている場合、 cpubind および membind ポリシーはヌマクトルを使用して割り当てられます。このフィールドは文字列型です。フィールド値は、「0,1」などの NUMA ノードの ID です。
  • config_file : ローカルファイルを指定します。指定されたファイルは、クラスター構成の初期化フェーズ中に、Alertmanager の構成としてターゲット マシンに送信されます。
  • os : hostフィールドで指定されたマシンのオペレーティング システム。フィールドが指定されていない場合、デフォルト値はglobalセクションで設定されたos値です。
  • arch : hostフィールドで指定されたマシンのアーキテクチャ。フィールドが指定されていない場合、デフォルト値はglobalセクションで設定されたarch値です。
  • resource_control : このサービスのリソース制御。このフィールドを指定した場合、このフィールドの設定はglobalセクションのresource_controlの設定とマージされ(2つのフィールドが重複している場合は、このフィールドの設定が有効になります)、systemdの設定ファイルが生成および配布されます。 hostフィールドで指定されたマシンに送信します。このフィールドの設定ルールは、セクションglobalresource_controlと同じです。

alertmanager_serversでは、デプロイメントの完了後に次のフィールドを変更することはできません。

  • host
  • web_port
  • cluster_port
  • deploy_dir
  • data_dir
  • log_dir
  • arch
  • os

alertmanager_servers構成例は次のとおりです。

alertmanager_servers: - host: 10.0.1.11 config_file: /local/config/file - host: 10.0.1.12 config_file: /local/config/file

このページは役に立ちましたか?

Playground
新規
登録なしで TiDB の機能をワンストップでインタラクティブに体験できます。
製品
TiDB Cloud
TiDB
価格
PoC お問い合わせ
エコシステム
TiKV
TiFlash
OSS Insight
© 2024 PingCAP. All Rights Reserved.
Privacy Policy.