ハイブリッド展開トポロジ

このドキュメントでは、TiKV と TiDB のハイブリッド展開のトポロジと主要なパラメータについて説明します。

ハイブリッド展開は通常、次のシナリオで使用されます。

デプロイメントマシンには、十分なメモリを備えた複数の CPU プロセッサがあります。物理マシンリソースの利用率を向上させるために、1 台のマシンに複数のインスタンスをデプロイできます。つまり、TiDB と TiKV の CPU リソースは、NUMA ノードバインディングによって分離されます。PD と Prometheus は一緒にデプロイされますが、それらのデータディレクトリは別のファイルシステムを使用する必要があります。

トポロジ情報

実例カウント物理マシン構成IPコンフィグレーション
ティビ632 VCore 64GB10.0.1.1
10.0.1.2
10.0.1.3
CPUコアをバインドするためにNUMAを構成する
PD316 VCore 32 GB10.0.1.4
10.0.1.5
10.0.1.6
location_labelsパラメータを設定する
ティクヴ632 VCore 64GB10.0.1.7
10.0.1.8
10.0.1.9
  • インスタンスレベルのポートと status_port を分離します。
    2. storageパラメータreadpool raftstore設定します。
    3. インスタンスレベルのホストのラベルを構成します。
    4. CPUコアをバインドするためにNUMAを構成する
  • モニタリングとGrafana14 VCore 8GB * 1 500GB (SSD)10.0.1.10デフォルト設定

    トポロジーテンプレート

    上記の TiDB クラスタ トポロジ ファイルの構成項目の詳細については、 TiUPを使用して TiDB をデプロイするためのトポロジコンフィグレーションファイルを参照してください。

    主なパラメータ

    このセクションでは、1 台のマシンに複数のインスタンスを展開する場合の重要なパラメータについて説明します。これは主に、1 台のマシンに TiDB と TiKV の複数のインスタンスを展開するシナリオで使用されます。以下の計算方法に従って、結果を構成テンプレートに入力する必要があります。

    • TiKVの設定を最適化する

      • readpoolスレッド プールに自己readpool.unified.max-thread-countするように設定します。3 パラメータを設定することで、 readpool.storagereadpool.coprocessorが統合スレッド プールを共有し、それぞれ自己適応スイッチを設定できます。

        • readpool.storagereadpool.coprocessor有効にする:

          readpool.storage.use-unified-pool: true readpool.coprocessor.use-unified-pool: true
        • 計算方法:

          readpool.unified.max-thread-count = cores * 0.8 / the number of TiKV instances
      • storageCF (すべての RocksDB 列ファミリ) をメモリに自己適応するように構成します。1 storage.block-cache.capacityパラメータを構成すると、CF が自動的にメモリ使用量をバランスさせることができます。

        • 計算方法:

          storage.block-cache.capacity = (MEM_TOTAL * 0.5 / the number of TiKV instances)
      • 複数の TiKV インスタンスが同じ物理ディスクにデプロイされている場合は、TiKV 構成にcapacityパラメータを追加します。

        raftstore.capacity = disk total capacity / the number of TiKV instances
    • ラベルスケジュール設定

      1 台のマシンに複数の TiKV インスタンスがデプロイされているため、物理マシンがダウンすると、 Raftグループはデフォルトの 3 つのレプリカのうち 2 つを失い、クラスターが使用できなくなる可能性があります。この問題に対処するには、ラベルを使用して PD のスマート スケジューリングを有効にします。これにより、 Raftグループが同じマシン上の複数の TiKV インスタンスに 2 つ以上のレプリカを持つようになります。

      • TiKVの構成

        同じ物理マシンに対して同じホストレベルのラベル情報が構成されています。

        config: server.labels: host: tikv1
      • PD構成

        PD がリージョンを識別してスケジュールできるようにするには、PD のラベル タイプを構成します。

        pd: replication.location-labels: ["host"]
    • numa_nodeコアバインディング

      • インスタンスパラメータモジュールで、対応するパラメータnuma_nodeを設定し、CPU コアの数を追加します。

      • NUMA を使用してコアをバインドする前に、numactl ツールがインストールされていることを確認し、物理マシンの CPU の情報を確認します。その後、パラメータを設定します。

      • numa_nodeパラメータはnumactl --membind構成に対応します。

    注記:

    • 構成ファイル テンプレートを編集するときは、必要なパラメーター、IP、ポート、およびディレクトリを変更します。
    • 各コンポーネントは、デフォルトでグローバル<deploy_dir>/<components_name>-<port> deploy_dirとして使用します。たとえば、TiDB が4001ポートを指定した場合、デフォルトではdeploy_dir/tidb-deploy/tidb-4001になります。したがって、マルチインスタンス シナリオでは、デフォルト以外のポートを指定するときに、ディレクトリを再度指定する必要はありません。
    • 構成ファイルでtidbユーザーを手動で作成する必要はありません。TiUP クラスターコンポーネントは、ターゲット マシンにtidbユーザーを自動的に作成します。ユーザーをカスタマイズすることも、ユーザーをコントロール マシンと一致させることもできます。
    • デプロイメント ディレクトリを相対パスとして構成すると、クラスターはユーザーのホーム ディレクトリにデプロイされます。

    このページは役に立ちましたか?