ハイブリッド展開トポロジ

このドキュメントでは、TiKV と TiDB のハイブリッド展開のトポロジと主要なパラメーターについて説明します。

ハイブリッド展開は通常、次のシナリオで使用されます。

導入マシンには、十分なメモリを備えた複数の CPU プロセッサが搭載されています。物理マシン リソースの使用率を向上させるために、複数のインスタンスを 1 台のマシンにデプロイできます。つまり、TiDB と TiKV の CPU リソースは、NUMA ノード バインディングによって分離されます。 PD と Prometheus は一緒にデプロイされますが、それらのデータ ディレクトリでは別のファイル システムを使用する必要があります。

トポロジー情報

実例カウント物理マシンの構成IPコンフィグレーション
TiDB632 コア 64GB10.0.1.1
10.0.1.2
10.0.1.3
CPU コアをバインドするように NUMA を構成する
PD316 仮想コア 32 GB10.0.1.4
10.0.1.5
10.0.1.6
location_labelsパラメータを設定します
TiKV632 コア 64GB10.0.1.7
10.0.1.8
10.0.1.9
  • インスタンスレベルのポートと status_port を分離します。
    2. グローバルパラメータreadpoolstorage 、およびraftstoreを設定します。
    3. インスタンスレベルのホストのラベルを構成します。
    4. CPU コアをバインドするように NUMA を構成する
  • モニタリングとグラファナ14 VCore 8GB * 1 500GB (SSD)10.0.1.10デフォルト構成

    トポロジテンプレート

    上記の TiDB クラスター トポロジー ファイルの構成項目の詳細な説明については、 TiUPを使用して TiDB を展開するためのトポロジコンフィグレーションファイルを参照してください。

    主要パラメータ

    このセクションでは、単一のマシンに複数のインスタンスをデプロイするときの主要なパラメーターを紹介します。これは主に、TiDB および TiKV の複数のインスタンスが単一のマシンにデプロイされるシナリオで使用されます。以下に示す計算方法に従って、結果を構成テンプレートに入力する必要があります。

    • TiKVの構成を最適化する

      • スレッド プールに自己適応するようにreadpoolを設定するには。 readpool.unified.max-thread-countパラメータを設定すると、 readpool.storagereadpool.coprocessorで統合スレッド プールを共有し、それぞれ自己適応スイッチを設定できます。

        • readpool.storagereadpool.coprocessorを有効にします。

          readpool.storage.use-unified-pool: true readpool.coprocessor.use-unified-pool: true
        • 計算方法:

          readpool.unified.max-thread-count = cores * 0.8 / the number of TiKV instances
      • storageCF (すべての RocksDB 列ファミリー) をメモリに自己適応するように構成するには。 storage.block-cache.capacityパラメータを設定すると、CF がメモリ使用量のバランスを自動的に調整できます。

        • 計算方法:

          storage.block-cache.capacity = (MEM_TOTAL * 0.5 / the number of TiKV instances)
      • 複数の TiKV インスタンスが同じ物理ディスクにデプロイされている場合は、TiKV 構成にcapacityパラメーターを追加します。

        raftstore.capacity = disk total capacity / the number of TiKV instances
    • ラベルのスケジュール設定

      TiKV の複数のインスタンスが 1 台のマシンにデプロイされているため、物理マシンがダウンすると、 Raftグループはデフォルトの 3 つのレプリカのうち 2 つを失い、クラスターが使用できなくなる可能性があります。この問題に対処するには、ラベルを使用して PD のスマート スケジューリングを有効にすることができます。これにより、 Raftグループが同じマシン上の複数の TiKV インスタンスに 3 つ以上のレプリカを持つことが保証されます。

      • TiKV 構成

        同じホストレベルのラベル情報が同じ物理マシンに構成されます。

        config: server.labels: host: tikv1
      • PD構成

        PD がリージョンを識別してスケジュールできるようにするには、PD のラベル タイプを構成します。

        pd: replication.location-labels: ["host"]
    • numa_nodeコアバインディング

      • インスタンス パラメータ モジュールで、対応するnuma_nodeパラメータを設定し、CPU コアの数を追加します。

      • NUMA を使用してコアをバインドする前に、numactl ツールがインストールされていることを確認し、物理マシンの CPU の情報を確認してください。その後、パラメータを設定します。

      • numa_nodeパラメータはnumactl --membind設定に対応します。

    注記:

    • 構成ファイルのテンプレートを編集するときは、必要なパラメータ、IP、ポート、およびディレクトリを変更します。
    • 各コンポーネントは、デフォルトでグローバル<deploy_dir>/<components_name>-<port> deploy_dirとして使用します。たとえば、TiDB がポート4001指定している場合、デフォルトではそのdeploy_dir/tidb-deploy/tidb-4001です。したがって、複数インスタンスのシナリオでは、デフォルト以外のポートを指定するときに、ディレクトリを再度指定する必要はありません。
    • 構成ファイルにtidbユーザーを手動で作成する必要はありません。 TiUPクラスターコンポーネントは、ターゲット マシン上にtidbのユーザーを自動的に作成します。ユーザーをカスタマイズしたり、ユーザーと制御マシンの一貫性を保つことができます。
    • デプロイメント ディレクトリを相対パスとして構成すると、クラスターはユーザーのホーム ディレクトリにデプロイされます。

    このページは役に立ちましたか?