地理的に分散した展開トポロジ

このドキュメントでは、2 つの都市にある 3 つのデータ センター (DC) の一般的なアーキテクチャを例に、地理的に分散された展開アーキテクチャと主要な構成を紹介します。この例で使用される都市は、上海 ( shaと呼びます) と北京 ( bjabjbと呼びます) です。

トポロジ情報

実例カウント物理マシン構成BJ IPコンフィグレーション
ティビ516 VCore 32GB * 110.0.1.1
10.0.1.2
10.0.1.3
10.0.1.4
10.0.1.5デフォルトポート
グローバルディレクトリ構成
PD54 VCore 8GB * 110.0.1.6
10.0.1.7
10.0.1.8
10.0.1.9
10.0.1.10デフォルトポート
グローバルディレクトリ構成
ティクヴ516 VCore 32GB 4TB (nvme ssd) * 110.0.1.11
10.0.1.12
10.0.1.13
10.0.1.14
10.0.1.15デフォルトポート
グローバルディレクトリ構成
モニタリングとGrafana14 VCore 8GB * 1 500GB (SSD)10.0.1.16デフォルトポート
グローバルディレクトリ構成

トポロジーテンプレート

上記の TiDB クラスタ トポロジ ファイルの構成項目の詳細については、 TiUPを使用して TiDB をデプロイするためのトポロジコンフィグレーションファイルを参照してください。

主なパラメータ

このセクションでは、TiDB の地理的に分散されたデプロイメントの主要なパラメータ構成について説明します。

TiKVパラメータ

  • gRPC 圧縮形式 (デフォルトはnone ):

    地理的に分散されたターゲット ノード間の gRPC パッケージの送信速度を上げるには、このパラメータをgzipに設定します。

    server.grpc-compression-type: gzip
  • ラベル構成:

    TiKV は異なるデータ センターにまたがって展開されるため、物理マシンがダウンすると、 Raftグループはデフォルトの 5 つのレプリカのうち 3 つを失い、クラスターが使用できなくなる可能性があります。この問題に対処するには、PD のスマート スケジューリングを有効にするようにラベルを構成します。これにより、 Raftグループが、同じデータ センターの同じキャビネット内の同じマシン上の TiKV インスタンスに 3 つのレプリカを配置できないようにします。

  • TiKV 構成:

    同じ物理マシンに対して同じホストレベルのラベル情報が構成されます。

    config: server.labels: zone: bj dc: bja rack: rack1 host: host2
  • リモート TiKV ノードが不要なRaft選出を開始するのを防ぐには、リモート TiKV ノードが選出を開始するために必要なティックの最小数と最大数を増やす必要があります。デフォルトでは、この 2 つのパラメータは0に設定されています。

    raftstore.raft-min-election-timeout-ticks: 50 raftstore.raft-max-election-timeout-ticks: 60

注記:

raftstore.raft-min-election-timeout-ticksraftstore.raft-max-election-timeout-ticksを使用して TiKV ノードの選出タイムアウト ティックを大きく設定すると、そのノードの領域がリーダーになる可能性が大幅に低下します。ただし、一部の TiKV ノードがオフラインで、残りのアクティブな TiKV ノードがRaftログで遅れているという災害シナリオでは、選出タイムアウト ティックが大きいこの TiKV ノードの領域のみがリーダーになることができます。この TiKV ノードの領域は、選出を開始する前に少なくとも `raftstore.raft-min-election-timeout-ticks' で設定された期間待機する必要があるため、このようなシナリオでクラスターの可用性に潜在的な影響が生じないように、これらの値を過度に大きく設定しないようにすることをお勧めします。

PDパラメータ

  • PD メタデータ情報には、TiKV クラスターのトポロジが記録されます。PD は、次の 4 つの次元に基づいてRaftグループのレプリカをスケジュールします。

    replication.location-labels: ["zone","dc","rack","host"]
  • クラスターの高可用性を確保するには、 Raftグループのレプリカの数を5に調整します。

    replication.max-replicas: 5
  • リモート TiKVRaftレプリカがLeaderとして選出されることを禁止します。

    label-property: reject-leader: - key: "dc" value: "sha"

    注記:

    TiDB 5.2 以降、 label-property構成はデフォルトではサポートされていません。レプリカ ポリシーを設定するには、 配置ルール使用します。

ラベルとRaftグループのレプリカの数に関する詳細については、 トポロジラベルによるレプリカのスケジュール参照してください。

注記:

  • 構成ファイルでtidbユーザーを手動で作成する必要はありません。TiUP クラスターコンポーネントは、ターゲット マシンにtidbユーザーを自動的に作成します。ユーザーをカスタマイズすることも、ユーザーをコントロール マシンと一致させることもできます。
  • デプロイメント ディレクトリを相対パスとして構成すると、クラスターはユーザーのホーム ディレクトリにデプロイされます。

このページは役に立ちましたか?

Playground
登録なしで TiDB の機能をワンストップでインタラクティブに体験できます。
製品
TiDB Dedicated
TiDB Serverless
TiDB
価格
PoC お問い合わせ
エコシステム
TiKV
TiFlash
OSS Insight
© 2024 PingCAP. All Rights Reserved.
Privacy Policy.