地理的に分散した展開トポロジ
このドキュメントでは、2 つの都市にある 3 つのデータ センター (DC) の一般的なアーキテクチャを例に、地理的に分散された展開アーキテクチャと主要な構成を紹介します。この例で使用される都市は、上海 ( sha
と呼びます) と北京 ( bja
とbjb
と呼びます) です。
トポロジ情報
実例 | カウント | 物理マシン構成 | BJ IP | 船 | コンフィグレーション |
---|---|---|---|---|---|
ティビ | 5 | 16 VCore 32GB * 1 | 10.0.1.1 10.0.1.2 10.0.1.3 10.0.1.4 | 10.0.1.5 | デフォルトポート グローバルディレクトリ構成 |
PD | 5 | 4 VCore 8GB * 1 | 10.0.1.6 10.0.1.7 10.0.1.8 10.0.1.9 | 10.0.1.10 | デフォルトポート グローバルディレクトリ構成 |
ティクヴ | 5 | 16 VCore 32GB 4TB (nvme ssd) * 1 | 10.0.1.11 10.0.1.12 10.0.1.13 10.0.1.14 | 10.0.1.15 | デフォルトポート グローバルディレクトリ構成 |
モニタリングとGrafana | 1 | 4 VCore 8GB * 1 500GB (SSD) | 10.0.1.16 | デフォルトポート グローバルディレクトリ構成 |
トポロジーテンプレート
上記の TiDB クラスタ トポロジ ファイルの構成項目の詳細については、 TiUP を使用して TiDB をデプロイするためのトポロジコンフィグレーションファイル参照してください。
主なパラメータ
このセクションでは、TiDB の地理的に分散されたデプロイメントの主要なパラメータ構成について説明します。
TiKVパラメータ
gRPC 圧縮形式 (デフォルトは
none
):地理的に分散されたターゲット ノード間の gRPC パッケージの送信速度を上げるには、このパラメータを
gzip
に設定します。server.grpc-compression-type: gzipラベル構成:
TiKV は異なるデータ センターにまたがって展開されるため、物理マシンがダウンすると、 Raftグループはデフォルトの 5 つのレプリカのうち 3 つを失い、クラスターが使用できなくなる可能性があります。この問題に対処するには、PD のスマート スケジューリングを有効にするようにラベルを構成します。これにより、 Raftグループでは、同じデータ センターの同じキャビネット内の同じマシン上の TiKV インスタンスに 3 つのレプリカを配置できないようになります。
TiKV 構成:
同じ物理マシンに対して同じホストレベルのラベル情報が構成されます。
config: server.labels: zone: bj dc: bja rack: rack1 host: host2リモート TiKV ノードが不要なRaft選出を開始するのを防ぐには、リモート TiKV ノードが選出を開始するために必要なティックの最小数と最大数を増やす必要があります。デフォルトでは、この 2 つのパラメータは
0
に設定されています。raftstore.raft-min-election-timeout-ticks: 50 raftstore.raft-max-election-timeout-ticks: 60
注記:
raftstore.raft-min-election-timeout-ticks
とraftstore.raft-max-election-timeout-ticks
使用して TiKV ノードの選出タイムアウト ティックを大きく設定すると、そのノードの領域がリーダーになる可能性が大幅に低下します。ただし、一部の TiKV ノードがオフラインになり、残りのアクティブな TiKV ノードがRaftログで遅れをとる災害シナリオでは、選出タイムアウト ティックが大きいこの TiKV ノードの領域のみがリーダーになることができます。この TiKV ノードの領域は、選出を開始する前に少なくとも `raftstore.raft-min-election-timeout-ticks' で設定された期間待機する必要があるため、このようなシナリオでクラスターの可用性に潜在的な影響が生じないように、これらの値を過度に大きく設定しないようにすることをお勧めします。
PDパラメータ
PD メタデータ情報には、TiKV クラスターのトポロジが記録されます。PD は、次の 4 つの次元に基づいてRaftグループのレプリカをスケジュールします。
replication.location-labels: ["zone","dc","rack","host"]クラスターの高可用性を確保するには、 Raftグループのレプリカの数を
5
に調整します。replication.max-replicas: 5リモート TiKVRaftレプリカがLeaderとして選出されることを禁止します。
label-property: reject-leader: - key: "dc" value: "sha"注記:
TiDB 5.2 以降、
label-property
構成はデフォルトではサポートされていません。レプリカ ポリシーを設定するには、 配置ルールを使用します。
ラベルとRaftグループのレプリカの数に関する詳細については、 トポロジラベルによるレプリカのスケジュール参照してください。
注記:
- 構成ファイルで
tidb
ユーザーを手動で作成する必要はありません。TiUPTiUPコンポーネントは、ターゲット マシンにtidb
ユーザーを自動的に作成します。ユーザーをカスタマイズすることも、ユーザーをコントロール マシンと一致させることもできます。- デプロイメント ディレクトリを相対パスとして構成すると、クラスターはユーザーのホーム ディレクトリにデプロイされます。