地理的に分散した導入トポロジ

このドキュメントでは、2 つの都市にある 3 つのデータ センター (DC) の一般的なアーキテクチャを例に挙げ、地理的に分散された展開アーキテクチャと主要な構成を紹介します。この例で使用されている都市は、上海 ( shaと呼ばれます) と北京 ( bjaおよびbjbと呼ばれます) です。

トポロジ情報

実例カウント物理マシンの構成BJ IPコンフィグレーション
TiDB516Vコア 32GB*110.0.1.1
10.0.1.2
10.0.1.3
10.0.1.4
10.0.1.5デフォルトのポート
グローバルディレクトリ構成
PD54Vコア8GB*110.0.1.6
10.0.1.7
10.0.1.8
10.0.1.9
10.0.1.10デフォルトのポート
グローバルディレクトリ構成
TiKV516 VCore 32GB 4TB (nvme ssd) * 110.0.1.11
10.0.1.12
10.0.1.13
10.0.1.14
10.0.1.15デフォルトのポート
グローバルディレクトリ構成
モニタリングとグラファナ14 VCore 8GB * 1 500GB (SSD)10.0.1.16デフォルトのポート
グローバルディレクトリ構成

トポロジテンプレート

上記の TiDB クラスター トポロジー ファイルの構成項目の詳細な説明については、 TiUPを使用して TiDB を展開するためのトポロジコンフィグレーションファイルを参照してください。

主要パラメータ

このセクションでは、TiDB 地理分散展開の主要なパラメーター構成について説明します。

TiKVパラメータ

  • gRPC 圧縮形式 (デフォルトではnone ):

    地理的に分散されたターゲット ノード間の gRPC パッケージの送信速度を高めるには、このパラメーターをgzipに設定します。

    server.grpc-compression-type: gzip
  • ラベル構成:

    TiKV は異なるデータセンターに展開されているため、物理マシンがダウンすると、 Raftグループはデフォルトの 5 つのレプリカのうち 3 つを失い、クラスターが使用できなくなる可能性があります。この問題に対処するには、ラベルを構成して PD のスマート スケジューリングを有効にすることができます。これにより、 Raftグループは、同じデータ センターの同じキャビネット内の同じマシン上の TiKV インスタンスに 3 つのレプリカを配置することができなくなります。

  • TiKV 構成:

    同じホストレベルのラベル情報が同じ物理マシンに構成されます。

    config: server.labels: zone: bj dc: bja rack: rack1 host: host2
  • リモート TiKV ノードが不必要なRaft選挙を開始しないようにするには、リモート TiKV ノードが選挙を開始するために必要な最小および最大ティック数を増やす必要があります。 2 つのパラメータはデフォルトで0に設定されます。

    raftstore.raft-min-election-timeout-ticks: 50 raftstore.raft-max-election-timeout-ticks: 60

注記:

raftstore.raft-min-election-timeout-ticksraftstore.raft-max-election-timeout-ticksを使用して、TiKV ノードの選択タイムアウト ティックをより大きく設定すると、そのノード上のリージョンがリーダーになる可能性が大幅に低下する可能性があります。ただし、一部の TiKV ノードがオフラインで、残りのアクティブな TiKV ノードがRaftログで遅れているような災害シナリオでは、この TiKV ノード上の選出タイムアウト ティックが大きいリージョンのみがリーダーになれます。この TiKV ノード上のリージョンは、選挙を開始する前に少なくとも「raftstore.raft-min-election-timeout-ticks」で設定された期間待機する必要があるため、クラスターへの潜在的な影響を防ぐために、これらの値を過度に大きく設定しないことをお勧めします。このようなシナリオでの可用性。

PDパラメータ

  • PD メタデータ情報には、TiKV クラスターのトポロジーが記録されます。 PD は、次の 4 つの次元でRaftグループ レプリカをスケジュールします。

    replication.location-labels: ["zone","dc","rack","host"]
  • クラスターの高可用性を確保するには、 Raftグループのレプリカの数を5に調整します。

    replication.max-replicas: 5
  • リモート TiKV RaftレプリカがLeaderとして選出されることを禁止します。

    label-property: reject-leader: - key: "dc" value: "sha"

    注記:

    TiDB 5.2 以降、 label-property構成はデフォルトではサポートされていません。レプリカ ポリシーを設定するには、 配置ルールを使用します。

ラベルとRaftグループ レプリカの数の詳細については、 トポロジーラベルごとにレプリカをスケジュールするを参照してください。

注記:

  • 構成ファイルにtidbユーザーを手動で作成する必要はありません。 TiUPクラスターコンポーネントは、ターゲット マシン上にtidbのユーザーを自動的に作成します。ユーザーをカスタマイズしたり、ユーザーと制御マシンの一貫性を保つことができます。
  • デプロイメント ディレクトリを相対パスとして構成すると、クラスターはユーザーのホーム ディレクトリにデプロイされます。

このページは役に立ちましたか?

Playground
新規
登録なしで TiDB の機能をワンストップでインタラクティブに体験できます。
製品
TiDB Cloud
TiDB
価格
PoC お問い合わせ
エコシステム
TiKV
TiFlash
OSS Insight
© 2024 PingCAP. All Rights Reserved.
Privacy Policy.