📣

TiDB Cloud Serverless が
Starter
に変わりました!このページは自動翻訳されたものです。
原文はこちらからご覧ください。

パブリッククラウドにおけるTiDBのベストプラクティス

パブリッククラウドインフラストラクチャは、TiDBの導入と管理においてますます人気の選択肢となっています。しかし、パブリッククラウドにTiDBを導入するには、パフォーマンスチューニング、コスト最適化、信頼性、スケーラビリティなど、いくつかの重要な要素を慎重に検討する必要があります。

このドキュメントでは、KV RocksDB におけるコンパクション I/O フローの削減、 Raft Engine専用ディスクの使用、AZ 間トラフィックのコスト最適化、Google Cloud ライブマイグレーションイベントの軽減、大規模クラスタにおける PDサーバーの微調整など、パブリッククラウドへの TiDB の導入に関する様々な重要なベストプラクティスを解説します。これらのベストプラクティスに従うことで、パブリッククラウドにおける TiDB 導入のパフォーマンス、コスト効率、信頼性、スケーラビリティを最大限に高めることができます。

KV RocksDB の圧縮 I/O フローを削減

TiKVのstorageエンジンであるロックスDB 、ユーザーデータの保存に使用されます。クラウドEBSのプロビジョニングされたIOスループットは通常、コスト上の理由から制限されているため、RocksDBは書き込み増幅率が高くなり、ディスクスループットがワークロードのボトルネックになる可能性があります。その結果、保留中のコンパクションバイトの総数は時間の経過とともに増加し、フロー制御がトリガーされます。これは、TiKVがフォアグラウンド書き込みフローに対応するための十分なディスク帯域幅を欠いていることを示しています。

ディスクスループットの制限によるボトルネックを軽減するには、パフォーマンスをタイタンを有効にする向上させることができます。平均行サイズが512バイト未満の場合は、Titanは適用できません。この場合、パフォーマンスをすべての圧縮レベルを上げる向上させることができます。

タイタンを有効にする

タイタンは、キーと値の分離のための高性能なロックスDBプラグインであり、大きな値が使用されるときに RocksDB での書き込み増幅を削減できます。

平均行サイズが 512 バイトより大きい場合は、次のようにmin-blob-size "512B"または"1KB"に設定し、 blob-file-compression "zstd"に設定して、Titan による圧縮 I/O フローの削減を有効にすることができます。

[rocksdb.titan] enabled = true [rocksdb.defaultcf.titan] min-blob-size = "1KB" blob-file-compression = "zstd"

注記:

Titanを有効にすると、主キーの範囲スキャンのパフォーマンスが若干低下する可能性があります。詳細については、 min-blob-sizeがパフォーマンスに与える影響参照してください。

すべての圧縮レベルを上げる

平均行サイズが 512 バイトより小さい場合は、次のようにして、デフォルトのカラムファミリーのすべての圧縮レベルを"zstd"に増やすことができます。

[rocksdb.defaultcf] compression-per-level = ["zstd", "zstd", "zstd", "zstd", "zstd", "zstd", "zstd"]

Raft Engine専用のディスクを使用する

TiKVのRaft Engine 、従来のデータベースにおける先行書き込みログ(WAL)と同様の重要な役割を果たします。最適なパフォーマンスと安定性を実現するには、パブリッククラウドにTiDBをデプロイする際に、 Raft Engine専用のディスクを割り当てることが不可欠です。次のiostat 、書き込み負荷の高いワークロードにおけるTiKVノードのI/O特性を示しています。

Device r/s rkB/s w/s wkB/s f/s aqu-sz %util sdb 1649.00 209030.67 1293.33 304644.00 13.33 5.09 48.37 sdd 1033.00 4132.00 1141.33 31685.33 571.00 0.94 100.00

デバイスsdb KV RocksDBに使用され、 sdd Raft Engineのログの復元に使用されます。5にsdd 、デバイスの1秒あたりのフラッシュ要求完了数を表すf/s値が大幅に高いことに注目してください。Raft Raft Engineでは、バッチ内の書き込みが同期としてマークされている場合、バッチリーダーは書き込み後にfdatasync()呼び出し、バッファリングされたデータがstorageにフラッシュされることを保証します。Raft Raft Engine専用のディスクを使用することで、TiKVはリクエストの平均キュー長を短縮し、最適で安定した書き込みレイテンシーを保証します。

クラウドプロバイダーによって、IOPSやMBPSなどのパフォーマンス特性が異なる様々なディスクタイプが提供されています。そのため、ワークロードに応じて適切なクラウドプロバイダー、ディスクタイプ、ディスクサイズを選択することが重要です。

パブリッククラウド上のRaft Engineに適したディスクを選択する

このセクションでは、様々なパブリッククラウド上でRaft Engineに適したディスクを選択するためのベストプラクティスについて説明します。パフォーマンス要件に応じて、2種類の推奨ディスクが用意されています。

ミドルレンジディスク

さまざまなパブリック クラウドに推奨されるミドルレンジ ディスクは次のとおりです。

  • AWSではgp3推奨されます。gp3ボリュームは、ボリュームサイズに関係なく、3000 IOPSと125 MB/秒のスループットを無料で割り当てることができ、通常はRaft Engineに十分です。

  • Google Cloudではpd-ssd推奨されています。IOPSとMBPSは割り当てられたディスクサイズによって異なります。パフォーマンス要件を満たすには、 Raft Engineに200GBを割り当てることを推奨します。Raft Raft Engineはそれほど大きな容量を必要としませんが、最適なパフォーマンスを保証します。

  • Azureではプレミアム SSD v2が推奨されます。AWS gp3と同様に、Premium SSD v2はボリュームサイズに関係なく、3000 IOPSと125 MB/秒のスループットを無料で割り当てることができ、通常はRaft Engineに十分です。

ハイエンドディスク

Raft Engineのレイテンシーをさらに低減したい場合は、ハイエンドディスクの使用を検討してください。以下は、各パブリッククラウドに推奨されるハイエンドディスクです。

  • AWSではio2が推奨されます。ディスクサイズとIOPSは、お客様の特定の要件に応じてプロビジョニングできます。

  • Google Cloud ではpd-extreme推奨されます。ディスクサイズ、IOPS、MBPS をプロビジョニングできますが、64 個以上の CPU コアを持つインスタンスでのみ利用可能です。

  • Azure ではウルトラディスクが推奨されます。ディスクサイズ、IOPS、MBPS は、お客様の特定の要件に応じてプロビジョニングできます。

例1: AWS上でソーシャルネットワークワークロードを実行する

AWS は、20 GB gp3ボリュームに対して 3000 IOPS と 125 MBPS/秒を提供します。

書き込み集中型のソーシャル ネットワーク アプリケーション ワークロードに AWS 上の専用の 20 GB gp3 Raft Engineディスクを使用すると、次のような改善が見られますが、推定コストはわずか 0.4% しか増加しません。

  • QPS(1秒あたりのクエリ数)が17.5%増加
  • 挿入文の平均レイテンシーが18.7%減少
  • 挿入ステートメントの p99レイテンシーが 45.6% 減少しました。
メトリック共有Raft Engineディスク専用Raft Engineディスク違い (%)
QPS(K/秒)8.09.417.5
平均挿入レイテンシ(ミリ秒)11.39.2-18.7
P99 挿入レイテンシ (ms)29.416.0-45.6

例 2: Azure で TPC-C/Sysbench ワークロードを実行する

Azure 上のRaft Engineに専用の 32 GB ウルトラディスク使用すると、次の改善が見られます。

  • Sysbench oltp_read_writeワークロード: QPS が 17.8% 増加し、平均レイテンシーが 15.6% 減少しました。
  • TPC-C ワークロード: QPS が 27.6% 増加し、平均レイテンシーが 23.1% 減少しました。
メトリック作業負荷共有Raft Engineディスク専用Raft Engineディスク違い (%)
QPS(K/秒)システムベンチoltp_read_write60.771.517.8
QPS(K/秒)TPC-C23.930.527.6
平均レイテンシ(ミリ秒)システムベンチoltp_read_write4.53.8-15.6
平均レイテンシ(ミリ秒)TPC-C3.93.0-23.1

例 3: TiKV マニフェストのRaft Engine用に Google Cloud に専用の pd-ssd ディスクを接続する

次の TiKV 構成例は、 TiDB Operatorによってデプロイされた Google Cloud 上のクラスタに 512 GB の追加のディスクpd-ssdを接続し、この特定のディスクにRaft Engineログを保存するようにraft-engine.dir構成する方法を示しています。

tikv: config: | [raft-engine] dir = "/var/lib/raft-pv-ssd/raft-engine" enable = true enable-log-recycle = true requests: storage: 4Ti storageClassName: pd-ssd storageVolumes: - mountPath: /var/lib/raft-pv-ssd name: raft-pv-ssd storageSize: 512Gi

AZ間ネットワークトラフィックのコストを最適化する

TiDBを複数のアベイラビリティゾーン(AZ)にまたがってデプロイすると、AZ間のデータ転送料金によってコストが増加する可能性があります。コストを最適化するには、AZ間のネットワークトラフィックを削減することが重要です。

AZ間の読み取りトラフィックを削減するには、 Follower Read機能有効にします。これにより、TiDBは同じアベイラビリティゾーン内のレプリカを優先的に選択できるようになります。この機能を有効にするには、 tidb_replica_read変数をclosest-replicasまたはclosest-adaptiveに設定します。

TiFlash MPPタスクのデータシャッフルによって発生するネットワークトラフィックを削減するため、複数のTiFlashインスタンスを同じアベイラビリティゾーン(AZ)にデプロイすることをお勧めします。v6.6.0以降では、 圧縮交換デフォルトで有効になっており、MPPデータシャッフルによって発生するネットワークトラフィックを削減します。

Google Cloud でのライブ マイグレーション メンテナンス イベントを軽減する

Google Cloud のライブマイグレーション機能は、ダウンタイムを発生させることなく、ホスト間でVMをシームレスに移行できます。しかし、こうした移行イベントは頻度は低いものの、TiDB クラスタで実行されているVMを含むVMのパフォーマンスに重大な影響を与える可能性があります。こうしたイベント発生中、影響を受けるVMのパフォーマンスが低下し、TiDB クラスタでのクエリ処理時間が長くなる可能性があります。

Google Cloud によって開始されたライブマイグレーション イベントを検出し、これらのイベントによるパフォーマンスへの影響を軽減するために、TiDB は Google のメタデータに基づいたスクリプトを見る提供します。このスクリプトを TiDB、TiKV、PD ノードにデプロイして、メンテナンス イベントを検出できます。メンテナンス イベントが検出されると、以下の適切なアクションが自動的に実行され、中断を最小限に抑え、クラスタの動作を最適化します。

  • TiDB: TiDBノードをオフラインにし、TiDBポッドを削除します。これは、TiDBインスタンスのノードプールが自動スケールに設定され、TiDB専用になっていることを前提としています。ノード上で実行されている他のポッドに中断が発生する可能性があり、切断されたノードは自動スケーラーによって回収されることが想定されます。
  • TiKV: メンテナンス中に、影響を受ける TiKV ストアのリーダーを削除します。
  • PD: 現在の PD インスタンスが PD リーダーである場合は、リーダーを辞任します。

この監視スクリプトは、Kubernetes 環境での TiDB の強化された管理機能を提供するTiDB Operator使用してデプロイされた TiDB クラスター用に特別に設計されていることに注意することが重要です。

監視スクリプトを活用し、メンテナンス イベント中に必要なアクションを実行することで、TiDB クラスタは Google Cloud 上のライブ マイグレーション イベントをより適切に処理し、クエリ処理と応答時間への影響を最小限に抑えながら、よりスムーズな操作を実現できます。

高QPSの大規模TiDBクラスタのPDをチューニングする

TiDBクラスタでは、TSO(タイムスタンプオラクル)の提供やリクエストの処理といった重要なタスクを、単一のアクティブな配置Driver(PD)サーバーで処理します。しかし、単一のアクティブなPDサーバーに依存すると、TiDBクラスタのスケーラビリティが制限される可能性があります。

パーキンソン病の症状

以下の図は、それぞれ56個のCPUを搭載した3台のPDサーバーで構成される大規模TiDBクラスターの症状を示しています。これらの図から、1秒あたりのクエリ数(QPS)が100万を超え、1秒あたりのTSO(Timestamp Oracle)リクエスト数が162,000を超えると、CPU使用率が約4,600%に達することがわかります。この高いCPU使用率は、PDリーダーに大きな負荷がかかっており、利用可能なCPUリソースが不足していることを示しています。

pd-server-cpu pd-server-metrics

PDパフォーマンスの調整

PDサーバーでの CPU 使用率が高い問題を解決するには、次のチューニング調整を行うことができます。

PD設定を調整する

tso-update-physical-interval : このパラメータは、PDサーバーが物理TSOバッチを更新する間隔を制御します。間隔を短くすると、PDサーバーはTSOバッチをより頻繁に割り当てることができ、次の割り当てまでの待ち時間を短縮できます。

tso-update-physical-interval = "10ms" # default: 50ms

TiDBグローバル変数を調整する

PD設定に加えて、TSOクライアントのバッチ待機機能を有効にすると、TSOクライアントの動作をさらに最適化できます。この機能を有効にするには、グローバル変数tidb_tso_client_batch_max_wait_time 0以外の値に設定します。

set global tidb_tso_client_batch_max_wait_time = 2; # default: 0

TiKV設定を調整する

リージョンの数を減らし、システムのハートビートのオーバーヘッドを軽減するには、TiKV 構成のリージョンサイズを96MBから256MBに増やすことをお勧めします。

[coprocessor] region-split-size = "256MB"

チューニング後

チューニング後、次の効果が見られます。

  • 1 秒あたりの TSO リクエストは 64,800 に減少します。
  • CPU 使用率は約 4,600% から 1,400% に大幅に減少しました。
  • P999 値PD server TSO handle timeが 2ms から 0.5ms に減少します。

これらの改善は、チューニング調整によって、安定した TSO 処理パフォーマンスを維持しながら、PDサーバーの CPU 使用率を正常に削減できたことを示しています。

pd-server-cpu pd-server-metrics

このページは役に立ちましたか?