Sysbench を使用して TiDB をテストする方法

Sysbench 1.0 以降を使用することをお勧めします ( ここからダウンロードされましたを使用できます)。

テスト計画

TiDB 構成

ログ レベルが高いほど、印刷されるログが少なくなるため、TiDB のパフォーマンスにプラスの影響を与えます。具体的には、 TiUP構成ファイルに次のコマンドを追加できます。

server_configs: tidb: log.level: "error"

またtidb_enable_prepared_plan_cacheが有効になっていることを確認し、 --db-ps-mode=auto使用して sysbench がプリペアド ステートメントを使用できるようにすることもお勧めします。 SQL プラン キャッシュの機能とそれを監視する方法については、ドキュメントSQL 準備済み実行プラン キャッシュを参照してください。

ノート:

Sysbench のバージョンが異なると、デフォルト値のdb-ps-modeが異なる場合があります。コマンド内で明示的に指定することを推奨します。

TiKV 構成

ログ レベルが高いほど、TiKV のパフォーマンスが向上することも意味します。

TiKV クラスターには複数のカラムファミリーがあり、主にデフォルト CF、書き込み CF、ロック CF など、さまざまな種類のデータを保存するために使用されます。 Sysbench テストでは、デフォルト CF と書き込み CF のみに注目する必要があります。データのインポートに使用されるカラムファミリーは、TiDB クラスター間で一定の割合を持ちます。

デフォルト CF : 書き込み CF = 4 : 1

メモリを最大限に活用するには、TiKV 上の RocksDB のブロックキャッシュをマシンのメモリサイズに基づいて構成する必要があります。 TiKV クラスターを 40 GB の仮想マシンにデプロイするには、次のようにブロックキャッシュを構成することをお勧めします。

server_configs: tikv: log-level: "error" rocksdb.defaultcf.block-cache-size: "24GB" rocksdb.writecf.block-cache-size: "6GB"

ブロックキャッシュを共有するように TiKV を構成することもできます。

server_configs: tikv: storage.block-cache.capacity: "30GB"

TiKV パフォーマンス チューニングの詳細については、 TiKV のパフォーマンスを調整するを参照してください。

テストプロセス

ノート:

このドキュメントのテストは、HAproxy などの負荷分散ツールを使用せずに実行されました。個々の TiDB ノードで Sysbench テストを実行し、結果を合計しました。負荷分散ツールとさまざまなバージョンのパラメーターもパフォーマンスに影響を与える可能性があります。

システムベンチ構成

これは Sysbench 構成ファイルの例です。

mysql-host={TIDB_HOST} mysql-port=4000 mysql-user=root mysql-password=password mysql-db=sbtest time=600 threads={8, 16, 32, 64, 128, 256} report-interval=10 db-driver=mysql

上記のパラメータは、実際のニーズに応じて調整できます。このうち、 TIDB_HOSTは TiDBサーバーの IP アドレス (構成ファイルに複数のアドレスを含めることはできないため)、 threadsはテストでの同時接続数で、「8、16、32、64、 128、256インチ。データをインポートするときは、スレッド = 8 または 16 に設定することをお勧めします。 threadsを調整した後、 configという名前のファイルを保存します。

サンプル構成ファイルとして以下を参照してください。

mysql-host=172.16.30.33 mysql-port=4000 mysql-user=root mysql-password=password mysql-db=sbtest time=600 threads=16 report-interval=10 db-driver=mysql

データインポート

ノート:

楽観的トランザクション モデルを有効にすると (TiDB はデフォルトで悲観的トランザクション モードを使用します)、同時実行性の競合が見つかったときに TiDB はトランザクションをロールバックします。 tidb_disable_txn_auto_retryからoffに設定すると、トランザクション競合が発生した後の自動再試行メカニズムがオンになり、トランザクション競合エラーによる Sysbench の終了を防ぐことができます。

データをインポートする前に、TiDB にいくつかの設定を行う必要があります。 MySQL クライアントで次のコマンドを実行します。

set global tidb_disable_txn_auto_retry = off;

その後、クライアントを終了します。

MySQL クライアントを再起動し、次の SQL ステートメントを実行してデータベースsbtestを作成します。

create database sbtest;

Sysbench スクリプトがインデックスを作成する順序を調整します。 Sysbench は「テーブルの構築 -> データの挿入 -> インデックスの作成」の順序でデータをインポートします。これにより、TiDB がデータをインポートするのに時間がかかります。ユーザーは順序を調整してデータのインポートを高速化できます。 Sysbench バージョン1.0.20を使用するとします。次の 2 つの方法のいずれかで順序を調整できます。

  • TiDB 用に変更したoltp_common.luaファイルをダウンロードし、そのファイルで/usr/share/sysbench/oltp_common.luaファイルを上書きします。
  • /usr/share/sysbench/oltp_common.luaで、行235-240行 198 のすぐ後ろに移動します。

ノート:

この操作はオプションであり、データのインポートにかかる時間を節約することのみを目的としています。

コマンド ラインで次のコマンドを入力してデータのインポートを開始します。構成ファイルは、前の手順で構成されたものです。

sysbench --config-file=config oltp_point_select --tables=32 --table-size=10000000 prepare

データのウォーミングと統計の収集

データをウォームアップするには、データをディスクからメモリのブロックキャッシュにロードします。ウォームアップされたデータにより、システム全体のパフォーマンスが大幅に向上しました。クラスターを再起動した後、データを一度ウォームアップすることをお勧めします。

sysbench --config-file=config oltp_point_select --tables=32 --table-size=10000000 prewarm

点選択テストコマンド

sysbench --config-file=config oltp_point_select --tables=32 --table-size=10000000 --db-ps-mode=auto --rand-type=uniform run

インデックス更新テストコマンド

sysbench --config-file=config oltp_update_index --tables=32 --table-size=10000000 --db-ps-mode=auto --rand-type=uniform run

読み取り専用テストコマンド

sysbench --config-file=config oltp_read_only --tables=32 --table-size=10000000 --db-ps-mode=auto --rand-type=uniform run

よくある問題

TiDB と TiKV は両方とも高同時実行下で適切に構成されているのに、全体的なパフォーマンスが依然として低いのはなぜですか?

この問題は多くの場合、プロキシの使用に関連しています。単一の TiDBサーバーに圧力を加え、それぞれの結果を合計し、合計した結果をプロキシを使用した結果と比較できます。

HAproxy を例に挙げます。パラメーターnbproc使用すると、最大で開始できるプロセスの数を増やすことができます。 HAproxy の新しいバージョンではnbthreadおよびcpu-mapもサポートされます。これらはすべて、プロキシの使用によるパフォーマンスへの悪影響を軽減できます。

高い同時実行性にもかかわらず、TiKV の CPU 使用率が依然として低いのはなぜですか?

TiKV の全体的な CPU 使用率は低くなりますが、クラスター内の一部のモジュールの CPU 使用率が高くなる可能性があります。

storage読み取りプール、コプロセッサ、gRPC など、TiKV 上の他のモジュールの最大同時実行制限は、TiKV 構成ファイルを通じて調整できます。

実際の CPU 使用率は、Grafana の TiKV スレッド CPU モニター パネルを通じて観察できます。モジュールにボトルネックがある場合は、モジュールの同時実行性を高めることで調整できます。

TiKV が高同時実行下で CPU 使用率のボトルネックにまだ到達していないことを考えると、TiDB の CPU 使用率が依然として低いのはなぜでしょうか?

NUMAアーキテクチャの CPU は一部のハイエンド機器で使用されており、リモートメモリへのクロス CPU アクセスによりパフォーマンスが大幅に低下します。デフォルトでは、TiDB はサーバーのすべての CPU を使用し、ゴルーチンのスケジューリングにより必然的にクロス CPUメモリアクセスが発生します。

したがって、NUMAアーキテクチャのサーバーにn 個のTiDB ( nは NUMA CPU の数) をデプロイし、同時に TiDB パラメータmax-procsを NUMA CPU コアの数と同じ値に設定することをお勧めします。

このページは役に立ちましたか?