TiDB メモリ制御

現在、TiDB は単一の SQL クエリのメモリクォータを追跡し、メモリ使用量が特定のしきい値を超えた場合に OOM (メモリ不足) を防止したり、OOM のトラブルシューティングを行ったりすることができます。システム変数tidb_mem_oom_actionは、クエリがメモリ制限に達したときに実行するアクションを指定します。

  • LOGは、制限tidb_mem_quota_queryに達してもクエリは実行し続けるが、TiDB はログにエントリを出力することを意味します。
  • CANCEL 、TiDB がtidb_mem_quota_query制限に達した直後に SQL クエリの実行を停止し、クライアントにエラーを返すことを意味します。エラー情報には、SQL 実行プロセスでメモリを消費する各物理実行オペレータのメモリ使用量が明確に示されます。

クエリのメモリ割り当てを構成する

システム変数tidb_mem_quota_queryは、クエリの制限をバイト単位で設定します。いくつかの使用例:

-- Set the threshold value of memory quota for a single SQL query to 8GB: SET tidb_mem_quota_query = 8 << 30;
-- Set the threshold value of memory quota for a single SQL query to 8MB: SET tidb_mem_quota_query = 8 << 20;
-- Set the threshold value of memory quota for a single SQL query to 8KB: SET tidb_mem_quota_query = 8 << 10;

tidb-server インスタンスのメモリ使用量のしきい値を構成する

v6.5.0 以降、システム変数tidb_server_memory_limit使用して tidb-server インスタンスのメモリ使用量のしきい値を設定できます。

たとえば、 tidb-server インスタンスの合計メモリ使用量を 32 GB に設定します。

SET GLOBAL tidb_server_memory_limit = "32GB";

この変数を設定した後、 tidb-server インスタンスのメモリ使用量が 32 GB に達すると、TiDB はインスタンスのメモリ使用量が 32 GB を下回るまで、実行中のすべての SQL 操作の中で最大のメモリ使用量で SQL 操作を順番に終了します。 。強制終了された SQL 操作はクライアントにOut Of Memory Quota!エラーを返します。

現在、 tidb_server_memory_limitに設定されたメモリ制限では、次の SQL 操作は終了しません

  • DDL 操作
  • ウィンドウ関数と共通テーブル式を含む SQL 操作

tidb-server インスタンスのメモリ使用量が総メモリの特定の割合に達すると (割合はシステム変数tidb_server_memory_limit_gc_triggerによって制御されます)、 tidb-server はメモリのストレスを軽減するためにGolang GC をトリガーしようとします。インスタンスメモリがしきい値付近で変動するためにパフォーマンスの問題を引き起こす頻繁な GC を回避するために、この GC メソッドは最大でも 1 分に 1 回 GC をトリガーします。

注記:

ハイブリッド デプロイメント シナリオでは、物理マシン全体の合計メモリしきい値ではなく、単一の tdb-server インスタンスのメモリ使用量しきい値がtidb_server_memory_limitになります。

INFORMATION_SCHEMA システム テーブルを使用して、現在の tidb-server インスタンスのメモリ使用量をビュー

現在のインスタンスまたはクラスターのメモリ使用量を表示するには、システム テーブルINFORMATION_SCHEMA.(CLUSTER_)MEMORY_USAGEをクエリします。

現在のインスタンスまたはクラスターのメモリ関連の操作と実行ベースを表示するには、システム テーブルINFORMATION_SCHEMA.(CLUSTER_)MEMORY_USAGE_OPS_HISTORYクエリを実行します。このテーブルには、インスタンスごとに最新の 50 レコードが保持されます。

過剰なメモリ使用量のアラームをトリガーする

tidb-server インスタンスのメモリ使用量がメモリしきい値 (デフォルトでは総メモリの 70%) を超え、以下の条件のいずれかが満たされると、TiDB は関連するステータス・ファイルを記録し、アラーム・ログを出力。

  • メモリ使用量がメモリしきい値を超えるのは初めてです。
  • メモリ使用量がメモリしきい値を超えており、最後のアラームから 60 秒以上経過しています。
  • メモリ使用量がメモリしきい値と(Current memory usage - Memory usage at the last alarm) / Total memory > 10%を超えています。

システム変数tidb_memory_usage_alarm_ratioを介してメモリ使用率を変更することで、アラームをトリガーするメモリしきい値を制御できます。

過剰なメモリ使用量のアラームがトリガーされると、TiDB は次のアクションを実行します。

  • TiDB は、TiDB ログ ファイルfilenameが配置されているディレクトリに次の情報を記録します。

    • 現在実行されているすべての SQL ステートメントのうち、メモリ使用量が最も多い上位 10 の SQL ステートメントと実行時間の最も長い SQL ステートメントの上位 10 位に関する情報
    • goroutine スタック情報
    • ヒープメモリの使用状況
  • TiDB は、キーワードtidb-server has the risk of OOMと次のメモリ関連のシステム変数の値を含むアラーム ログを出力。

アラーム用のステータス ファイルが大量に蓄積されるのを避けるため、TiDB はデフォルトで最近の 5 つのアラーム中に生成されたステータス ファイルのみを保持します。この数値は、システム変数tidb_memory_usage_alarm_keep_record_numを構成することで調整できます。

次の例では、アラームをトリガーするメモリを大量に消費する SQL ステートメントを作成します。

  1. tidb_memory_usage_alarm_ratio0.85を設定:

    SET GLOBAL tidb_memory_usage_alarm_ratio = 0.85;
  2. CREATE TABLE t(a int);を実行し、1000 行のデータを挿入します。

  3. select * from t t1 join t t2 join t t3 order by t1.aを実行します。この SQL ステートメントは 10 億レコードを出力します。これにより大量のメモリが消費されるため、アラームがトリガーされます。

  4. 合計システムメモリ、現在のシステムメモリ使用量、tidb-server インスタンスのメモリ使用量、およびステータス ファイルのディレクトリを記録するtidb.logファイルを確認します。

    [2022/10/11 16:39:02.281 +08:00] [WARN] [memoryusagealarm.go:212] ["tidb-server has the risk of OOM because of memory usage exceeds alarm ratio. Running SQLs and heap profile will be recorded in record path"] ["is tidb_server_memory_limit set"=false] ["system memory total"=33682427904] ["system memory usage"=22120655360] ["tidb-server memory usage"=21468556992] [memory-usage-alarm-ratio=0.85] ["record path"=/tiup/deploy/tidb-4000/log/oom_record]

    上記のログ ファイルの例のフィールドは次のように説明されています。

    • is tidb_server_memory_limit set tidb_server_memory_limit設定されているかどうかを示します。
    • system memory total現在のシステムの合計メモリを示します。
    • system memory usage現在のシステムメモリ使用量を示します。
    • tidb-server memory usage tidb-server インスタンスのメモリ使用量を示します。
    • memory-usage-alarm-ratioシステム変数tidb_memory_usage_alarm_ratioの値を示します。
    • record pathステータスファイルのディレクトリを示します。
  5. ステータス ファイルのディレクトリ (前の例では、ディレクトリは/tiup/deploy/tidb-4000/log/oom_record ) を確認すると、対応するタイムスタンプ (たとえば、 record2022-10-09T17:18:38+08:00 ) を持つレコード ディレクトリが表示されます。レコード ディレクトリには、 goroutinueheap 、およびrunning_sqlの 3 つのファイルが含まれています。これら 3 つのファイルには、ステータス ファイルが記録される時刻が接尾辞として付けられます。それぞれ、ゴルーチンのスタック情報、ヒープメモリの使用状況、アラーム発生時の実行中のSQL情報を記録します。 running_sqlの内容についてはexpensive-queriesを参照してください。

tidb-server のその他のメモリ制御動作

フロー制御

  • TiDB は、データを読み取るオペレーターの動的メモリ制御をサポートします。デフォルトでは、この演算子はtidb_distsql_scan_concurrencyデータの読み取りが許可される最大スレッド数を使用します。 1 回の SQL 実行のメモリ使用量が毎回tidb_mem_quota_queryを超えると、データを読み取るオペレーターは 1 つのスレッドを停止します。

  • このフロー制御動作は、システム変数tidb_enable_rate_limit_actionによって制御されます。

  • フロー制御動作がトリガーされると、TiDB はキーワードmemory exceeds quota, destroy one token nowを含むログを出力します。

ディスク流出

TiDB は、実行オペレーターのディスク スピルをサポートしています。 SQL 実行のメモリ使用量がメモリクォータを超えると、 tidb-server は実行演算子の中間データをディスクに書き込み、メモリの圧迫を軽減することができます。ディスク流出をサポートする演算子には、Sort、MergeJoin、HashJoin、および HashAgg が含まれます。

  • ディスク スピルの動作は、パラメータtidb_mem_quota_querytidb_enable_tmp_storage_on_oomtmp-storage-path 、およびtmp-storage-quotaによって共同制御されます。
  • ディスク流出がトリガーされると、TiDB はキーワードmemory exceeds quota, spill to disk nowまたはmemory exceeds quota, set aggregate mode to spill-modeを含むログを出力します。
  • Sort、MergeJoin、および HashJoin オペレーターのディスク スピルは v4.0.0 で導入されました。 HashAgg オペレーターのディスク スピルは v5.2.0 で導入されました。
  • Sort、MergeJoin、または HashJoin を含む SQL 実行によって OOM が発生すると、TiDB はデフォルトでディスク スピルをトリガーします。 HashAgg を含む SQL 実行によって OOM が発生しても、TiDB はデフォルトでディスク スピルをトリガーしません。 HashAgg のディスク スピルをトリガーするようにシステム変数tidb_executor_concurrency = 1を構成できます。

注記:

HashAgg のディスク スピルでは、 DISTINCT集計関数を含む SQL の実行はサポートされていません。 DISTINCT集計関数を含む SQL 実行で使用されるメモリが多すぎる場合、ディスク スピルは適用されません。

次の例では、メモリを消費する SQL ステートメントを使用して、HashAgg のディスク スピル機能を示します。

  1. SQL ステートメントのメモリクォータを 1 GB (デフォルトでは 1 GB) に構成します。

    SET tidb_mem_quota_query = 1 << 30;
  2. 単一のテーブルCREATE TABLE t(a int);を作成し、256 行の異なるデータを挿入します。

  3. 次の SQL ステートメントを実行します。

    [tidb]> explain analyze select /*+ HASH_AGG() */ count(*) from t t1 join t t2 join t t3 group by t1.a, t2.a, t3.a;

    この SQL ステートメントを実行するとメモリが多すぎるため、次の「メモリ クォータが不足しています」エラー メッセージが返されます。

    ERROR 1105 (HY000): Out Of Memory Quota![conn_id=3]
  4. システム変数をtidb_executor_concurrencyから 1 に設定します。この設定では、メモリ不足の場合、HashAgg は自動的にディスク スピルをトリガーしようとします。

    SET tidb_executor_concurrency = 1;
  5. 同じSQL文を実行します。今回は、ステートメントが正常に実行され、エラー メッセージが返されないことがわかります。次の詳細な実行計画から、HashAgg が 600 MB のハード ディスク領域を使用していることがわかります。

    [tidb]> explain analyze select /*+ HASH_AGG() */ count(*) from t t1 join t t2 join t t3 group by t1.a, t2.a, t3.a;
    +---------------------------------+-------------+----------+-----------+---------------+---------------------------------------------------------------------------------------------------------------------------------------------------------------------+-----------------------------------------------------------------+-----------+----------+ | id | estRows | actRows | task | access object | execution info | operator info | memory | disk | +---------------------------------+-------------+----------+-----------+---------------+---------------------------------------------------------------------------------------------------------------------------------------------------------------------+-----------------------------------------------------------------+-----------+----------+ | HashAgg_11 | 204.80 | 16777216 | root | | time:1m37.4s, loops:16385 | group by:test.t.a, test.t.a, test.t.a, funcs:count(1)->Column#7 | 1.13 GB | 600.0 MB | | └─HashJoin_12 | 16777216.00 | 16777216 | root | | time:21.5s, loops:16385, build_hash_table:{total:267.2µs, fetch:228.9µs, build:38.2µs}, probe:{concurrency:1, total:35s, max:35s, probe:35s, fetch:962.2µs} | CARTESIAN inner join | 8.23 KB | 4 KB | | ├─TableReader_21(Build) | 256.00 | 256 | root | | time:87.2µs, loops:2, cop_task: {num: 1, max: 150µs, proc_keys: 0, rpc_num: 1, rpc_time: 145.1µs, copr_cache_hit_ratio: 0.00} | data:TableFullScan_20 | 885 Bytes | N/A | | │ └─TableFullScan_20 | 256.00 | 256 | cop[tikv] | table:t3 | tikv_task:{time:23.2µs, loops:256} | keep order:false, stats:pseudo | N/A | N/A | | └─HashJoin_14(Probe) | 65536.00 | 65536 | root | | time:728.1µs, loops:65, build_hash_table:{total:307.5µs, fetch:277.6µs, build:29.9µs}, probe:{concurrency:1, total:34.3s, max:34.3s, probe:34.3s, fetch:278µs} | CARTESIAN inner join | 8.23 KB | 4 KB | | ├─TableReader_19(Build) | 256.00 | 256 | root | | time:126.2µs, loops:2, cop_task: {num: 1, max: 308.4µs, proc_keys: 0, rpc_num: 1, rpc_time: 295.3µs, copr_cache_hit_ratio: 0.00} | data:TableFullScan_18 | 885 Bytes | N/A | | │ └─TableFullScan_18 | 256.00 | 256 | cop[tikv] | table:t2 | tikv_task:{time:79.2µs, loops:256} | keep order:false, stats:pseudo | N/A | N/A | | └─TableReader_17(Probe) | 256.00 | 256 | root | | time:211.1µs, loops:2, cop_task: {num: 1, max: 295.5µs, proc_keys: 0, rpc_num: 1, rpc_time: 279.7µs, copr_cache_hit_ratio: 0.00} | data:TableFullScan_16 | 885 Bytes | N/A | | └─TableFullScan_16 | 256.00 | 256 | cop[tikv] | table:t1 | tikv_task:{time:71.4µs, loops:256} | keep order:false, stats:pseudo | N/A | N/A | +---------------------------------+-------------+----------+-----------+---------------+---------------------------------------------------------------------------------------------------------------------------------------------------------------------+-----------------------------------------------------------------+-----------+----------+ 9 rows in set (1 min 37.428 sec)

その他

GOMEMLIMITを構成することで OOM の問題を軽減する

GO 1.19 では、GC をトリガーするメモリ制限を設定する環境変数GOMEMLIMITが導入されています。

v6.1.3 <= TiDB < v6.5.0 の場合、手動でGOMEMLIMITを設定することで、一般的なカテゴリの OOM 問題を軽減できます。 OOM 問題の典型的なカテゴリは次のとおりです。次の図に示すように、OOM が発生する前は、Grafana で使用中の推定メモリはメモリ全体の半分しか占有しません (TiDB-Runtime > メモリ使用量 >estimate-inuse)。

normal OOM case example

GOMEMLIMITのパフォーマンスを検証するために、 GOMEMLIMIT構成を使用した場合と使用しない場合の特定のメモリ使用量を比較するテストが実行されます。

  • TiDB v6.1.2 では、シミュレートされたワークロードが数分間実行された後、TiDBサーバーで OOM (システムメモリ: 約 48 GiB) が発生します。

    v6.1.2 workload oom

  • TiDB v6.1.3 では、 GOMEMLIMITは 40000 MiB に設定されます。シミュレートされたワークロードは長時間安定して実行され、TiDBサーバーで OOM は発生せず、プロセスの最大メモリ使用量は約 40.8 GiB で安定していることがわかります。

    v6.1.3 workload no oom with GOMEMLIMIT

このページは役に立ちましたか?