TiDB ダッシュボードの診断レポートを使用して問題を特定する

このドキュメントでは、TiDB ダッシュボードの診断レポートを使用して問題を特定する方法を紹介します。

比較診断

このセクションでは、比較診断機能を使用して、大規模なクエリまたは書き込みによって引き起こされる QPS ジッターまたはレイテンシーの増加を診断する方法を説明します。

例1

QPS example

go-ycsb圧力テストの結果が上の画像に示されています。 2020-03-10 13:24:30で QPS が突然減少し始めていることがわかります。 3 分後、QPS は通常の状態に戻り始めました。 TiDB ダッシュボードの診断レポートを使用して原因を見つけることができます。

次の 2 つの時間範囲でシステムを比較するレポートを生成します。

T1: 2020-03-10 13:21:002020-03-10 13:23:00 。この範囲ではシステムは正常であり、これを基準範囲と呼びます。

T2: 2020-03-10 13:24:302020-03-10 13:27:30 。この範囲では、QPS が低下し始めます。

ジッターの影響範囲は 3 分であるため、上記の 2 つの時間範囲は両方とも 3 分です。一部の監視された平均値は診断中の比較に使用されるため、範囲が長すぎると平均値の差が重要でなくなり、問題を正確に特定できなくなります。

レポートが生成されたら、このレポートを[比較診断]ページで表示できます。

Comparison diagnostics

上記の診断結果は、診断時間中に大きなクエリが存在する可能性があることを示しています。上記のレポートの各詳細は次のように説明されています。

  • tidb_qps : QPSが0.93倍減少しました。
  • tidb_query_duration : P999 クエリのレイテンシーが1.54 倍に増加しました。
  • tidb_cop_duration : P999 コプロセッサー要求の処理レイテンシーが2.48 倍に増加しました。
  • tidb_kv_write_num : P999 TiDB トランザクションで書き込まれた KV の数は 7.61 倍に増加しました。
  • tikv_cop_scan_keys_total_nun : TiKVコプロセッサーによってスキャンされるキー/値の数が、3 つの TiKV インスタンスで大幅に改善されました。
  • pd_operator_step_finish_total_countでは、リーダーの移動数が 2.45 倍に増加しており、異常時間帯のスケジューリングが正常時間帯に比べて高くなっていることがわかります。
  • このレポートは、遅いクエリが存在する可能性があることを示し、SQL ステートメントを使用して遅いクエリをクエリできることを示しています。 SQL文の実行結果は以下のようになります。
SELECT * FROM (SELECT count(*), min(time), sum(query_time) AS sum_query_time, sum(Process_time) AS sum_process_time, sum(Wait_time) AS sum_wait_time, sum(Commit_time), sum(Request_count), sum(process_keys), sum(Write_keys), max(Cop_proc_max), min(query),min(prev_stmt), digest FROM information_schema.CLUSTER_SLOW_QUERY WHERE time >= '2020-03-10 13:24:30' AND time < '2020-03-10 13:27:30' AND Is_internal = false GROUP BY digest) AS t1 WHERE t1.digest NOT IN (SELECT digest FROM information_schema.CLUSTER_SLOW_QUERY WHERE time >= '2020-03-10 13:21:00' AND time < '2020-03-10 13:24:00' GROUP BY digest) ORDER BY t1.sum_query_time DESC limit 10\G ***************************[ 1. row ]*************************** count(*) | 196 min(time) | 2020-03-10 13:24:30.204326 sum_query_time | 46.878509117 sum_process_time | 265.924 sum_wait_time | 8.308 sum(Commit_time) | 0.926820886 sum(Request_count) | 6035 sum(process_keys) | 201453000 sum(Write_keys) | 274500 max(Cop_proc_max) | 0.263 min(query) | delete from test.tcs2 limit 5000; min(prev_stmt) | digest | 24bd6d8a9b238086c9b8c3d240ad4ef32f79ce94cf5a468c0b8fe1eb5f8d03df

上記の結果から、 13:24:30から大量のバッチ削除の書き込みがあり、合計 46.8 秒間で合計 196 回実行され、毎回 5,000 行のデータが削除されていることがわかります。

例 2

大規模なクエリが実行されていない場合、クエリはスロー ログに記録されません。この状況でも、この大規模なクエリを診断できます。次の例を参照してください。

QPS results

別のgo-ycsbの圧力テストの結果が上の画像に示されています。 2020-03-08 01:46:30で QPS が突然低下し始め、回復しないことがわかります。

次の 2 つの時間範囲でシステムを比較するレポートを生成します。

T1: 2020-03-08 01:36:002020-03-08 01:41:00 。この範囲ではシステムは正常であり、これを基準範囲と呼びます。

T2: 2020-03-08 01:46:302020-03-08 01:51:30 。この範囲では、QPS が低下し始めます。

レポートが生成されたら、このレポートを[比較診断]ページで表示できます。

Comparison diagnostics

診断結果は例 1 と同様です。上の画像の最後の行は、低速なクエリが存在する可能性があることを示しており、SQL ステートメントを使用して TiDB ログ内の負荷の高いクエリをクエリできることを示しています。 SQL文の実行結果は以下のとおりです。

> SELECT * FROM information_schema.cluster_log WHERE type='tidb' AND time >= '2020-03-08 01:46:30' AND time < '2020-03-08 01:51:30' AND level = 'warn' AND message LIKE '%expensive_query%'\G TIME | 2020/03/08 01:47:35.846 TYPE | tidb INSTANCE | 172.16.5.40:4009 LEVEL | WARN MESSAGE | [expensivequery.go:167] [expensive_query] [cost_time=60.085949605s] [process_time=2.52s] [wait_time=2.52s] [request_count=9] [total_keys=996009] [process_keys=996000] [num_cop_tasks=9] [process_avg_time=0.28s] [process_p90_time=0.344s] [process_max_time=0.344s] [process_max_addr=172.16.5.40:20150] [wait_avg_time=0.000777777s] [wait_p90_time=0.003s] [wait_max_time=0.003s] [wait_max_addr=172.16.5.40:20150] [stats=t_wide:pseudo] [conn_id=19717] [user=root] [database=test] [table_ids="[80,80]"] [txn_start_ts=415132076148785201] [mem_max="23583169 Bytes (22.490662574768066 MB)"] [sql="select count(*) from t_wide as t1 join t_wide as t2 where t1.c0>t2.c1 and t1.c2>0"]

上記のクエリ結果は、この172.16.5.40:4009 TiDB インスタンスの2020/03/08 01:47:35.846に、60 秒間実行された高価なクエリがありますが、実行がまだ終了していないことを示しています。このクエリはデカルト積の結合です。

比較診断レポートを使用して問題を特定する

診断が間違っている可能性があるため、比較レポートを使用すると、DBA が問題をより迅速に特定できる可能性があります。次の例を参照してください。

QPS results

go-ycsb圧力テストの結果が上の画像に示されています。 2020-05-22 22:14:00で QPS が突然減少し始めていることがわかります。 3 分後、QPS は通常の状態に戻り始めました。 TiDB ダッシュボードの比較診断レポートを使用して、原因を見つけることができます。

次の 2 つの時間範囲でシステムを比較するレポートを生成します。

T1: 2020-05-22 22:11:002020-05-22 22:14:00 。この範囲ではシステムは正常であり、これを基準範囲と呼びます。

T2: 2020-05-22 22:14:00 2020-05-22 22:17:00 。この範囲では、QPS が低下し始めます。

比較レポートを生成したら、 Max diff itemレポートを確認します。本レポートでは、上記 2 つの時間帯の監視項目を比較し、監視項目の違いに応じて分類しています。この表の結果は次のようになります。

Comparison results

上記の結果から、T2 のコプロセッサーリクエストよりもはるかに多いことがわかります。より多くの負荷をもたらすいくつかの大きなクエリが T2 に表示される可能性があります。

実際、T1 から T2 までの時間範囲全体で、 go-ycsb圧力テストが実行されています。次に、T2 中に 20 tpchクエリが実行されます。したがって、多くのコプロセッサーリクエストを引き起こすのはtpchクエリです。

実行時間がスローログの閾値を超えるような大規模なクエリがスローログに記録される場合。 Slow Queries In Time Range t2レポートをチェックして、遅いクエリがあるかどうかを確認できます。ただし、T1 の一部のクエリは、T2 では遅いクエリになる可能性があります。これは、T2 では、他の負荷によって実行が遅くなるからです。

このページは役に立ちましたか?

Playground
新規
登録なしで TiDB の機能をワンストップでインタラクティブに体験できます。
製品
TiDB Cloud
TiDB
価格
PoC お問い合わせ
エコシステム
TiKV
TiFlash
OSS Insight
© 2024 PingCAP. All Rights Reserved.
Privacy Policy.