ロック競合のトラブルシューティング

TiDB は完全な分散トランザクションをサポートします。v3.0 以降、TiDB は楽観的トランザクション モードと悲観的トランザクション モードを提供します。このドキュメントでは、ロックビューを使用してロックの問題をトラブルシューティングする方法と、楽観的と悲観的トランザクションで一般的なロック競合の問題に対処する方法について説明します。

ロックビューを使用してロックの問題をトラブルシューティングする

v5.1 以降、TiDB はロックビュー機能をサポートしています。この機能には、ロックの競合とロックの待機に関する詳細情報を提供する、 information_schemaに組み込まれたいくつかのシステム テーブルがあります。

注記:

現在、ロックビュー機能は、悲観的ロックの競合と待機情報のみを提供します。

これらのテーブルの詳細な紹介については、次のドキュメントを参照してください。

  • TIDB_TRXおよびCLUSTER_TIDB_TRX : 現在の TiDB ノードまたはクラスター全体で実行中のすべてのトランザクションの情報を提供します。これには、トランザクションがロック待機状態にあるかどうか、ロック待機時間、トランザクションで実行されたステートメントのダイジェストが含まれます。
  • DATA_LOCK_WAITS : ブロックしているトランザクションとブロックされたトランザクションのstart_ts 、ブロックされた SQL ステートメントのダイジェスト、待機が発生したキーなど、TiKV の悲観的ロック待機情報を提供します。
  • DEADLOCKSCLUSTER_DEADLOCKS : 現在の TiDB ノードまたはクラスター全体で最近発生したいくつかのデッドロック イベントの情報を提供します。これには、デッドロック ループ内のトランザクション間の待機関係、トランザクションで現在実行されているステートメントのダイジェスト、待機が発生したキーなどが含まれます。

注記:

ロックビュー関連のシステムテーブルに表示されるSQL文は、SQLダイジェストに従って内部クエリによって取得された正規化されたSQL文(つまり、形式と引数のないSQL文)であるため、形式と引数を含む完全な文を取得することはできません。SQLダイジェストと正規化されたSQL文の詳細については、 ステートメント要約表参照してください。

次のセクションでは、これらの表を使用していくつかの問題をトラブルシューティングする例を示します。

デッドロックエラー

最近のデッドロック エラーの情報を取得するには、テーブルDEADLOCKSまたはCLUSTER_DEADLOCKSクエリできます。

たとえば、テーブルDEADLOCKSをクエリするには、次の SQL ステートメントを実行します。

select * from information_schema.deadlocks;

出力例は次のとおりです。

+-------------+----------------------------+-----------+--------------------+------------------------------------------------------------------+-----------------------------------------+----------------------------------------+----------------------------------------------------------------------------------------------------+--------------------+ | DEADLOCK_ID | OCCUR_TIME | RETRYABLE | TRY_LOCK_TRX_ID | CURRENT_SQL_DIGEST | CURRENT_SQL_DIGEST_TEXT | KEY | KEY_INFO | TRX_HOLDING_LOCK | +-------------+----------------------------+-----------+--------------------+------------------------------------------------------------------+-----------------------------------------+----------------------------------------+----------------------------------------------------------------------------------------------------+--------------------+ | 1 | 2021-08-05 11:09:03.230341 | 0 | 426812829645406216 | 22230766411edb40f27a68dadefc63c6c6970d5827f1e5e22fc97be2c4d8350d | update `t` set `v` = ? where `id` = ? ; | 7480000000000000355F728000000000000002 | {"db_id":1,"db_name":"test","table_id":53,"table_name":"t","handle_type":"int","handle_value":"2"} | 426812829645406217 | | 1 | 2021-08-05 11:09:03.230341 | 0 | 426812829645406217 | 22230766411edb40f27a68dadefc63c6c6970d5827f1e5e22fc97be2c4d8350d | update `t` set `v` = ? where `id` = ? ; | 7480000000000000355F728000000000000001 | {"db_id":1,"db_name":"test","table_id":53,"table_name":"t","handle_type":"int","handle_value":"1"} | 426812829645406216 | +-------------+----------------------------+-----------+--------------------+------------------------------------------------------------------+-----------------------------------------+----------------------------------------+----------------------------------------------------------------------------------------------------+--------------------+

上記のクエリ結果には、デッドロック エラーにおける複数のトランザクション間の待機関係、各トランザクションで現在実行されている SQL 文の正規化された形式 (形式と引数のない文)、競合が発生しているキー、およびキーの情報が表示されます。

たとえば、上記の例では、最初の行は、ID が426812829645406216のトランザクションがupdate `t` set `v` =? Where `id` =? ;ようなステートメントを実行しているが、ID が426812829645406217の別のトランザクションによってブロックされていることを意味します。ID が426812829645406217のトランザクションもupdate `t` set `v` =? Where `id` =? ;の形式のステートメントを実行していますが、ID が426812829645406216のトランザクションによってブロックされています。したがって、2 つのトランザクションはデッドロックを形成します。

いくつかのホットキーはキューロックを引き起こす

DATA_LOCK_WAITSシステム テーブルは、TiKV ノードのロック待機ステータスを提供します。このテーブルをクエリすると、TiDB はすべての TiKV ノードからリアルタイムのロック待機情報を自動的に取得します。いくつかのホット キーが頻繁にロックされ、多くのトランザクションをブロックしている場合は、 DATA_LOCK_WAITSテーブルをクエリして結果をキーごとに集計し、問題が頻繁に発生するキーを見つけることができます。

select `key`, count(*) as `count` from information_schema.data_lock_waits group by `key` order by `count` desc;

出力例は次のとおりです。

+----------------------------------------+-------+ | key | count | +----------------------------------------+-------+ | 7480000000000000415F728000000000000001 | 2 | | 7480000000000000415F728000000000000002 | 1 | +----------------------------------------+-------+

不測の事態を回避するために、複数のクエリを実行する必要がある場合があります。

頻繁に問題が発生しているキーがわかっている場合は、 TIDB_TRXまたはCLUSTER_TIDB_TRXテーブルからキーをロックしようとするトランザクションの情報を取得してみることができます。

TIDB_TRXおよびCLUSTER_TIDB_TRXテーブルに表示される情報は、クエリの実行時に実行中のトランザクションの情報でもあることに注意してください。これらのテーブルには、完了したトランザクションの情報は表示されません。同時トランザクションの数が多い場合は、クエリの結果セットも大きくなる可能性があります。5 句またはwhere句を使用して、ロック待機時間が長いトランザクションをフィルター処理できます。ロックビューで複数のテーブルを結合する場合、異なるテーブルのデータが同時に取得されない可能limitがあるため、異なるテーブルの情報が一致しない可能性があることに注意してください。

たとえば、 where句を使用してロック待機時間が長いトランザクションをフィルタリングするには、次の SQL ステートメントを実行します。

select trx.* from information_schema.data_lock_waits as l left join information_schema.cluster_tidb_trx as trx on l.trx_id = trx.id where l.key = "7480000000000000415F728000000000000001"\G

出力例は次のとおりです。

*************************** 1. row *************************** INSTANCE: 127.0.0.1:10080 ID: 426831815660273668 START_TIME: 2021-08-06 07:16:00.081000 CURRENT_SQL_DIGEST: 06da614b93e62713bd282d4685fc5b88d688337f36e88fe55871726ce0eb80d7 CURRENT_SQL_DIGEST_TEXT: update `t` set `v` = `v` + ? where `id` = ? ; STATE: LockWaiting WAITING_START_TIME: 2021-08-06 07:16:00.087720 MEM_BUFFER_KEYS: 0 MEM_BUFFER_BYTES: 0 SESSION_ID: 77 USER: root DB: test ALL_SQL_DIGESTS: ["0fdc781f19da1c6078c9de7eadef8a307889c001e05f107847bee4cfc8f3cdf3","06da614b93e62713bd282d4685fc5b88d688337f36e88fe55871726ce0eb80d7"] *************************** 2. row *************************** INSTANCE: 127.0.0.1:10080 ID: 426831818019569665 START_TIME: 2021-08-06 07:16:09.081000 CURRENT_SQL_DIGEST: 06da614b93e62713bd282d4685fc5b88d688337f36e88fe55871726ce0eb80d7 CURRENT_SQL_DIGEST_TEXT: update `t` set `v` = `v` + ? where `id` = ? ; STATE: LockWaiting WAITING_START_TIME: 2021-08-06 07:16:09.290271 MEM_BUFFER_KEYS: 0 MEM_BUFFER_BYTES: 0 SESSION_ID: 75 USER: root DB: test ALL_SQL_DIGESTS: ["0fdc781f19da1c6078c9de7eadef8a307889c001e05f107847bee4cfc8f3cdf3","06da614b93e62713bd282d4685fc5b88d688337f36e88fe55871726ce0eb80d7"] 2 rows in set (0.00 sec)

トランザクションが長時間ブロックされている

トランザクションが別のトランザクション(または複数のトランザクション)によってブロックされていることがわかっていて、現在のトランザクションのstart_ts (トランザクション ID)がわかっている場合は、次の方法を使用して、ブロックしているトランザクションの情報を取得できます。 Lock ビューで複数のテーブルを結合する場合、異なるテーブルのデータが同時に取得されない可能性があるため、異なるテーブルの情報が一致しない可能性があることに注意してください。

select l.key, trx.*, tidb_decode_sql_digests(trx.all_sql_digests) as sqls from information_schema.data_lock_waits as l join information_schema.cluster_tidb_trx as trx on l.current_holding_trx_id = trx.id where l.trx_id = 426831965449355272\G

出力例は次のとおりです。

*************************** 1. row *************************** key: 74800000000000004D5F728000000000000001 INSTANCE: 127.0.0.1:10080 ID: 426832040186609668 START_TIME: 2021-08-06 07:30:16.581000 CURRENT_SQL_DIGEST: 06da614b93e62713bd282d4685fc5b88d688337f36e88fe55871726ce0eb80d7 CURRENT_SQL_DIGEST_TEXT: update `t` set `v` = `v` + ? where `id` = ? ; STATE: LockWaiting WAITING_START_TIME: 2021-08-06 07:30:16.592763 MEM_BUFFER_KEYS: 1 MEM_BUFFER_BYTES: 19 SESSION_ID: 113 USER: root DB: test ALL_SQL_DIGESTS: ["0fdc781f19da1c6078c9de7eadef8a307889c001e05f107847bee4cfc8f3cdf3","a4e28cc182bdd18288e2a34180499b9404cd0ba07e3cc34b6b3be7b7c2de7fe9","06da614b93e62713bd282d4685fc5b88d688337f36e88fe55871726ce0eb80d7"] sqls: ["begin ;","select * from `t` where `id` = ? for update ;","update `t` set `v` = `v` + ? where `id` = ? ;"] 1 row in set (0.01 sec)

上記のクエリでは、 CLUSTER_TIDB_TRXテーブルのALL_SQL_DIGESTS列目にTIDB_DECODE_SQL_DIGESTS関数が使用されています。この関数は、この列 (値は SQL ダイジェストのセット) を正規化された SQL ステートメントに変換しようとし、読みやすさを向上させます。

現在のトランザクションのstart_tsが不明な場合は、 TIDB_TRX / CLUSTER_TIDB_TRXテーブルまたはPROCESSLIST / CLUSTER_PROCESSLISTテーブルの情報から調べることができます。

楽観的ロックの競合のトラブルシューティング

このセクションでは、楽観的トランザクション モードでの一般的なロック競合の問題の解決策を示します。

読み取りと書き込みの競合

TiDBサーバーがクライアントから読み取り要求を受信すると、現在のトランザクションの start_ts として、物理時間でグローバルに一意で増加するタイムスタンプを取得します。トランザクションは、start_ts より前の最新のデータ、つまり start_ts より小さい最新の commit_ts のターゲット キーを読み取る必要があります。トランザクションがターゲット キーが別のトランザクションによってロックされていることを発見し、他のトランザクションがどのフェーズにあるかを知ることができない場合、読み取り/書き込み競合が発生します。図は次のとおりです。

read-write conflict

Txn0 は Prewrite フェーズを完了し、Commit フェーズに入ります。このとき、Txn1 は同じターゲット キーの読み取りを要求します。Txn1 は、start_ts よりも小さい最新の commit_ts のターゲット キーを読み取る必要があります。Txn1 の start_ts は Txn0 の lock_ts よりも大きいため、Txn1 はターゲット キーのロックが解除されるのを待つ必要がありますが、まだ解除されていません。その結果、Txn1 は Txn0 がコミットされたかどうかを確認できません。したがって、Txn1 と Txn0 の間で読み取りと書き込みの競合が発生します。

次の方法で、TiDB クラスター内の読み取り/書き込み競合を検出できます。

  1. TiDBサーバーのメトリックとログの監視

    • Grafana によるデータの監視

      TiDB ダッシュボードのKV Errorsパネルでは、 Lock Resolve OPSnot_expiredKV Backoff OPStikvLockFast resolveトランザクションの読み取り/書き込み競合を確認するために使用できる監視メトリックです。すべてのメトリックの値が増加すると、読み取り/書き込み競合が多く発生している可能性があります。13 not_expired項目は、トランザクションのロックがタイムアウトしていないことを意味します。15 resolve項目は、他のトランザクションがロックをクリーンアップしようとしていることを意味しますtikvLockFast項目は、読み取り/書き込み競合が発生していることを意味します。

      KV-backoff-txnLockFast-optimistic KV-Errors-resolve-optimistic

    • TiDBサーバーのログ

      読み取りと書き込みの競合がある場合は、TiDB ログに次のメッセージが表示されます。

      [INFO] [coprocessor.go:743] ["[TIME_COP_PROCESS] resp_time:406.038899ms txnStartTS:416643508703592451 region_id:8297 store_addr:10.8.1.208:20160 backoff_ms:255 backoff_types:[txnLockFast,txnLockFast] kv_process_ms:333 scan_total_write:0 scan_processed_write:0 scan_total_data:0 scan_processed_data:0 scan_total_lock:0 scan_processed_lock:0"]
      • txnStartTS: 読み取り要求を送信しているトランザクションの start_ts。上記のログでは、 416643508703592451が start_ts です。
      • backoff_types: 読み取り/書き込み競合が発生し、読み取り要求がバックオフと再試行を実行する場合、再試行のタイプはTxnLockFastになります。
      • backoff_ms: 読み取り要求がバックオフと再試行に要する時間。単位はミリ秒です。上記のログでは、読み取り要求はバックオフと再試行に 255 ミリ秒を費やしています。
      • region_id: 読み取り要求のターゲット キーに対応するリージョンID。
  2. TiKVサーバーのログ

    読み取りと書き込みの競合がある場合は、TiKV ログに次のメッセージが表示されます。

    [ERROR] [endpoint.rs:454] [error-response] [err=""locked primary_lock:7480000000000004D35F6980000000000000010380000000004C788E0380000000004C0748 lock_version: 411402933858205712 key: 7480000000000004D35F7280000000004C0748 lock_ttl: 3008 txn_size: 1""]

    このメッセージは、TiDB で読み取りと書き込みの競合が発生したことを示します。読み取り要求のターゲット キーは、別のトランザクションによってロックされています。ロックは、コミットされていない楽観的トランザクションと、事前書き込みフェーズ後のコミットされていない悲観的トランザクションによるものです。

    • primary_lock: ターゲット キーがプライマリ ロックによってロックされていることを示します。
    • lock_version: ロックを所有するトランザクションの start_ts。
    • key: ロックされる対象キー。
    • lock_ttl: ロックの TTL (Time To Live)
    • txn_size: ロックを所有するトランザクションのリージョン内にあるキーの数。

解決策:

  • 読み取り/書き込み競合が発生すると、自動的にバックオフと再試行が行われます。上記の例のように、Txn1 にはバックオフと再試行があります。再試行の最初の時間は 10 ミリ秒、最長の再試行は 3000 ミリ秒、合計時間は最大 20000 ミリ秒です。

  • TiDB コントロールのサブコマンドdecoderを使用して、指定したキーに対応する行のテーブル ID と行 ID を表示できます。

    ./tidb-ctl decoder "t\x00\x00\x00\x00\x00\x00\x00\x1c_r\x00\x00\x00\x00\x00\x00\x00\xfa" format: table_row table_id: -9223372036854775780 row_id: -9223372036854775558

KeyIsLocked エラー

トランザクションの Prewrite フェーズでは、TiDB は書き込み競合があるかどうかを確認し、次にターゲット キーが別のトランザクションによってロックされているかどうかを確認します。キーがロックされている場合、TiKVサーバーは「KeyIsLocked」エラーを出力します。現在、エラー メッセージは TiDB と TiKV のログに出力されません。読み取り書き込み競合と同様に、「KeyIsLocked」が発生すると、TiDB は自動的にトランザクションのバックオフと再試行を実行します。

Grafana の TiDB モニタリングで「KeyIsLocked」エラーがあるかどうかを確認できます。

TiDB ダッシュボードのKV Errorsパネルには、トランザクションによって発生した書き込み間の競合を確認するために使用できる 2 つの監視メトリックLock Resolve OPSKV Backoff OPSがあります。9 Lock Resolve OPS下のresolve項目とKV Backoff OPSの下のtxnLock項目に明らかな上昇傾向が見られる場合、「KeyIsLocked」エラーが発生します。15 resolveロックを解除しようとする操作を指し、 txnLock書き込みの競合を表します。

KV-backoff-txnLockFast-optimistic-01 KV-Errors-resolve-optimistic-01

解決策:

  • 監視中に txnLock が少量しか発生しない場合は、あまり注意を払う必要はありません。バックオフと再試行はバックグラウンドで自動的に実行されます。再試行の初回時間は 100 ミリ秒で、1 回の再試行の最大時間は 3000 ミリ秒です。
  • KV Backoff OPSに「txnLock」操作が多すぎる場合は、アプリケーション側から書き込み競合の原因を分析することをお勧めします。
  • アプリケーションが書き込み-書き込み競合シナリオである場合は、悲観的トランザクション モードを使用することを強くお勧めします。

LockNotFound エラー

「TxnLockNotFound」のエラー ログは、トランザクションのコミット時間が TTL 時間よりも長く、トランザクションをコミットしようとしたときに、そのロックが他のトランザクションによってロールバックされたことを意味します。TiDBサーバーがトランザクション コミットの再試行を有効にしている場合、このトランザクションはtidb_再試行制限に従って再実行されます。(明示的トランザクションと暗黙的トランザクションの違いに注意してください。)

「LockNotFound」エラーがあるかどうかは、次の方法で確認できます。

  1. TiDBサーバーのログをビュー

    「TxnLockNotFound」エラーが発生した場合、TiDB ログ メッセージは次のようになります。

    [WARN] [session.go:446] ["commit failed"] [conn=149370] ["finished txn"="Txn{state=invalid}"] [error="[kv:6]Error: KV error safe to retry tikv restarts txn: Txn(Mvcc(TxnLockNotFound{ start_ts: 412720515987275779, commit_ts: 412720519984971777, key: [116, 128, 0, 0, 0, 0, 1, 111, 16, 95, 114, 128, 0, 0, 0, 0, 0, 0, 2] })) [try again later]"]
    • start_ts: 他のトランザクションによってロックがロールバックされたためにTxnLockNotFoundエラーを出力したトランザクションの start_ts。上記のログでは、 412720515987275779が start_ts です。
    • commit_ts: TxnLockNotFoundエラーを出力したトランザクションの commit_ts。上記のログでは、 412720519984971777が commit_ts です。
  2. TiKVサーバーのログをビュー

    「TxnLockNotFound」エラーが発生した場合、TiKV ログ メッセージは次のようになります。

    Error: KV error safe to retry restarts txn: Txn(Mvcc(TxnLockNotFound)) [ERROR [Kv.rs:708] ["KvService::batch_raft send response fail"] [err=RemoteStoped]

解決策:

  • start_ts と commit_ts 間の時間間隔を確認することで、コミット時間が TTL 時間を超えているかどうかを確認できます。

    PD 制御ツールを使用して時間間隔を確認する:

    tiup ctl:v<CLUSTER_VERSION> pd tso [start_ts] tiup ctl:v<CLUSTER_VERSION> pd tso [commit_ts]
  • 書き込みパフォーマンスが遅いかどうかをチェックすることをお勧めします。書き込みパフォーマンスが遅いと、トランザクションのコミットの効率が低下し、ロックがクリアされる可能性があります。

  • TiDB トランザクションの再試行を無効にする場合は、アプリケーション側で例外をキャッチして再試行する必要があります。

悲観的ロックの競合のトラブルシューティング

このセクションでは、悲観的トランザクション モードでの一般的なロック競合の問題の解決策を示します。

注記:

悲観的トランザクション モードが設定されている場合でも、自動コミット トランザクションは最初に楽観的モードを使用してコミットを試行します。競合が発生した場合、トランザクションは自動再試行中に悲観的トランザクション モードに切り替わります。

読み取りと書き込みの競合

エラー メッセージと解決策は、楽観的ロックの競合の場合の読み取り書き込み競合と同じです。

悲観的ロック再試行制限に達しました

トランザクションの競合が非常に深刻な場合、または書き込みの競合が発生した場合、楽観的トランザクションは直接終了され、悲観的トランザクションは書き込みの競合がなくなるまでstorageからの最新のデータを使用してステートメントを再試行します。

TiDB のロック操作は書き込み操作であり、操作のプロセスは最初に読み取り、次に書き込みであるため、2 つの RPC 要求があります。トランザクションの途中で書き込みの競合が発生した場合、TiDB はターゲット キーのロックを再試行し、再試行のたびに TiDB ログに出力されます。再試行の回数はpessimistic-txn。max-retry-countで決まります。

悲観的トランザクション モードでは、書き込み競合が発生し、再試行回数が上限に達すると、次のキーワードを含むエラー メッセージが TiDB ログに表示されます。

err="pessimistic lock retry limit reached"

解決策:

  • 上記エラーが頻繁に発生する場合は、アプリケーション側からの調整をお勧めします。
  • 業務で同じ行 (同じキー) に対する同時ロックが多く、頻繁に競合が発生する場合は、システム変数tidb_pessimistic_txn_fair_lockingを有効にしてみてください。この変数を有効にすると、ロック競合のあるトランザクションのスループットがいくらか低下する (平均レイテンシーが増加する) 可能性があることに注意してください。新しく導入されたクラスターでは、この変数はデフォルトで有効になっています ( ON )。

ロック待機タイムアウトを超えました

悲観的トランザクション モードでは、トランザクションは互いのロックを待機します。ロックを待機するタイムアウトは、TiDB のinnodb_lock_wait_timeoutパラメータによって定義されます。これは、SQL ステートメント レベルでの最大ロック待機時間であり、SQL ステートメントがロックを期待しているが、ロックが取得されていない状態です。この時間が経過すると、TiDB は再度ロックを試行せず、対応するエラー メッセージをクライアントに返します。

待機ロックのタイムアウトが発生すると、次のエラー メッセージがクライアントに返されます。

ERROR 1205 (HY000): Lock wait timeout exceeded; try restarting transaction

解決策:

  • 上記のエラーが頻繁に発生する場合は、アプリケーションロジックを調整することをお勧めします。

TTLマネージャがタイムアウトしました

トランザクションの実行時間は、GC の時間制限を超えることはできません。また、悲観的トランザクションの TTL 時間には上限があり、そのデフォルト値は 1 時間です。したがって、1 時間を超えて実行された悲観的トランザクションはコミットに失敗します。このタイムアウトしきい値は、TiDB パラメータperformance.max-txn-ttlによって制御されます。

悲観的トランザクションの実行時間が TTL 時間を超えると、TiDB ログに次のエラー メッセージが表示されます。

TTL manager has timed out, pessimistic locks may expire, please commit or rollback this transaction

解決策:

  • まず、アプリケーション ロジックを最適化できるかどうかを確認します。たとえば、大規模なトランザクションでは TiDB のトランザクション サイズ制限がトリガーされる可能性があり、これを複数の小さなトランザクションに分割できます。
  • また、アプリケーションのトランザクション ロジックに合わせて関連パラメータを適切に調整することもできます。

ロックを取得しようとしたときにデッドロックが見つかりました

2 つ以上のトランザクション間でリソースが競合すると、デッドロックが発生します。手動で対処しないと、互いにブロックし合うトランザクションは正常に実行されず、永遠に待機することになります。デッドロックを解決するには、トランザクションの 1 つを手動で終了して、他のトランザクション要求を再開する必要があります。

悲観的トランザクションにデッドロックが発生した場合、デッドロックを解除するにはトランザクションの 1 つを終了する必要があります。クライアントは、MySQL の場合と同じError 1213エラーを返します。例:

[err="[executor:1213]Deadlock found when trying to get lock; try restarting transaction"]

解決策:

  • デッドロックの原因を確認するのが難しい場合は、v5.1 以降のバージョンでは、 INFORMATION_SCHEMA.DEADLOCKSまたはINFORMATION_SCHEMA.CLUSTER_DEADLOCKSシステム テーブルをクエリして、デッドロック待機チェーンの情報を取得することをお勧めします。詳細については、 デッドロックエラーセクションとDEADLOCKSテーブルのドキュメントを参照してください。
  • デッドロックが頻繁に発生する場合は、アプリケーション内のトランザクション クエリ ロジックを調整して、デッドロックの発生を減らす必要があります。

このページは役に立ちましたか?