- ドキュメント ホーム
- TiDBについて
- クイックスタート
- 発展させる
- 概要
- クイックスタート
- TiDB Cloud(開発者層) で TiDB クラスターを構築する
- TiDB の CRUD SQL
- TiDB でシンプルな CRUD アプリを構築する
- 応用例
- TiDB に接続する
- データベース スキーマの設計
- 書き込みデータ
- データの読み取り
- 取引
- 最適化
- トラブルシューティング
- 参照
- 書店のサンプル アプリケーション
- ガイドライン
- アーカイブされたドキュメント
- クラウドネイティブ開発環境
- サードパーティのサポート
- デプロイ
- 移行する
- 管理
- 監視と警告
- トラブルシューティング
- TiDB トラブルシューティング マップ
- 遅いクエリを特定する
- 遅いクエリを分析する
- SQL 診断
- Top SQLを使用して高価なクエリを特定する
- ログを使用して高価なクエリを特定する
- ステートメント要約表
- ホットスポットの問題のトラブルシューティング
- 増加した読み取りおよび書き込み遅延のトラブルシューティング
- クラスターのオンサイト情報の保存と復元
- クラスタ セットアップのトラブルシューティング
- 高いディスク I/O 使用率のトラブルシューティング
- ロック競合のトラブルシューティング
- TiFlash のトラブルシューティング
- オプティミスティック トランザクションでの書き込み競合のトラブルシューティング
- データとインデックス間の不一致のトラブルシューティング
- 性能チューニング
- チューニングガイド
- Configuration / コンフィグレーションのチューニング
- システムのチューニング
- ソフトウェアのチューニング
- Configuration / コンフィグレーション
- コプロセッサ キャッシュ
- SQL チューニング
- チュートリアル
- TiDB ツール
- 概要
- ユースケース
- ダウンロード
- TiUP
- ドキュメンテーション マップ
- 概要
- 用語と概念
- TiUP コンポーネントの管理
- FAQ
- トラブルシューティングガイド
- コマンドリファレンス
- 概要
- TiUP コマンド
- TiUP クラスタ コマンド
- 概要
- tiup cluster audit
- tiup cluster check
- tiup cluster clean
- tiup cluster deploy
- tiup cluster destroy
- tiup cluster disable
- tiup cluster display
- tiup cluster edit-config
- tiup cluster enable
- tiup cluster help
- tiup cluster import
- tiup cluster list
- tiup cluster patch
- tiup cluster prune
- tiup cluster reload
- tiup cluster rename
- tiup cluster replay
- tiup cluster restart
- tiup cluster scale-in
- tiup cluster scale-out
- tiup cluster start
- tiup cluster stop
- tiup cluster template
- tiup cluster upgrade
- TiUP DMコマンド
- TiDB クラスター トポロジ リファレンス
- DM クラスタ トポロジ リファレンス
- ミラー リファレンス ガイド
- TiUP コンポーネント
- PingCAPクリニック診断サービス
- TiDB Operator
- Dumpling
- TiDB Lightning
- TiDB データ移行
- バックアップと復元 (BR)
- Binlog
- TiCDC
- Dumpling
- 同期差分インスペクター
- ティスパーク
- 参照
- クラスタ アーキテクチャ
- 主な監視指標
- セキュリティ
- 権限
- SQL
- SQL 言語の構造と構文
- SQL ステートメント
ADD COLUMN
ADD INDEX
ADMIN
ADMIN CANCEL DDL
ADMIN CHECKSUM TABLE
ADMIN CHECK [TABLE|INDEX]
ADMIN SHOW DDL [JOBS|QUERIES]
ADMIN SHOW TELEMETRY
ALTER DATABASE
ALTER INDEX
ALTER INSTANCE
ALTER PLACEMENT POLICY
ALTER TABLE
ALTER TABLE COMPACT
ALTER USER
ANALYZE TABLE
BACKUP
BATCH
BEGIN
CHANGE COLUMN
COMMIT
CHANGE DRAINER
CHANGE PUMP
CREATE [GLOBAL|SESSION] BINDING
CREATE DATABASE
CREATE INDEX
CREATE PLACEMENT POLICY
CREATE ROLE
CREATE SEQUENCE
CREATE TABLE LIKE
CREATE TABLE
CREATE USER
CREATE VIEW
DEALLOCATE
DELETE
DESC
DESCRIBE
DO
DROP [GLOBAL|SESSION] BINDING
DROP COLUMN
DROP DATABASE
DROP INDEX
DROP PLACEMENT POLICY
DROP ROLE
DROP SEQUENCE
DROP STATS
DROP TABLE
DROP USER
DROP VIEW
EXECUTE
EXPLAIN ANALYZE
EXPLAIN
FLASHBACK TABLE
FLUSH PRIVILEGES
FLUSH STATUS
FLUSH TABLES
GRANT <privileges>
GRANT <role>
INSERT
KILL [TIDB]
LOAD DATA
LOAD STATS
MODIFY COLUMN
PREPARE
RECOVER TABLE
RENAME INDEX
RENAME TABLE
REPLACE
RESTORE
REVOKE <privileges>
REVOKE <role>
ROLLBACK
SELECT
SET DEFAULT ROLE
SET [NAMES|CHARACTER SET]
SET PASSWORD
SET ROLE
SET TRANSACTION
SET [GLOBAL|SESSION] <variable>
SHOW ANALYZE STATUS
SHOW [BACKUPS|RESTORES]
SHOW [GLOBAL|SESSION] BINDINGS
SHOW BUILTINS
SHOW CHARACTER SET
SHOW COLLATION
SHOW [FULL] COLUMNS FROM
SHOW CONFIG
SHOW CREATE PLACEMENT POLICY
SHOW CREATE SEQUENCE
SHOW CREATE TABLE
SHOW CREATE USER
SHOW DATABASES
SHOW DRAINER STATUS
SHOW ENGINES
SHOW ERRORS
SHOW [FULL] FIELDS FROM
SHOW GRANTS
SHOW INDEX [FROM|IN]
SHOW INDEXES [FROM|IN]
SHOW KEYS [FROM|IN]
SHOW MASTER STATUS
SHOW PLACEMENT
SHOW PLACEMENT FOR
SHOW PLACEMENT LABELS
SHOW PLUGINS
SHOW PRIVILEGES
SHOW [FULL] PROCESSSLIST
SHOW PROFILES
SHOW PUMP STATUS
SHOW SCHEMAS
SHOW STATS_HEALTHY
SHOW STATS_HISTOGRAMS
SHOW STATS_META
SHOW STATUS
SHOW TABLE NEXT_ROW_ID
SHOW TABLE REGIONS
SHOW TABLE STATUS
SHOW [FULL] TABLES
SHOW [GLOBAL|SESSION] VARIABLES
SHOW WARNINGS
SHUTDOWN
SPLIT REGION
START TRANSACTION
TABLE
TRACE
TRUNCATE
UPDATE
USE
WITH
- データ型
- 関数と演算子
- クラスタ化インデックス
- 制約
- 生成された列
- SQL モード
- テーブル属性
- 取引
- ガベージ コレクション (GC)
- ビュー
- パーティショニング
- 一時テーブル
- キャッシュされたテーブル
- 文字セットと照合順序
- SQL の配置規則
- システム テーブル
mysql
- 情報_スキーマ
- 概要
ANALYZE_STATUS
CLIENT_ERRORS_SUMMARY_BY_HOST
CLIENT_ERRORS_SUMMARY_BY_USER
CLIENT_ERRORS_SUMMARY_GLOBAL
CHARACTER_SETS
CLUSTER_CONFIG
CLUSTER_HARDWARE
CLUSTER_INFO
CLUSTER_LOAD
CLUSTER_LOG
CLUSTER_SYSTEMINFO
COLLATIONS
COLLATION_CHARACTER_SET_APPLICABILITY
COLUMNS
DATA_LOCK_WAITS
DDL_JOBS
DEADLOCKS
ENGINES
INSPECTION_RESULT
INSPECTION_RULES
INSPECTION_SUMMARY
KEY_COLUMN_USAGE
METRICS_SUMMARY
METRICS_TABLES
PARTITIONS
PLACEMENT_POLICIES
PROCESSLIST
REFERENTIAL_CONSTRAINTS
SCHEMATA
SEQUENCES
SESSION_VARIABLES
SLOW_QUERY
STATISTICS
TABLES
TABLE_CONSTRAINTS
TABLE_STORAGE_STATS
TIDB_HOT_REGIONS
TIDB_HOT_REGIONS_HISTORY
TIDB_INDEXES
TIDB_SERVERS_INFO
TIDB_TRX
TIFLASH_REPLICA
TIKV_REGION_PEERS
TIKV_REGION_STATUS
TIKV_STORE_STATUS
USER_PRIVILEGES
VIEWS
METRICS_SCHEMA
- UI
- TiDB ダッシュボード
- 概要
- 管理
- アクセス
- 概要ページ
- クラスター情報ページ
- Top SQLページ
- キー ビジュアライザー ページ
- メトリクス関係グラフ
- SQL ステートメントの分析
- スロークエリページ
- クラスタ診断
- 検索ログ ページ
- インスタンスのプロファイリング
- セッションの管理とConfiguration / コンフィグレーション
- FAQ
- CLI
- コマンド ライン フラグ
- Configuration / コンフィグレーションファイルのパラメーター
- システム変数
- ストレージ エンジン
- テレメトリー
- エラーコード
- テーブル フィルター
- トポロジ ラベルごとにレプリカをスケジュールする
- よくある質問
- リリースノート
- すべてのリリース
- リリースのタイムライン
- TiDB のバージョニング
- v6.1
- v6.0
- v5.4
- v5.3
- v5.2
- v5.1
- v5.0
- v4.0
- v3.1
- v3.0
- v2.1
- v2.0
- v1.0
- 用語集
TiFlashクラスターのトラブルシューティング
このセクションでは、TiFlashを使用するときによく発生する問題、その理由、および解決策について説明します。
TiFlashの起動に失敗する
この問題は、さまざまな理由で発生する可能性があります。以下の手順に従ってトラブルシューティングを行うことをお勧めします。
システムがCentOS8であるかどうかを確認してください。
CentOS8には
libnsl.so
のシステムライブラリがありません。次のコマンドを使用して手動でインストールできます。dnf install libnsl
システムの
ulimit
パラメータ設定を確認してください。ulimit -n 1000000
PD Controlツールを使用して、ノード(同じIPとポート)でオフラインに失敗したTiFlashインスタンスがあるかどうかを確認し、インスタンスを強制的にオフラインにします。詳細な手順については、 TiFlashクラスタでのスケーリングを参照してください。
上記の方法で問題を解決できない場合は、TiFlashログファイルと電子メールをinfo@pingcap.comに保存して詳細を確認してください。
TiFlashレプリカは常に利用できません
これは、TiFlashが構成エラーまたは環境問題によって異常な状態にあるためです。障害のあるコンポーネントを特定するには、次の手順を実行します。
PDが
Placement Rules
つの機能を有効にしているかどうかを確認します。echo 'config show replication' | /path/to/pd-ctl -u http://${pd-ip}:${pd-port}
true
が返された場合は、次の手順に進みます。false
が返された場合は、 配置ルール機能を有効にするを押して、次の手順に進みます。
TiFlash-Summary監視パネルで
UpTime
を表示して、TiFlashプロセスが正しく機能しているかどうかを確認します。TiFlashプロキシのステータスが
pd-ctl
まで正常かどうかを確認します。echo "store" | /path/to/pd-ctl -u http://${pd-ip}:${pd-port}
TiFlashプロキシの
store.labels
には、{"key": "engine", "value": "tiflash"}
などの情報が含まれています。この情報を確認して、TiFlashプロキシを確認できます。pd buddy
がログを正しく印刷できるかどうかを確認します(ログパスは[flash.flash_cluster]構成アイテムの値log
です。デフォルトのログパスは、TiFlash構成ファイルで構成されたtmp
ディレクトリの下にあります)。構成されたレプリカの数がクラスタのTiKVノードの数以下であるかどうかを確認します。そうでない場合、PDはデータをTiFlashに複製できません。
echo 'config placement-rules show' | /path/to/pd-ctl -u http://${pd-ip}:${pd-port}
default: count
の値を再確認します。ノート:
配置ルール機能を有効にすると、以前に構成した
max-replicas
とlocation-labels
は無効になります。レプリカポリシーを調整するには、配置ルールに関連するインターフェイスを使用します。マシンの残りのディスク容量(TiFlashノードの
store
)が十分かどうかを確認します。デフォルトでは、残りのディスク容量がstore
容量の20%未満の場合(low-space-ratio
パラメーターによって制御されます)、PDはこのTiFlashノードにデータをスケジュールできません。
TiFlashクエリ時間は不安定であり、エラーログは多くのLock Exception
メッセージを出力します
これは、大量のデータがクラスタに書き込まれるため、TiFlashクエリでロックが発生し、クエリの再試行が必要になるためです。
TiDBでは、クエリのタイムスタンプを1秒前に設定できます。たとえば、現在の時刻が「2020-04-08 20:15:01」の場合、クエリを実行する前にset @@tidb_snapshot='2020-04-08 20:15:00';
を実行できます。これにより、TiFlashクエリでロックが発生することが少なくなり、クエリ時間が不安定になるリスクが軽減されます。
一部のクエリは、 Region Unavailable
エラーを返します
TiFlashの負荷圧力が大きすぎて、TiFlashデータレプリケーションが遅れる場合、一部のクエリはRegion Unavailable
エラーを返す可能性があります。
この場合、TiFlashノードを追加することで負荷圧力のバランスをとることができます。
データファイルの破損
データファイルの破損を処理するには、次の手順を実行します。
- 対応するTiFlashノードを停止するには、 TiFlashノードを停止しますを参照してください。
- TiFlashノードの関連データを削除します。
- TiFlashノードをクラスタに再デプロイします。
TiFlash分析が遅い
ステートメントにMPPモードでサポートされていない演算子または関数が含まれている場合、TiDBはMPPモードを選択しません。したがって、ステートメントの分析は遅くなります。この場合、 EXPLAIN
ステートメントを実行して、MPPモードでサポートされていない演算子または関数を確認できます。
create table t(a datetime);
alter table t set tiflash replica 1;
insert into t values('2022-01-13');
set @@session.tidb_enforce_mpp=1;
explain select count(*) from t where subtime(a, '12:00:00') > '2022-01-01' group by a;
show warnings;
この例では、警告メッセージは、TiDB 5.4以前のバージョンがsubtime
機能をサポートしていないため、TiDBがMPPモードを選択しないことを示しています。
+---------+------+-----------------------------------------------------------------------------+
> | Level | Code | Message |
+---------+------+-----------------------------------------------------------------------------+
| Warning | 1105 | Scalar function 'subtime'(signature: SubDatetimeAndString, return type: datetime) is not supported to push down to tiflash now. |
+---------+------+-----------------------------------------------------------------------------+
データはTiFlashに複製されません
TiFlashノードをデプロイしてレプリケーションを開始した後(ALTER操作を実行することにより)、データはそのノードにレプリケートされません。この場合、以下の手順に従って問題を特定して対処できます。
ALTER table <tbl_name> set tiflash replica <num>
コマンドを実行してレプリケーションが成功したかどうかを確認し、出力を確認します。- 出力がある場合は、次の手順に進みます。
- 出力がない場合は、
SELECT * FROM information_schema.tiflash_replica
コマンドを実行して、TiFlashレプリカが作成されているかどうかを確認します。そうでない場合は、ALTER table ${tbl_name} set tiflash replica ${num}
コマンドを再度実行するか、他のステートメント(たとえば、add index
)が実行されたかどうかを確認するか、DDLの実行が成功したかどうかを確認します。
TiFlashプロセスが正しく実行されているかどうかを確認します。
progress
ファイルのflash_region_count
パラメータ、およびtiflash_cluster_manager.log
監視項目Uptime
に変更があるかどうかを確認します。- はいの場合、TiFlashプロセスは正しく実行されます。
- いいえの場合、TiFlashプロセスは異常です。詳細については、
tiflash
のログを確認してください。
pd-ctlを使用して、 配置ルールの機能が有効になっているかどうかを確認します。
echo 'config show replication' | /path/to/pd-ctl -u http://<pd-ip>:<pd-port>
true
が返された場合は、次の手順に進みます。false
が返された場合は、 配置ルール機能を有効にするを押して、次の手順に進みます。
max-replicas
の構成が正しいかどうかを確認します。値
max-replicas
がクラスタのTiKVノードの数を超えない場合は、次の手順に進みます。値
max-replicas
がクラスタのTiKVノードの数より大きい場合、PDはデータをTiFlashノードに複製しません。この問題に対処するには、max-replicas
をクラスタのTiKVノードの数以下の整数に変更します。
ノート:
max-replicas
はデフォルトで3になります。実稼働環境では、値は通常TiKVノードの数よりも少なくなります。テスト環境では、値は1にすることができます。curl -X POST -d '{ "group_id": "pd", "id": "default", "start_key": "", "end_key": "", "role": "voter", "count": 3, "location_labels": [ "host" ] }' <http://172.16.x.xxx:2379/pd/api/v1/config/rule>
TiDBまたはPDとTiFlash間の接続が正常かどうかを確認します。
flash_cluster_manager.log
ファイルでERROR
キーワードを検索します。ERROR
が見つからない場合、接続は正常です。次のステップに進みます。ERROR
が見つかった場合、接続は異常です。以下の確認を行ってください。ログにPDキーワードが記録されているかどうかを確認します。
PDキーワードが見つかった場合は、TiFlash構成ファイルの
raft.pd_addr
が有効かどうかを確認してください。具体的には、curl '{pd-addr}/pd/api/v1/config/rules'
コマンドを実行し、5秒以内に出力があるかどうかを確認します。ログにTiDB関連のキーワードが記録されているかどうかを確認します。
TiDBキーワードが見つかった場合は、TiFlash構成ファイルの
flash.tidb_status_addr
が有効かどうかを確認してください。具体的には、curl '{tidb-status-addr}/tiflash/replica'
コマンドを実行し、5秒以内に出力があるかどうかを確認します。ノードが相互にpingできるかどうかを確認します。
ノート:
問題が解決しない場合は、トラブルシューティングのために対応するコンポーネントのログを収集します。
テーブルに
placement-rule
が作成されているかどうかを確認します。flash_cluster_manager.log
ファイルでSet placement rule … table-<table_id>-r
キーワードを検索します。- キーワードが見つかった場合は、次の手順に進みます。
- そうでない場合は、トラブルシューティングのために対応するコンポーネントのログを収集します。
PDが適切にスケジュールされているかどうかを確認します。
pd.log
のファイルでtable-<table_id>-r
のキーワードを検索し、add operator
のような動作をスケジュールします。- キーワードが見つかった場合、PDは適切にスケジュールします。
- そうでない場合、PDは適切にスケジュールされません。ヘルプが必要な場合は、PingCAPテクニカルサポートにお問い合わせください。
データレプリケーションがスタックする
TiFlashでのデータ複製が正常に開始されたが、一定期間後にすべてまたは一部のデータが複製されなかった場合は、次の手順を実行して問題を確認または解決できます。
ディスク容量を確認してください。
ディスクスペースの比率が値
low-space-ratio
(デフォルトは0.8。ノードのスペース使用量が80%を超えると、ディスクスペースの枯渇を防ぐためにPDはこのノードへのデータの移行を停止します)より大きいかどうかを確認します。- ディスク使用率が
low-space-ratio
以上の場合、ディスク容量が不足しています。ディスク容量を減らすには、${data}/flash/
フォルダの下にあるspace_placeholder_file
などの不要なファイルを削除します(必要に応じて、ファイルを削除した後、reserve-space
を0MBに設定します)。 - ディスク使用率が
low-space-ratio
の値よりも小さい場合は、ディスク容量で十分です。次のステップに進みます。
- ディスク使用率が
TiKV、TiFlash、PD間のネットワーク接続を確認してください。
flash_cluster_manager.log
で、スタックしたテーブルに対応するflash_region_count
への新しい更新があるかどうかを確認します。いいえの場合は、次の手順に進みます。
はいの場合、
down peer
を検索します(ダウンしているピアがあるとレプリケーションがスタックします)。pd-ctl region check-down-peer
を実行してdown peer
を検索します。down peer
が見つかった場合は、pd-ctl operator add remove-peer\<region-id> \<tiflash-store-id>
を実行して削除します。
CPU使用率を確認してください。
Grafanaで、 TiFlash-Proxy-Details > Thread CPU > Regiontaskworkerのリージョンハンドル/スナップショットCPUの生成を選択します。
<instance-ip>:<instance-port>-region-worker
のCPU使用率を確認します。曲線が直線の場合、TiFlashノードはスタックしています。 TiFlashプロセスを終了して再起動するか、PingCAPテクニカルサポートに問い合わせてください。
データ複製が遅い
原因はさまざまです。次の手順を実行することで、問題に対処できます。
スケジューリングパラメータの値を調整します。
store limit
を増やすと、レプリケーションが高速化されます。config set patrol-region-interval 10ms
を減らすと、TiKVでリージョンのチェッカースキャンがより頻繁になります。region merge
を増やすと、リージョンの数が減ります。つまり、スキャンが少なくなり、チェック頻度が高くなります。
TiFlshの負荷を調整します。
TiFlashの負荷が高すぎると、レプリケーションが遅くなる可能性もあります。 GrafanaのTiFlash-SummaryパネルでTiFlashインジケーターの負荷を確認できます。
Applying snapshots Count
:TiFlash-summary
>raft
>Applying snapshots Count
Snapshot Predecode Duration
:TiFlash-summary
>raft
>Snapshot Predecode Duration
Snapshot Flush Duration
:TiFlash-summary
>raft
>Snapshot Flush Duration
Write Stall Duration
:TiFlash-summary
>Storage Write Stall
>Write Stall Duration
generate snapshot CPU
:TiFlash-Proxy-Details
>Thread CPU
>Region task worker pre-handle/generate snapshot CPU
サービスの優先順位に基づいて、それに応じて負荷を調整し、最適なパフォーマンスを実現します。