TiDB Lightningエラー解決
v5.4.0 以降では、無効な型変換や一意のキーの競合などのエラーをスキップし、それらの間違った行データが存在しないかのようにデータ処理を続行するようにTiDB Lightning を構成できます。後で読み取って手動でエラーを修正するためのレポートが生成されます。これは、手動でエラーを見つけるのが難しく、発生するたびにTiDB Lightning を再起動するとコストがかかる、やや汚れたデータ ソースからのインポートに最適です。
このドキュメントでは、 TiDB Lightning のエラーの種類、エラーをクエリする方法、および例を紹介します。関係する構成項目は次のとおりです。
lightning.max-error
: 型エラーの許容閾値conflict.strategy
:conflict.threshold
するデータに関連するconflict.max-record-rows
tikv-importer.duplicate-resolution
(v8.0.0 では非推奨となり、将来のリリースでは削除される予定): 物理インポート モードでのみ使用できる競合処理構成lightning.task-info-schema-name
: TiDB Lightningが競合を検出したときに競合するデータが保存されるデータベース
詳細についてはTiDB Lightning (タスク)参照してください。
入力エラー
lightning.max-error
構成を使用すると、データ型に関連するエラーの許容範囲を広げることができます。この構成をNに設定すると、 TiDB Lightning は、データ ソースが存在する前に最大N個のタイプのエラーを許可してスキップします。デフォルト値0
は、エラーが許可されないことを意味します。
これらのエラーはデータベースに記録されます。インポートが完了したら、データベース内のエラーを確認して手動で処理することができます。詳細については、 エラーレポート参照してください。
[lightning]
max-error = 0
上記の構成では、次のエラーがカバーされます。
- 無効な値 (例: INT 列に
'Text'
設定します)。 - 数値オーバーフロー(例:TINYINT 列に
500
設定する) - 文字列オーバーフロー(例:VARCHAR(5)列に
'Very Long Text'
設定します)。 - 日付と時刻がゼロ (つまり
'0000-00-00'
と'2021-12-00'
)。 - NOT NULL 列に NULL を設定します。
- 生成された列式の評価に失敗しました。
- カラム数が一致しません。行内の値の数がテーブルの列数と一致しません。
- その他の SQL エラー。
以下のエラーは常に致命的であり、 lightning.max-error
変更してもスキップすることはできません。
- 元の CSV、SQL、または Parquet ファイルの構文エラー (閉じていない引用符など)。
- I/O、ネットワーク、またはシステムの権限エラー。
競合エラー
conflict.threshold
構成項目を使用すると、データの競合に関連するエラーの許容度を高めることができます。この構成項目をNに設定すると、 TiDB Lightning はデータ ソースから最大 N 個の競合エラーを許可し、終了する前にスキップします。デフォルト値は10000
で、これは 10000 個のエラーが許容されることを意味します。
これらのエラーはテーブルに記録されます。インポートが完了したら、データベース内のエラーを確認して手動で処理することができます。詳細については、 エラーレポート参照してください。
エラーレポート
TiDB Lightning がインポート中にエラーに遭遇した場合、終了時にターミナルとログ ファイルの両方にこれらのエラーに関する統計サマリーが出力されます。
ターミナルのエラー レポートは次の表のようになります。
エラーの種類 エラー数 エラーデータテーブル 1 データタイプ 1000 lightning_task_info
.type_error_v1
TiDB Lightningログ ファイル内のエラー レポートは次のとおりです。
[2022/03/13 05:33:57.736 +08:00] [WARN] [errormanager.go:459] ["Detect 1000 data type errors in total, please refer to table `lightning_task_info`.`type_error_v1` for more details"]
すべてのエラーは、ダウンストリーム TiDB クラスターのlightning_task_info
のデータベース内のテーブルに書き込まれます。インポートが完了した後、エラー データが収集されると、データベース内のエラーを表示して手動で処理できます。
lightning.task-info-schema-name
設定することでデータベース名を変更できます。
[lightning]
task-info-schema-name = 'lightning_task_info'
TiDB Lightning はこのデータベースに 3 つのテーブルと 1 つのビューを作成します。
CREATE TABLE type_error_v1 (
task_id bigint NOT NULL,
create_time datetime(6) NOT NULL DEFAULT now(6),
table_name varchar(261) NOT NULL,
path varchar(2048) NOT NULL,
offset bigint NOT NULL,
error text NOT NULL,
row_data text NOT NULL
);
CREATE TABLE conflict_error_v3 (
task_id bigint NOT NULL,
create_time datetime(6) NOT NULL DEFAULT now(6),
table_name varchar(261) NOT NULL,
index_name varchar(128) NOT NULL,
key_data text NOT NULL,
row_data text NOT NULL,
raw_key mediumblob NOT NULL,
raw_value mediumblob NOT NULL,
raw_handle mediumblob NOT NULL,
raw_row mediumblob NOT NULL,
kv_type tinyint NOT NULL,
INDEX (task_id, table_name),
INDEX (index_name),
INDEX (table_name, index_name),
INDEX (kv_type)
);
CREATE TABLE conflict_records (
task_id bigint NOT NULL,
create_time datetime(6) NOT NULL DEFAULT now(6),
table_name varchar(261) NOT NULL,
path varchar(2048) NOT NULL,
offset bigint NOT NULL,
error text NOT NULL,
row_id bigint NOT NULL COMMENT 'the row id of the conflicted row',
row_data text NOT NULL COMMENT 'the row data of the conflicted row',
KEY (task_id, table_name)
);
CREATE VIEW conflict_view AS
SELECT 0 AS is_precheck_conflict, task_id, create_time, table_name, index_name, key_data, row_data, raw_key, raw_value, raw_handle, raw_row, kv_type, NULL AS path, NULL AS offset, NULL AS error, NULL AS row_id
FROM conflict_error_v3
UNION ALL
SELECT 1 AS is_precheck_conflict, task_id, create_time, table_name, NULL AS index_name, NULL AS key_data, row_data, NULL AS raw_key, NULL AS raw_value, NULL AS raw_handle, NULL AS raw_row, NULL AS kv_type, path, offset, error, row_id
FROM conflict_records;
type_error_v1
テーブルには、 lightning.max-error
によって管理される入力エラーすべてが記録されます。各エラーは 1 行に対応します。
conflict_error_v3
テーブルには、物理インポート モードでconflict
構成グループによって管理される、ポストプロセス競合検出中に検出された競合が記録されます。競合の各ペアは 2 つの行に対応します。
conflict_records
テーブルには、インポート前の競合検出中に検出された競合が記録され、論理インポート モードと物理インポート モードの両方でconflict
構成グループによって管理されます。各エラーは 1 行に対応します。
conflict_view
ビューには、インポート前とインポート後の競合検出の両方で検出された競合が記録され、論理インポート モードと物理インポート モードの両方でconflict
構成グループによって管理されます。このビューは、 conflict_error_v3
テーブルとconflict_records
テーブルに対してUNION
操作を実行することによって作成されます。
カラム | 構文 | タイプ | 対立 | 説明 |
---|---|---|---|---|
タスクID | ✓ | ✓ | ✓ | このエラーを生成するTiDB Lightningタスク ID |
作成時間 | ✓ | ✓ | ✓ | エラーが記録された時刻 |
テーブル名 | ✓ | ✓ | ✓ | エラーを含むテーブルの名前( '`db`.`tbl`' の形式) |
パス | ✓ | ✓ | エラーを含むファイルのパス | |
オフセット | ✓ | ✓ | ファイル内でエラーが見つかったバイト位置 | |
エラー | ✓ | ✓ | エラーメッセージ | |
コンテクスト | ✓ | エラーを囲むテキスト | ||
インデックス名 | ✓ | 競合している一意キーの名前。主キーの競合の場合は'PRIMARY' なります。 | ||
キーデータ | ✓ | エラーの原因となった行のフォーマットされたキー ハンドル。このコンテンツは、人間が参照するためのものであり、機械が読み取り可能なものではありません。 | ||
行データ | ✓ | ✓ | エラーの原因となったフォーマットされた行データ。この内容は人間が参照するためのものであり、機械が判読できるようには設計されていません。 | |
生のキー | ✓ | 競合するKVペアのキー | ||
生の値 | ✓ | 競合するKVペアの値 | ||
生のハンドル | ✓ | 競合した行の行ハンドル | ||
生の行 | ✓ | 競合行のエンコードされた値 |
注記:
エラー レポートには、取得するのが非効率的な行/列番号ではなく、ファイル オフセットが記録されます。次のコマンドを使用して、バイト位置 (例として 183 を使用) の近くにすばやくジャンプできます。
シェル、最初の数行を出力します。
head -c 183 file.csv | tailシェルは、次の数行を出力します。
tail -c +183 file.csv | headvim —
:goto 183
または183go
例
この例では、いくつかの既知のエラーを含むデータ ソースが準備されています。
データベースとテーブル スキーマを準備します。
mkdir example && cd example echo 'CREATE SCHEMA example;' > example-schema-create.sql echo 'CREATE TABLE t(a TINYINT PRIMARY KEY, b VARCHAR(12) NOT NULL UNIQUE);' > example.t-schema.sqlデータを準備します。
cat <<EOF > example.t.1.sql INSERT INTO t (a, b) VALUES (0, NULL), -- column is NOT NULL (1, 'one'), (2, 'two'), (40, 'forty'), -- conflicts with the other 40 below (54, 'fifty-four'), -- conflicts with the other 'fifty-four' below (77, 'seventy-seven'), -- the string is longer than 12 characters (600, 'six hundred'), -- the number overflows TINYINT (40, 'forty'), -- conflicts with the other 40 above (42, 'fifty-four'); -- conflicts with the other 'fifty-four' above EOFTiDB Lightning を構成して、厳密な SQL モードを有効にし、ローカル バックエンドを使用してデータをインポートし、重複を置き換え、最大 10 個のエラーをスキップします。
cat <<EOF > config.toml [lightning] max-error = 10 [tikv-importer] backend = 'local' sorted-kv-dir = '/tmp/lightning-tmp/' [conflict] strategy = 'replace' [mydumper] data-source-dir = '.' [tidb] host = '127.0.0.1' port = 4000 user = 'root' password = '' sql-mode = 'STRICT_TRANS_TABLES,NO_ZERO_IN_DATE,NO_ZERO_DATE' EOFTiDB Lightningを実行します。すべてのエラーがスキップされるため、このコマンドは正常に終了します。
tiup tidb-lightning -c config.tomlインポートされたテーブルに次の 2 つの通常の行のみが含まれていることを確認します。
$ mysql -u root -h 127.0.0.1 -P 4000 -e 'select * from example.t' +---+-----+ | a | b | +---+-----+ | 1 | one | | 2 | two | +---+-----+type_error_v1
テーブルに型変換に関連する 3 つの行が含まれているかどうかを確認します。$ mysql -u root -h 127.0.0.1 -P 4000 -e 'select * from lightning_task_info.type_error_v1;' -E *************************** 1. row *************************** task_id: 1635888701843303564 create_time: 2021-11-02 21:31:42.620090 table_name: `example`.`t` path: example.t.1.sql offset: 46 error: failed to cast value as varchar(12) CHARACTER SET utf8mb4 COLLATE utf8mb4_bin for column `b` (#2): [table:1048]Column 'b' cannot be null row_data: (0,NULL) *************************** 2. row *************************** task_id: 1635888701843303564 create_time: 2021-11-02 21:31:42.627496 table_name: `example`.`t` path: example.t.1.sql offset: 183 error: failed to cast value as varchar(12) CHARACTER SET utf8mb4 COLLATE utf8mb4_bin for column `b` (#2): [types:1406]Data Too Long, field len 12, data len 13 row_data: (77,'seventy-seven') *************************** 3. row *************************** task_id: 1635888701843303564 create_time: 2021-11-02 21:31:42.629929 table_name: `example`.`t` path: example.t.1.sql offset: 253 error: failed to cast value as tinyint for column `a` (#1): [types:1690]constant 600 overflows tinyint row_data: (600,'six hundred')conflict_error_v3
テーブルに、一意/主キーの競合がある 4 つの行が含まれているかどうかを確認します。$ mysql -u root -h 127.0.0.1 -P 4000 -e 'select * from lightning_task_info.conflict_error_v3;' --binary-as-hex -E *************************** 1. row *************************** task_id: 1635888701843303564 create_time: 2021-11-02 21:31:42.669601 table_name: `example`.`t` index_name: PRIMARY key_data: 40 row_data: (40, "forty") raw_key: 0x7480000000000000C15F728000000000000028 raw_value: 0x800001000000020500666F727479 raw_handle: 0x7480000000000000C15F728000000000000028 raw_row: 0x800001000000020500666F727479 *************************** 2. row *************************** task_id: 1635888701843303564 create_time: 2021-11-02 21:31:42.674798 table_name: `example`.`t` index_name: PRIMARY key_data: 40 row_data: (40, "forty") raw_key: 0x7480000000000000C15F728000000000000028 raw_value: 0x800001000000020600666F75727479 raw_handle: 0x7480000000000000C15F728000000000000028 raw_row: 0x800001000000020600666F75727479 *************************** 3. row *************************** task_id: 1635888701843303564 create_time: 2021-11-02 21:31:42.680332 table_name: `example`.`t` index_name: b key_data: 54 row_data: (54, "fifty-four") raw_key: 0x7480000000000000C15F6980000000000000010166696674792D666FFF7572000000000000F9 raw_value: 0x0000000000000036 raw_handle: 0x7480000000000000C15F728000000000000036 raw_row: 0x800001000000020A0066696674792D666F7572 *************************** 4. row *************************** task_id: 1635888701843303564 create_time: 2021-11-02 21:31:42.681073 table_name: `example`.`t` index_name: b key_data: 42 row_data: (42, "fifty-four") raw_key: 0x7480000000000000C15F6980000000000000010166696674792D666FFF7572000000000000F9 raw_value: 0x000000000000002A raw_handle: 0x7480000000000000C15F72800000000000002A raw_row: 0x800001000000020A0066696674792D666F7572