- TiDBについて
- クイックスタート
- 発展させる
- 概要
- クイックスタート
- TiDB Cloud(開発者層) で TiDB クラスターを構築する
- TiDB の CRUD SQL
- TiDB でシンプルな CRUD アプリを構築する
- 応用例
- TiDB に接続する
- データベース スキーマの設計
- 書き込みデータ
- データの読み取り
- 取引
- 最適化
- トラブルシューティング
- 参照
- 書店のサンプル アプリケーション
- ガイドライン
- アーカイブされたドキュメント
- クラウドネイティブ開発環境
- サードパーティのサポート
- デプロイ
- 移行する
- 管理
- 監視と警告
- トラブルシューティング
- TiDB トラブルシューティング マップ
- 遅いクエリを特定する
- 遅いクエリを分析する
- SQL 診断
- Top SQLを使用して高価なクエリを特定する
- ログを使用して高価なクエリを特定する
- ステートメント要約表
- ホットスポットの問題のトラブルシューティング
- 増加した読み取りおよび書き込み遅延のトラブルシューティング
- クラスターのオンサイト情報の保存と復元
- クラスタ セットアップのトラブルシューティング
- 高いディスク I/O 使用率のトラブルシューティング
- ロック競合のトラブルシューティング
- TiFlash のトラブルシューティング
- オプティミスティック トランザクションでの書き込み競合のトラブルシューティング
- データとインデックス間の不一致のトラブルシューティング
- 性能チューニング
- チューニングガイド
- Configuration / コンフィグレーションのチューニング
- システムのチューニング
- ソフトウェアのチューニング
- Configuration / コンフィグレーション
- コプロセッサ キャッシュ
- SQL チューニング
- チュートリアル
- TiDB ツール
- 概要
- ユースケース
- ダウンロード
- TiUP
- ドキュメンテーション マップ
- 概要
- 用語と概念
- TiUP コンポーネントの管理
- FAQ
- トラブルシューティングガイド
- コマンドリファレンス
- 概要
- TiUP コマンド
- TiUP クラスタ コマンド
- 概要
- tiup cluster audit
- tiup cluster check
- tiup cluster clean
- tiup cluster deploy
- tiup cluster destroy
- tiup cluster disable
- tiup cluster display
- tiup cluster edit-config
- tiup cluster enable
- tiup cluster help
- tiup cluster import
- tiup cluster list
- tiup cluster patch
- tiup cluster prune
- tiup cluster reload
- tiup cluster rename
- tiup cluster replay
- tiup cluster restart
- tiup cluster scale-in
- tiup cluster scale-out
- tiup cluster start
- tiup cluster stop
- tiup cluster template
- tiup cluster upgrade
- TiUP DMコマンド
- TiDB クラスター トポロジ リファレンス
- DM クラスタ トポロジ リファレンス
- ミラー リファレンス ガイド
- TiUP コンポーネント
- PingCAPクリニック診断サービス
- TiDB Operator
- Dumpling
- TiDB Lightning
- TiDB データ移行
- バックアップと復元 (BR)
- Binlog
- TiCDC
- Dumpling
- 同期差分インスペクター
- ティスパーク
- 参照
- クラスタ アーキテクチャ
- 主な監視指標
- セキュリティ
- 権限
- SQL
- SQL 言語の構造と構文
- SQL ステートメント
ADD COLUMN
ADD INDEX
ADMIN
ADMIN CANCEL DDL
ADMIN CHECKSUM TABLE
ADMIN CHECK [TABLE|INDEX]
ADMIN SHOW DDL [JOBS|QUERIES]
ADMIN SHOW TELEMETRY
ALTER DATABASE
ALTER INDEX
ALTER INSTANCE
ALTER PLACEMENT POLICY
ALTER TABLE
ALTER TABLE COMPACT
ALTER USER
ANALYZE TABLE
BACKUP
BATCH
BEGIN
CHANGE COLUMN
COMMIT
CHANGE DRAINER
CHANGE PUMP
CREATE [GLOBAL|SESSION] BINDING
CREATE DATABASE
CREATE INDEX
CREATE PLACEMENT POLICY
CREATE ROLE
CREATE SEQUENCE
CREATE TABLE LIKE
CREATE TABLE
CREATE USER
CREATE VIEW
DEALLOCATE
DELETE
DESC
DESCRIBE
DO
DROP [GLOBAL|SESSION] BINDING
DROP COLUMN
DROP DATABASE
DROP INDEX
DROP PLACEMENT POLICY
DROP ROLE
DROP SEQUENCE
DROP STATS
DROP TABLE
DROP USER
DROP VIEW
EXECUTE
EXPLAIN ANALYZE
EXPLAIN
FLASHBACK TABLE
FLUSH PRIVILEGES
FLUSH STATUS
FLUSH TABLES
GRANT <privileges>
GRANT <role>
INSERT
KILL [TIDB]
LOAD DATA
LOAD STATS
MODIFY COLUMN
PREPARE
RECOVER TABLE
RENAME INDEX
RENAME TABLE
REPLACE
RESTORE
REVOKE <privileges>
REVOKE <role>
ROLLBACK
SELECT
SET DEFAULT ROLE
SET [NAMES|CHARACTER SET]
SET PASSWORD
SET ROLE
SET TRANSACTION
SET [GLOBAL|SESSION] <variable>
SHOW ANALYZE STATUS
SHOW [BACKUPS|RESTORES]
SHOW [GLOBAL|SESSION] BINDINGS
SHOW BUILTINS
SHOW CHARACTER SET
SHOW COLLATION
SHOW [FULL] COLUMNS FROM
SHOW CONFIG
SHOW CREATE PLACEMENT POLICY
SHOW CREATE SEQUENCE
SHOW CREATE TABLE
SHOW CREATE USER
SHOW DATABASES
SHOW DRAINER STATUS
SHOW ENGINES
SHOW ERRORS
SHOW [FULL] FIELDS FROM
SHOW GRANTS
SHOW INDEX [FROM|IN]
SHOW INDEXES [FROM|IN]
SHOW KEYS [FROM|IN]
SHOW MASTER STATUS
SHOW PLACEMENT
SHOW PLACEMENT FOR
SHOW PLACEMENT LABELS
SHOW PLUGINS
SHOW PRIVILEGES
SHOW [FULL] PROCESSSLIST
SHOW PROFILES
SHOW PUMP STATUS
SHOW SCHEMAS
SHOW STATS_HEALTHY
SHOW STATS_HISTOGRAMS
SHOW STATS_META
SHOW STATUS
SHOW TABLE NEXT_ROW_ID
SHOW TABLE REGIONS
SHOW TABLE STATUS
SHOW [FULL] TABLES
SHOW [GLOBAL|SESSION] VARIABLES
SHOW WARNINGS
SHUTDOWN
SPLIT REGION
START TRANSACTION
TABLE
TRACE
TRUNCATE
UPDATE
USE
WITH
- データ型
- 関数と演算子
- クラスタ化インデックス
- 制約
- 生成された列
- SQL モード
- テーブル属性
- 取引
- ガベージ コレクション (GC)
- ビュー
- パーティショニング
- 一時テーブル
- キャッシュされたテーブル
- 文字セットと照合順序
- SQL の配置規則
- システム テーブル
mysql
- 情報_スキーマ
- 概要
ANALYZE_STATUS
CLIENT_ERRORS_SUMMARY_BY_HOST
CLIENT_ERRORS_SUMMARY_BY_USER
CLIENT_ERRORS_SUMMARY_GLOBAL
CHARACTER_SETS
CLUSTER_CONFIG
CLUSTER_HARDWARE
CLUSTER_INFO
CLUSTER_LOAD
CLUSTER_LOG
CLUSTER_SYSTEMINFO
COLLATIONS
COLLATION_CHARACTER_SET_APPLICABILITY
COLUMNS
DATA_LOCK_WAITS
DDL_JOBS
DEADLOCKS
ENGINES
INSPECTION_RESULT
INSPECTION_RULES
INSPECTION_SUMMARY
KEY_COLUMN_USAGE
METRICS_SUMMARY
METRICS_TABLES
PARTITIONS
PLACEMENT_POLICIES
PROCESSLIST
REFERENTIAL_CONSTRAINTS
SCHEMATA
SEQUENCES
SESSION_VARIABLES
SLOW_QUERY
STATISTICS
TABLES
TABLE_CONSTRAINTS
TABLE_STORAGE_STATS
TIDB_HOT_REGIONS
TIDB_HOT_REGIONS_HISTORY
TIDB_INDEXES
TIDB_SERVERS_INFO
TIDB_TRX
TIFLASH_REPLICA
TIKV_REGION_PEERS
TIKV_REGION_STATUS
TIKV_STORE_STATUS
USER_PRIVILEGES
VIEWS
METRICS_SCHEMA
- UI
- TiDB ダッシュボード
- 概要
- 管理
- アクセス
- 概要ページ
- クラスター情報ページ
- Top SQLページ
- キー ビジュアライザー ページ
- メトリクス関係グラフ
- SQL ステートメントの分析
- スロークエリページ
- クラスタ診断
- 検索ログ ページ
- インスタンスのプロファイリング
- セッションの管理とConfiguration / コンフィグレーション
- FAQ
- CLI
- コマンド ライン フラグ
- Configuration / コンフィグレーションファイルのパラメーター
- システム変数
- ストレージ エンジン
- テレメトリー
- エラーコード
- テーブル フィルター
- トポロジ ラベルごとにレプリカをスケジュールする
- よくある質問
- リリースノート
- すべてのリリース
- リリースのタイムライン
- TiDB のバージョニング
- v6.1
- v6.0
- v5.4
- v5.3
- v5.2
- v5.1
- v5.0
- v4.0
- v3.1
- v3.0
- v2.1
- v2.0
- v1.0
- 用語集
TiDB Lightningを使用してデータを並行してインポートする
v5.3.0以降、 TiDB Lightningのローカルバックエンドモードは、単一のテーブルまたは複数のテーブルの並列インポートをサポートします。複数のTiDB Lightningインスタンスを同時に実行することにより、異なる単一のテーブルまたは複数のテーブルからデータを並行してインポートできます。このように、 TiDB Lightningは水平方向にスケーリングする機能を提供し、大量のデータのインポートに必要な時間を大幅に短縮します。
技術的な実装では、 TiDB Lightningは、各インスタンスのメタデータとインポートされた各テーブルのデータをターゲットTiDBに記録し、さまざまなインスタンスの行ID割り当て範囲、グローバルチェックサムの記録、およびTiKVの構成変更とリカバリを調整します。およびPD。
次のシナリオでは、 TiDB Lightningを使用してデータを並行してインポートできます。
- シャードスキーマとシャードテーブルをインポートします。このシナリオでは、複数のアップストリームデータベースインスタンスからの複数のテーブルが、異なるTiDB LightningインスタンスによってダウンストリームTiDBデータベースに並行してインポートされます。
- 単一のテーブルを並行してインポートします。このシナリオでは、特定のディレクトリまたはクラウドストレージ(Amazon S3など)に保存されている単一のテーブルが、異なるTiDB LightningインスタンスによってダウンストリームのTiDBクラスタに並行してインポートされます。これは、TiDB5.3.0で導入された新機能です。
ノート:
並列インポートは、TiDBで初期化された空のテーブルのみをサポートし、既存のサービスによって書き込まれたデータを含むテーブルへのデータの移行をサポートしません。そうしないと、データの不整合が発生する可能性があります。
並列インポートは通常、ローカルバックエンドモードで使用されます。
複数のTiDB Lightningインスタンスを使用して同じターゲットにデータをインポートする場合は、一度に1つのバックエンドのみを適用してください。たとえば、ローカルバックエンドモードとTiDBバックエンドモードの両方で同時に同じTiDBクラスタにデータをインポートすることはできません。
考慮事項
TiDB Lightningを使用した並列インポートには、追加の構成は必要ありません。 TiDB Lightningが起動すると、ダウンストリームのTiDBクラスタにメタデータが登録され、同時にターゲットクラスタにデータを移行する他のインスタンスがあるかどうかが自動的に検出されます。存在する場合は、自動的に並列インポートモードになります。
ただし、データを並行して移行する場合は、次の点を考慮する必要があります。
- 複数のシャードテーブル間での主キーまたは一意のインデックス間の競合を処理します
- インポートパフォーマンスを最適化する
主キーまたは一意のインデックス間の競合を処理する
ローカルバックエンドモードを使用してデータを並列にインポートする場合は、データソース間、およびターゲットTiDBクラスタのテーブル間で主キーまたは一意のインデックスの競合がないこと、およびインポート中にターゲットテーブルにデータ書き込みがないことを確認してください。そうしないと、 TiDB Lightningはインポートされたデータの正確性を保証できず、インポートの完了後にターゲットテーブルに一貫性のないインデックスが含まれます。
インポートパフォーマンスを最適化する
TiDB Lightningは、生成されたKey-Valueデータを対応するリージョンの各コピーが配置されているTiKVノードにアップロードする必要があるため、インポート速度はターゲットクラスタのサイズによって制限されます。ターゲットTiDBクラスタのTiKVインスタンスの数とTiDB Lightningインスタンスの数がn:1より大きいことを確認することをお勧めします(nはリージョンのコピーの数です)。同時に、最適なインポートパフォーマンスを実現するには、次の要件を満たす必要があります。
- 各TiDB Lightningインスタンスを専用マシンにデプロイします。 1つのTiDB LightningインスタンスがデフォルトですべてのCPUリソースを消費するため、単一のマシンに複数のインスタンスをデプロイしてもパフォーマンスを向上させることはできません。
- 並列インポートを実行する各TiDB Lightningインスタンスのソースファイルの合計サイズは5TiB未満である必要があります
- TiDB Lightningインスタンスの総数は10未満である必要があります。
TiDB Lightningを使用して共有データベースとテーブルを並行してインポートする場合は、データ量に応じて適切な数のTiDB Lightningインスタンスを選択してください。
- MySQLデータボリュームが2TiB未満の場合、並列インポートに1つのTiDB Lightningインスタンスを使用できます。
- MySQLデータボリュームが2TiBを超え、MySQLインスタンスの総数が10未満の場合は、MySQLインスタンスごとに1つのTiDB Lightningインスタンスを使用することをお勧めします。また、並列TiDB Lightningインスタンスの数は10を超えないようにする必要があります。
- MySQLデータボリュームが2TiBを超え、MySQLインスタンスの総数が10を超える場合、これらのMySQLインスタンスによってエクスポートされたデータをインポートするために5〜10個のTiDB Lightningインスタンスを割り当てることをお勧めします。
次に、このドキュメントでは2つの例を使用して、さまざまなシナリオでの並列インポートの操作手順を詳しく説明します。
- 例1: Dumpling + TiDB Lightningを使用して、シャーディングされたデータベースとテーブルをTiDBに並行してインポートします
- 例2:単一のテーブルを並行してインポートする
制限
TiDB Lightningは、実行時に一部のリソースを排他的に使用します。複数のTiDB Lightningインスタンスを単一のマシン(実稼働環境では推奨されません)または複数のマシンで共有されるディスクにデプロイする必要がある場合は、次の使用制限に注意してください。
- 各TiDB Lightningインスタンスの一意のパスに
tikv-importer.sorted-kv-dir
を設定します。同じパスを共有する複数のインスタンスは、意図しない動作を引き起こす可能性があり、インポートの失敗やデータエラーを引き起こす可能性があります。 - 各TiDB Lightningチェックポイントを個別に保存します。チェックポイント構成の詳細については、 TiDB Lightningチェックポイントを参照してください。
- checkpoint.driver = "file"(デフォルト)を設定する場合は、チェックポイントへのパスがインスタンスごとに一意であることを確認してください。
- checkpoint.driver = "mysql"を設定する場合は、インスタンスごとに一意のスキーマを設定する必要があります。
- 各TiDB Lightningのログファイルは一意のパスに設定する必要があります。同じログファイルを共有すると、ログのクエリとトラブルシューティングに影響します。
- WebインターフェイスまたはDebugAPIを使用する場合は、インスタンスごとに
lightning.status-addr
を一意のアドレスに設定する必要があります。そうしないと、ポートの競合が原因でTiDB Lightningプロセスを開始できません。
例1: Dumpling + TiDB Lightningを使用して、シャーディングされたデータベースとテーブルをTiDBに並行してインポートする
この例では、アップストリームが10個のシャードテーブルを持ち、合計サイズが10TiBのMySQLクラスタであると想定します。 5つのTiDB Lightningインスタンスを使用して並列インポートを実行でき、各インスタンスは2つのTiBをインポートします。総輸入時間(Dumplingの輸出に必要な時間を除く)は、約40時間から約10時間に短縮できると見込まれています。
アップストリームライブラリの名前がmy_db
で、各シャーディングテーブルの名前がmy_table_01
であると想定しmy_table_10
。それらをマージして、ダウンストリームmy_db.my_table
テーブルにインポートします。特定の手順については、次のセクションで説明します。
ステップ1:Dumplingを使用してデータをエクスポートする
TiDB Lightningがデプロイされている5つのノードに2つのシャードテーブルをエクスポートします。
- 2つのシャードテーブルが同じMySQLインスタンスにある場合は、 Dumplingの
--filter
パラメーターを使用してそれらを直接エクスポートできます。 TiDB Lightningを使用してインポートする場合、 Dumplingがデータをエクスポートするディレクトリとしてdata-source-dir
を指定できます。 - 2つのシャードテーブルのデータが異なるMySQLノードに分散されている場合は、 Dumplingを使用してそれらを個別にエクスポートする必要があります。エクスポートされたデータは、同じ親ディレクトリに配置する必要がありますが、サブディレクトリは異なります。 TiDB Lightningを使用して並列インポートを実行する場合、親ディレクトリとして
data-source-dir
を指定する必要があります。
Dumplingを使用してデータをエクスポートする方法の詳細については、 Dumplingを参照してください。
手順2: TiDB Lightningデータソースを構成する
構成ファイルtidb-lightning.toml
を作成し、次のコンテンツを追加します。
[lightning]
status-addr = ":8289"
[mydumper]
# Specify the path for Dumpling to export data. If Dumpling performs several times and the data belongs to different directories, you can place all the exported data in the same parent directory and specify this parent directory here.
data-source-dir = "/path/to/source-dir"
[tikv-importer]
# Whether to allow importing data to tables with data. The default value is `false`.
# When you use parallel import mode, you must set it to `true`, because multiple TiDB Lightning instances are importing the same table at the same time.
incremental-import = true
# "local": The default mode. It applies to large dataset import, for example, greater than 1 TiB. However, during the import, downstream TiDB is not available to provide services.
# "tidb": You can use this mode for small dataset import, for example, smaller than 1 TiB. During the import, downstream TiDB is available to provide services.
backend = "local"
# Specify the path for local sorting data.
sorted-kv-dir = "/path/to/sorted-dir"
# Specify the routes for shard schemas and tables.
[[routes]]
schema-pattern = "my_db"
table-pattern = "my_table_*"
target-schema = "my_db"
target-table = "my_table"
データソースがAmazonS3やGCSなどの外部ストレージに保存されている場合は、 外部ストレージを参照してください。
ステップ3: TiDB Lightningを起動してデータをインポートする
並列インポート中、各TiDB Lightningノードのサーバー構成要件は、非並列インポートモードと同じです。各TiDB Lightningノードは同じリソースを消費する必要があります。それらを異なるサーバーにデプロイすることをお勧めします。詳細な展開手順については、 TiDB Lightningをデプロイを参照してください。
各サーバーでTiDB Lightningを順番に起動します。 nohup
を使用してコマンドラインから直接起動すると、SIGHUP信号が原因で終了する場合があります。したがって、スクリプトにnohup
を含めることをお勧めします。次に例を示します。
# !/bin/bash
nohup tiup tidb-lightning -config tidb-lightning.toml > nohup.out &
並列インポート中、 TiDB Lightningは、タスクの開始後に次のチェックを自動的に実行します。
- ローカルディスク(
sort-kv-dir
構成で制御)およびTiKVクラスタにデータをインポートするための十分なスペースがあるかどうかを確認します。必要なディスク容量については、 ダウンストリームストレージスペースの要件およびリソース要件を参照してください。 TiDB Lightningはデータソースをサンプリングし、サンプル結果からインデックスサイズのパーセンテージを推定します。見積もりにはインデックスが含まれているため、ソースデータのサイズがローカルディスクの使用可能なスペースよりも小さい場合でも、チェックが失敗する場合があります。 - TiKVクラスタの領域が均等に分散されているかどうか、および空の領域が多すぎるかどうかを確認します。空の領域の数がmax(1000、テーブルの数* 3)を超える場合、つまり「1000」または「テーブルの数の3倍」の大きい方を超える場合、インポートは実行できません。
- データがデータソースから順番にインポートされているかどうかを確認します。
mydumper.batch-size
のサイズは、チェックの結果に基づいて自動的に調整されます。したがって、mydumper.batch-size
構成は使用できなくなります。
チェックをオフにして、 lightning.check-requirements
構成で強制インポートを実行することもできます。詳細なチェックについては、 TiDB Lightningの事前チェックを参照してください。
ステップ4:インポートの進行状況を確認する
インポートを開始した後、次のいずれかの方法で進行状況を確認できます。
grep
ログキーワードprogress
で進捗状況を確認します。デフォルトでは5分ごとに更新されます。- 監視コンソールで進行状況を確認します。詳細については、 TiDB Lightning監視を参照してください。
すべてのTiDB Lightningインスタンスが終了するのを待ってから、インポート全体が完了します。
例2:単一のテーブルを並行してインポートする
TiDB Lightningは、単一テーブルの並列インポートもサポートしています。たとえば、AmazonS3に異なるTiDB Lightningインスタンスによって保存されている複数の単一テーブルをダウンストリームTiDBクラスタに並行してインポートします。この方法により、全体的なインポート速度を上げることができます。外部ストレージの詳細については、 外部ストレージ )を参照してください。
ノート:
ローカル環境では、 Dumplingの
--filesize
または--where
パラメーターを使用して、単一のテーブルのデータを異なる部分に分割し、事前に複数のサーバーのローカルディスクにエクスポートできます。このようにして、引き続き並列インポートを実行できます。構成は例1と同じです。
ソースファイルがmy_db.my_table.10000.sql
my_db.my_table.00001.sql
、合計10,000のSQLファイルです。 2つのTiDB Lightningインスタンスを使用してインポートを高速化する場合は、構成ファイルに次の設定を追加する必要があります。
[[mydumper.files]]
# the db schema file
pattern = '(?i)^(?:[^/]*/)*my_db-schema-create\.sql'
schema = "my_db"
type = "schema-schema"
[[mydumper.files]]
# the table schema file
pattern = '(?i)^(?:[^/]*/)*my_db\.my_table-schema\.sql'
schema = "my_db"
table = "my_table"
type = "table-schema"
[[mydumper.files]]
# Only import 00001~05000 and ignore other files
pattern = '(?i)^(?:[^/]*/)*my_db\.my_table\.(0[0-4][0-9][0-9][0-9]|05000)\.sql'
schema = "my_db"
table = "my_table"
type = "sql"
他のインスタンスの構成を変更して、 05001 ~ 10000
のデータファイルのみをインポートすることができます。
その他の手順については、例1の関連する手順を参照してください。
エラーを処理する
一部のTiDB Lightningノードが異常終了します
並列インポート中に1つ以上のTiDB Lightningノードが異常終了した場合は、ログに記録されたエラーに基づいて原因を特定し、エラータイプに従ってエラーを処理します。
エラーが通常の終了(たとえば、killコマンドに応答した終了)またはOOMによるオペレーティングシステムによる終了を示している場合は、構成を調整してから、 TiDB Lightningノードを再起動します。
エラーがデータの精度に影響を与えない場合(ネットワークタイムアウトなど)、失敗したすべてのノードでtidb-lightning-ctlを使用して
checkpoint-error-ignore
を実行し、チェックポイントソースデータのエラーをクリーンアップします。次に、これらのノードを再起動して、チェックポイントからのデータのインポートを続行します。詳細については、 チェックポイント-エラー-無視を参照してください。ログがデータの不正確さをもたらすエラーを報告する場合、たとえば、チェックサムの不一致(ソースファイル内の無効なデータを示す)の場合は、失敗したすべてのノードでtidb-lightning-ctlを使用して
checkpoint-error-destroy
を実行し、失敗したテーブルにインポートされたデータとチェックポイントソースデータ。詳細については、 チェックポイント-エラー-破棄を参照してください。このコマンドは、障害が発生したテーブルにインポートされたデータをダウンストリームで削除します。したがって、filters
パラメーターを使用して、すべてのTiDB Lightningノード(正常に終了するノードを含む)で障害が発生したテーブルのデータを再構成してインポートする必要があります。
インポート中に、「ターゲットテーブルがチェックサムを計算しています。チェックサムが終了するまで待ってから再試行してください」というエラーが報告されます。
一部の並列インポートには、多数のテーブルまたは少量のデータを含むテーブルが含まれます。この場合、1つ以上のタスクがテーブルの処理を開始する前に、このテーブルの他のタスクが終了し、データチェックサムが進行中である可能性があります。このとき、エラーTarget table is calculating checksum. Please wait until the checksum is finished and try again
が報告されます。この場合、チェックサムの完了を待ってから、失敗したタスクを再開できます。エラーは消え、データの精度は影響を受けません。