インポート先
IMPORT INTO
ステートメントは、 TiDB Lightningの物理インポートモードを介して、 CSV
、 SQL
、 PARQUET
などの形式のデータを TiDB 内の空のテーブルにインポートするために使用されます。
注記:
この機能はTiDB サーバーレスクラスターでは使用できません。
TiDB Self-Managed の場合、 IMPORT INTO
Amazon S3、GCS、および TiDB ローカルstorageに保存されているファイルからのデータのインポートをサポートしますTiDB専用の場合、 IMPORT INTO
Amazon S3 および GCS に保存されているファイルからのデータのインポートをサポートします。
Amazon S3 または GCS に保存されているデータ ファイルの場合、
IMPORT INTO
TiDB 分散実行フレームワーク (DXF)での実行をサポートします。- この DXF が有効になっている場合 ( tidb_enable_dist_taskが
ON
)、IMPORT INTO
データ インポート ジョブを複数のサブジョブに分割し、これらのサブジョブを異なる TiDB ノードに分散して実行し、インポート効率を向上させます。 - この DXF が無効になっている場合、
IMPORT INTO
現在のユーザーが接続している TiDB ノードでの実行のみをサポートします。
- この DXF が有効になっている場合 ( tidb_enable_dist_taskが
TiDB にローカルに保存されているデータ ファイルの場合、
IMPORT INTO
現在のユーザーが接続している TiDB ノードでの実行のみをサポートします。したがって、データ ファイルは現在のユーザーが接続している TiDB ノードに配置する必要があります。プロキシまたはロード バランサーを介して TiDB にアクセスする場合、TiDB にローカルに保存されているデータ ファイルをインポートすることはできません。
制限
- TiDB Self-Managed の場合、
IMPORT INTO
10 TiB 以内のデータのインポートをサポートします。3 TiDB専用場合、IMPORT INTO
50 GiB 以内のデータのインポートをサポートします。 IMPORT INTO
、データベース内の既存の空のテーブルへのデータのインポートのみをサポートします。IMPORT INTO
一時テーブルまたはキャッシュされたテーブルへのデータのインポートをサポートしていません。IMPORT INTO
トランザクションやロールバックをサポートしていません。明示的なトランザクション (BEGIN
/END
) 内でIMPORT INTO
実行すると、エラーが返されます。IMPORT INTO
を実行すると、インポートが完了するまで現在の接続がブロックされます。ステートメントを非同期で実行するには、DETACHED
オプションを追加できます。IMPORT INTO
、 バックアップと復元 、FLASHBACK CLUSTER
、 インデックス追加の高速化 、 TiDB Lightning を使用したデータのインポート、 TiCDC を使用したデータのレプリケーション、 ポイントインタイムリカバリ (PITR)などの機能と同時に動作することはサポートされていません。- 一度にクラスターで実行できるジョブは
IMPORT INTO
つだけです。IMPORT INTO
実行中のジョブの事前チェックを実行しますが、これは厳密な制限ではありません。複数のクライアントが同時にIMPORT INTO
実行する場合は、複数のインポート ジョブを開始できる可能性がありますが、データの不整合やインポートの失敗が発生する可能性があるため、これを避ける必要があります。 - データのインポート プロセス中は、ターゲット テーブルに対して DDL または DML 操作を実行しないでください。また、ターゲット データベースに対して
FLASHBACK DATABASE
実行しないでください。これらの操作は、インポートの失敗やデータの不整合につながる可能性があります。また、読み取られるデータに不整合がある可能性があるため、インポート プロセス中に読み取り操作を実行することは推奨されません。読み取りおよび書き込み操作は、インポートが完了した後にのみ実行してください。 - インポート プロセスはシステム リソースを大量に消費します。TiDB Self-Managed では、パフォーマンスを向上させるために、少なくとも 32 個のコアと 64 GiB のメモリを備えた TiDB ノードを使用することをお勧めします。TiDB はインポート中にソートされたデータを TiDB 一時ディレクトリに書き込むため、フラッシュメモリなどの高性能なstorageメディアを TiDB Self-Managed 用に構成することをお勧めします。詳細については、 物理インポートモードの制限参照してください。
- TiDB Self-Managed の場合、TiDB 一時ディレクトリには少なくとも 90 GiB の使用可能スペースがあることが予想されます。インポートするデータの量以上のstorageスペースを割り当てることをお勧めします。
- 1 つのインポート ジョブでは、1 つのターゲット テーブルへのデータのインポートのみがサポートされます。複数のターゲット テーブルにデータをインポートするには、ターゲット テーブルのインポートが完了した後、次のターゲット テーブル用の新しいジョブを作成する必要があります。
IMPORT INTO
、TiDB クラスターのアップグレード中はサポートされません。- グローバルソート機能をデータのインポートに使用する場合、エンコード後の 1 行のデータ サイズは 32 MiB を超えてはなりません。
- データのインポートにグローバルソート機能を使用する場合、インポートタスクが完了する前にターゲット TiDB クラスターが削除されると、グローバルソートに使用された一時データが Amazon S3 に残る可能性があります。この場合、S3storageコストの増加を避けるために、残りのデータを手動で削除する必要があります。
- インポートするデータに、主キーまたは null 以外の一意のインデックスの競合があるレコードが含まれていないことを確認してください。そうでない場合、競合によりインポート タスクが失敗する可能性があります。
- Distributed eXecution Framework (DXF) によってスケジュールされた
IMPORT INTO
タスクがすでに実行されている場合、新しい TiDB ノードにスケジュールすることはできません。データ インポート タスクを実行する TiDB ノードが再起動されると、データ インポート タスクは実行されなくなり、別の TiDB ノードにタスクが転送されて実行が継続されます。ただし、インポートされたデータがローカル ファイルからのものである場合、タスクは別の TiDB ノードに転送されて実行が継続されることはありません。 - 既知の問題: TiDB ノード構成ファイル内の PD アドレスがクラスターの現在の PD トポロジと一致しない場合、タスク
IMPORT INTO
が失敗する可能性があります。この不一致は、PD が以前にスケールインされたが、TiDB 構成ファイルがそれに応じて更新されなかった場合や、構成ファイルの更新後に TiDB ノードが再起動されなかった場合などに発生する可能性があります。
インポートの前提条件
IMPORT INTO
使用してデータをインポートする前に、次の要件が満たされていることを確認してください。
- インポート対象のテーブルは TiDB にすでに作成されており、空です。
- ターゲット クラスターには、インポートするデータを保存するのに十分なスペースがあります。
- TiDB Self-Managed の場合、現在のセッションに接続されている TiDB ノードの一時ディレクトリに、少なくとも 90 GiB の使用可能な領域があります
tidb_enable_dist_task
が有効になっている場合は、クラスター内の各 TiDB ノードの一時ディレクトリに十分なディスク領域があることも確認してください。
必要な権限
IMPORT INTO
実行するには、対象テーブルに対するSELECT
、 UPDATE
、 INSERT
、 DELETE
、およびALTER
権限が必要です。TiDB ローカルstorageにファイルをインポートするには、 FILE
権限も必要です。
概要
- ImportIntoStmt
- ColumnNameOrUserVarList
- SetClause
- SetItem
- Format
- WithOptions
- OptionItem
ImportIntoStmt ::=
'IMPORT' 'INTO' TableName ColumnNameOrUserVarList? SetClause? FROM fileLocation Format? WithOptions?
ColumnNameOrUserVarList ::=
'(' ColumnNameOrUserVar (',' ColumnNameOrUserVar)* ')'
SetClause ::=
'SET' SetItem (',' SetItem)*
SetItem ::=
ColumnName '=' Expr
Format ::=
'CSV' | 'SQL' | 'PARQUET'
WithOptions ::=
'WITH' OptionItem (',' OptionItem)*
OptionItem ::=
optionName '=' optionVal | optionName
パラメータの説明
列名またはユーザー変数リスト
これは、データ ファイル内の各フィールドがターゲット テーブルの列とどのように対応するかを指定します。また、フィールドを変数にマップしてインポート時に特定のフィールドをスキップしたり、 SetClause
で使用したりすることもできます。
- このパラメータを指定しない場合は、データ ファイルの各行のフィールド数がターゲット テーブルの列数と一致する必要があり、フィールドは対応する列に順番にインポートされます。
- このパラメータを指定する場合、指定された列または変数の数は、データ ファイルの各行のフィールドの数と一致する必要があります。
節の設定
対象列の値の計算方法を指定します。 SET
式の右側では、 ColumnNameOrUserVarList
で指定した変数を参照できます。
SET
式の左側では、 ColumnNameOrUserVarList
に含まれていない列名のみを参照できます。対象の列名がColumnNameOrUserVarList
にすでに存在する場合、 SET
式は無効です。
ファイルの場所
データ ファイルのstorage場所を指定します。保存場所は、Amazon S3 または GCS URI パス、あるいは TiDB ローカル ファイル パスにすることができます。
Amazon S3 または GCS URI パス: URI 設定の詳細については、 外部ストレージサービスの URI 形式参照してください。
TiDB ローカル ファイル パス: 絶対パスで、ファイル拡張子は
.csv
、.sql
、または.parquet
である必要があります。このパスに対応するファイルが現在のユーザーが接続している TiDB ノードに保存されていること、およびユーザーがFILE
権限を持っていることを確認してください。
注記:
ターゲット クラスターで検索エンジン最適化有効になっている場合、
fileLocation
ローカル ファイル パスとして指定することはできません。
fileLocation
パラメータでは、単一のファイルを指定するか、 *
ワイルドカードを使用してインポートする複数のファイルに一致させることができます。ワイルドカードは、ディレクトリに一致したり、サブディレクトリ内のファイルに再帰的に一致したりしないため、ファイル名にのみ使用できることに注意してください。Amazon S3 に保存されているファイルを例にとると、パラメータは次のように設定できます。
- 1つのファイルをインポートする:
s3://<bucket-name>/path/to/data/foo.csv
- 指定されたパス内のすべてのファイルをインポート:
s3://<bucket-name>/path/to/data/*
- 指定されたパス内のサフィックスが
.csv
であるすべてのファイルをインポートします:s3://<bucket-name>/path/to/data/*.csv
- 指定されたパス内のプレフィックスが
foo
であるすべてのファイルをインポートします:s3://<bucket-name>/path/to/data/foo*
- 指定されたパスにある
foo
プレフィックスと.csv
サフィックスを持つすべてのファイルをインポートします:s3://<bucket-name>/path/to/data/foo*.csv
形式
IMPORT INTO
ステートメントは、 CSV
、 SQL
、 PARQUET
3 つのデータ ファイル形式をサポートします。指定しない場合、デフォルトの形式はCSV
です。
オプション付き
WithOptions
使用してインポート オプションを指定し、データのインポート プロセスを制御できます。たとえば、バックエンドでインポートを非同期に実行するには、 IMPORT INTO
ステートメントにWITH DETACHED
オプションを追加して、インポートのDETACHED
モードを有効にできます。
サポートされているオプションは次のとおりです。
オプション名 | サポートされているデータ形式 | 説明 |
---|---|---|
CHARACTER_SET='<string>' | CSVファイル | データ ファイルの文字セットを指定します。デフォルトの文字セットはutf8mb4 です。サポートされている文字セットにはbinary 、 utf8 、 utf8mb4 、 gb18030 、 gbk 、 latin1 、およびascii があります。 |
FIELDS_TERMINATED_BY='<string>' | CSVファイル | フィールド区切り文字を指定します。デフォルトの区切り文字は, です。 |
FIELDS_ENCLOSED_BY='<char>' | CSVファイル | フィールド区切り文字を指定します。デフォルトの区切り文字は" です。 |
FIELDS_ESCAPED_BY='<char>' | CSVファイル | フィールドのエスケープ文字を指定します。デフォルトのエスケープ文字は\ です。 |
FIELDS_DEFINED_NULL_BY='<string>' | CSVファイル | フィールド内のNULL を表す値を指定します。デフォルト値は\N です。 |
LINES_TERMINATED_BY='<string>' | CSVファイル | 行末文字を指定します。デフォルトでは、 IMPORT INTO \n 、 \r 、または\r\n 行末文字として自動的に識別します。行末文字がこれら 3 つのいずれかである場合は、このオプションを明示的に指定する必要はありません。 |
SKIP_ROWS=<number> | CSVファイル | スキップする行数を指定します。デフォルト値は0 です。このオプションを使用すると、CSV ファイルのヘッダーをスキップできます。ワイルドカードを使用してインポートするソース ファイルを指定する場合、このオプションはfileLocation のワイルドカードに一致するすべてのソース ファイルに適用されます。 |
SPLIT_FILE | CSVファイル | インポート効率を向上させるために、1 つの CSV ファイルを約 256 MiB の複数の小さなチャンクに分割して並列処理します。このパラメータは非圧縮CSV ファイルに対してのみ機能し、 TiDB Lightning strict-format と同じ使用制限があります。このオプションには明示的にLINES_TERMINATED_BY 指定する必要があることに注意してください。 |
DISK_QUOTA='<string>' | すべての形式 | データのソート時に使用できるディスク容量のしきい値を指定します。デフォルト値は TiDB 一時ディレクトリのディスク容量の 80% です。ディスクの合計サイズを取得できない場合、デフォルト値は 50 GiB です。明示的にDISK_QUOTA 指定する場合は、値が TiDB 一時ディレクトリのディスク容量の 80% を超えないようにしてください。 |
DISABLE_TIKV_IMPORT_MODE | すべての形式 | インポート プロセス中に TiKV をインポート モードに切り替えることを無効にするかどうかを指定します。デフォルトでは、TiKV をインポート モードに切り替えることは無効になっていません。クラスターで読み取り/書き込み操作が進行中の場合は、このオプションを有効にして、インポート プロセスの影響を回避できます。 |
THREAD=<number> | すべての形式 | インポートの同時実行を指定します。デフォルト値は CPU コアの 50% で、最小値は 1 です。このオプションを明示的に指定してリソースの使用量を制御できますが、値が CPU コアの数を超えないようにしてください。データのない新しいクラスターにデータをインポートする場合は、インポートのパフォーマンスを向上させるために、この同時実行を適切に増やすことをお勧めします。ターゲット クラスターがすでに実本番環境で使用されている場合は、アプリケーションの要件に応じてこの同時実行を調整することをお勧めします。 |
MAX_WRITE_SPEED='<string>' | すべての形式 | TiKV ノードへの書き込み速度を制御します。デフォルトでは、速度制限はありません。たとえば、このオプションを1MiB に指定すると、書き込み速度が 1 MiB/s に制限されます。 |
CHECKSUM_TABLE='<string>' | すべての形式 | インポート後にターゲット テーブルでチェックサム チェックを実行してインポートの整合性を検証するかどうかを設定します。サポートされる値は、 "required" (デフォルト)、 "optional" 、 "off" です。 "required" インポート後にチェックサム チェックを実行することを意味します。チェックサム チェックが失敗すると、TiDB はエラーを返し、インポートは終了します。 "optional" 、インポート後にチェックサム チェックを実行することを意味します。エラーが発生した場合、TiDB は警告を返し、エラーを無視します。 "off" インポート後にチェックサム チェックを実行しないことを意味します。 |
DETACHED | すべての形式 | IMPORT INTO 非同期で実行するかどうかを制御します。このオプションを有効にすると、 IMPORT INTO を実行するとすぐにインポート ジョブの情報 ( Job_ID など) が返され、ジョブはバックエンドで非同期で実行されます。 |
CLOUD_STORAGE_URI | すべての形式 | グローバルソートのエンコードされた KV データが格納されるターゲット アドレスを指定します。 CLOUD_STORAGE_URI が指定されていない場合、 IMPORT INTO システム変数tidb_cloud_storage_uri の値に基づいてグローバル ソートを使用するかどうかを決定します。このシステム変数がターゲットstorageアドレスを指定している場合、 IMPORT INTO このアドレスをグローバル ソートに使用します。 CLOUD_STORAGE_URI が空でない値で指定されている場合、 IMPORT INTO その値をターゲットstorageアドレスとして使用します。 CLOUD_STORAGE_URI 空の値で指定されている場合、ローカル ソートが適用されます。現在、ターゲットstorageアドレスは S3 のみをサポートしています。URI 構成の詳細については、 Amazon S3 URI 形式参照してください。この機能を使用する場合、すべての TiDB ノードにターゲット S3 バケットに対する読み取りおよび書き込みアクセス権が必要です。 |
圧縮ファイル
IMPORT INTO
圧縮されたCSV
およびSQL
ファイルのインポートをサポートします。ファイル拡張子に基づいて、ファイルが圧縮されているかどうか、および圧縮形式を自動的に判断できます。
拡大 | 圧縮形式 |
---|---|
.gz , .gzip | gzip 圧縮形式 |
.zstd , .zst | ZStd圧縮形式 |
.snappy | スナップ圧縮形式 |
注記:
- Snappy 圧縮ファイルは公式Snappyフォーマットである必要があります。Snappy 圧縮の他のバリエーションはサポートされていません。
- TiDB Lightning は1 つの大きな圧縮ファイルを同時に解凍できないため、圧縮ファイルのサイズがインポート速度に影響します。解凍後のソース ファイルは 256 MiB 以下にすることをお勧めします。
グローバルソート
IMPORT INTO
ソース データ ファイルのデータ インポート ジョブを複数のサブジョブに分割し、各サブジョブはインポート前にデータを個別にエンコードおよびソートします。これらのサブジョブのエンコードされた KV 範囲に大幅な重複がある場合 (TiDB がデータを KV にエンコードする方法については、 TiDBコンピューティングを参照)、TiKV はインポート中に圧縮を維持する必要があり、インポートのパフォーマンスと安定性が低下します。
次のシナリオでは、KV 範囲に大きな重複が生じる可能性があります。
- 各サブジョブに割り当てられたデータ ファイル内の行の主キー範囲が重複している場合、各サブジョブのエンコードによって生成されるデータ KV も重複します。
IMPORT INTO
、データ ファイルのトラバース順序に基づいてサブジョブを分割します。通常はファイル名で辞書順にソートされます。
- 対象テーブルに多数のインデックスがある場合、またはインデックス列の値がデータ ファイル内に分散している場合、各サブジョブのエンコードによって生成されるインデックス KV も重複します。
TiDB 分散実行フレームワーク (DXF)が有効になっている場合、 IMPORT INTO
ステートメントでCLOUD_STORAGE_URI
オプションを指定するか、システム変数tidb_cloud_storage_uri
使用してエンコードされた KV データのターゲットstorageアドレスを指定することでグローバルソート有効にできます。現在、グローバル ソートstorageアドレスとしてサポートされているのは S3 のみであることに注意してください。グローバル ソートが有効になっている場合、 IMPORT INTO
エンコードされた KV データをクラウドstorageに書き込み、クラウドstorageでグローバル ソートを実行してから、グローバルにソートされたインデックスとテーブル データを TiKV に並列インポートします。これにより、KV の重複によって発生する問題が防止され、インポートの安定性が向上します。
グローバルソートは大量のメモリリソースを消費します。データのインポート前に、 tidb_server_memory_limit_gc_trigger
とtidb_server_memory_limit
変数を設定することをお勧めします。これにより、golang GC が頻繁にトリガーされ、インポートの効率に影響が及ぶのを回避できます。
SET GLOBAL tidb_server_memory_limit_gc_trigger=0.99;
SET GLOBAL tidb_server_memory_limit='88%';
注記:
- ソース データ ファイル内の KV 範囲の重複が少ない場合、グローバル ソートを有効にするとインポートのパフォーマンスが低下する可能性があります。これは、グローバル ソートを有効にすると、TiDB がグローバル ソート操作とそれに続くインポートを続行する前に、すべてのサブジョブでのローカル ソートの完了を待機する必要があるためです。
- グローバル ソートを使用したインポート ジョブが完了すると、グローバル ソートのクラウドstorageに保存されたファイルは、バックグラウンド スレッドで非同期的にクリーンアップされます。
出力
IMPORT INTO
インポートを完了するか、 DETACHED
モードが有効になっている場合、 IMPORT INTO
次の例に示すように、出力に現在のジョブ情報を返します。各フィールドの説明については、 SHOW IMPORT JOB(s)
参照してください。
IMPORT INTO
インポートを完了すると、出力例は次のようになります。
IMPORT INTO t FROM '/path/to/small.csv';
+--------+--------------------+--------------+----------+-------+----------+------------------+---------------+----------------+----------------------------+----------------------------+----------------------------+------------+
| Job_ID | Data_Source | Target_Table | Table_ID | Phase | Status | Source_File_Size | Imported_Rows | Result_Message | Create_Time | Start_Time | End_Time | Created_By |
+--------+--------------------+--------------+----------+-------+----------+------------------+---------------+----------------+----------------------------+----------------------------+----------------------------+------------+
| 60002 | /path/to/small.csv | `test`.`t` | 363 | | finished | 16B | 2 | | 2023-06-08 16:01:22.095698 | 2023-06-08 16:01:22.394418 | 2023-06-08 16:01:26.531821 | root@% |
+--------+--------------------+--------------+----------+-------+----------+------------------+---------------+----------------+----------------------------+----------------------------+----------------------------+------------+
DETACHED
モードが有効になっている場合、 IMPORT INTO
ステートメントを実行すると、出力にジョブ情報がすぐに返されます。出力から、ジョブのステータスがpending
であり、実行を待機中であることがわかります。
IMPORT INTO t FROM '/path/to/small.csv' WITH DETACHED;
+--------+--------------------+--------------+----------+-------+---------+------------------+---------------+----------------+----------------------------+------------+----------+------------+
| Job_ID | Data_Source | Target_Table | Table_ID | Phase | Status | Source_File_Size | Imported_Rows | Result_Message | Create_Time | Start_Time | End_Time | Created_By |
+--------+--------------------+--------------+----------+-------+---------+------------------+---------------+----------------+----------------------------+------------+----------+------------+
| 60001 | /path/to/small.csv | `test`.`t` | 361 | | pending | 16B | NULL | | 2023-06-08 15:59:37.047703 | NULL | NULL | root@% |
+--------+--------------------+--------------+----------+-------+---------+------------------+---------------+----------------+----------------------------+------------+----------+------------+
インポートジョブのビューと管理
DETACHED
モードが有効になっているインポート ジョブの場合、 SHOW IMPORT
使用して現在のジョブの進行状況を表示できます。
インポート ジョブが開始された後は、 CANCEL IMPORT JOB <job-id>
使用してキャンセルできます。
例
ヘッダー付きのCSVファイルをインポートする
IMPORT INTO t FROM '/path/to/file.csv' WITH skip_rows=1;
DETACHED
モードでファイルを非同期にインポートする
IMPORT INTO t FROM '/path/to/file.csv' WITH DETACHED;
データファイル内の特定のフィールドのインポートをスキップする
データ ファイルが CSV 形式であり、その内容が次のとおりであると仮定します。
id,name,age
1,Tom,23
2,Jack,44
インポートのターゲット テーブル スキーマがCREATE TABLE t(id int primary key, name varchar(100))
であると仮定します。データ ファイルのage
フィールドをテーブルt
にインポートするのをスキップするには、次の SQL ステートメントを実行します。
IMPORT INTO t(id, name, @1) FROM '/path/to/file.csv' WITH skip_rows=1;
ワイルドカード*
使用して複数のデータファイルをインポートする
/path/to/
ディレクトリにfile-01.csv
、 file-02.csv
、 file-03.csv
という名前の 3 つのファイルがあるとします。 IMPORT INTO
使用してこれらの 3 つのファイルをターゲット テーブルt
にインポートするには、次の SQL ステートメントを実行します。
IMPORT INTO t FROM '/path/to/file-*.csv'
Amazon S3 または GCS からデータファイルをインポートする
Amazon S3 からデータ ファイルをインポートします。
IMPORT INTO t FROM 's3://bucket-name/test.csv?access-key=XXX&secret-access-key=XXX';GCS からデータ ファイルをインポートします。
IMPORT INTO t FROM 'gs://import/test.csv?credentials-file=${credentials-file-path}';
Amazon S3 または GCS の URI パス設定の詳細については、 外部ストレージサービスの URI 形式参照してください。
SetClauseを使用して列の値を計算する
データ ファイルが CSV 形式であり、その内容が次のとおりであると仮定します。
id,name,val
1,phone,230
2,book,440
インポートのターゲット テーブル スキーマがCREATE TABLE t(id int primary key, name varchar(100), val int)
であると仮定します。インポート中にval
列の値を 100 倍にしたい場合は、次の SQL ステートメントを実行できます。
IMPORT INTO t(id, name, @1) SET val=@1*100 FROM '/path/to/file.csv' WITH skip_rows=1;
SQL形式のデータファイルをインポートする
IMPORT INTO t FROM '/path/to/file.sql' FORMAT 'sql';
書き込み速度をTiKVに制限する
TiKV ノードへの書き込み速度を 10 MiB/s に制限するには、次の SQL ステートメントを実行します。
IMPORT INTO t FROM 's3://bucket/path/to/file.parquet?access-key=XXX&secret-access-key=XXX' FORMAT 'parquet' WITH MAX_WRITE_SPEED='10MiB';
MySQL 互換性
このステートメントは、MySQL 構文に対する TiDB 拡張です。