- ドキュメント ホーム
- TiDB Cloudについて
- 始めましょう
- アプリケーションの開発
- 概要
- クイックスタート
- TiDB 開発者クラスターを構築する
- TiDB の CRUD SQL
- TiDB でシンプルな CRUD アプリを構築する
- 応用例
- TiDB に接続する
- データベース スキーマの設計
- 書き込みデータ
- データの読み取り
- 取引
- 最適化
- トラブルシューティング
- 参照
- クラウドネイティブ開発環境
- クラスターの管理
- データの移行
- サンプル データのインポート
- データを TiDB に移行する
- TiDB からのデータのエクスポート
- バックアップと復元
- 監視と警告
- パフォーマンスの調整
- 概要
- パフォーマンスを分析する
- SQL チューニング
- TiKV Follower Readの調整
- コプロセッサ キャッシュ
- ガベージ コレクション (GC)
- TiFlash のパフォーマンスを調整する
- ユーザー アクセスの管理
- 請求する
- 参照
- TiDB クラスターのアーキテクチャ
- TiDB Cloudクラスターの制限とクォータ
- TiDB の制限事項
- SQL
- TiDB で SQL を調べる
- SQL 言語の構造と構文
- SQL ステートメント
ADD COLUMN
ADD INDEX
ADMIN
ADMIN CANCEL DDL
ADMIN CHECKSUM TABLE
ADMIN CHECK [TABLE|INDEX]
ADMIN SHOW DDL [JOBS|QUERIES]
ALTER DATABASE
ALTER INDEX
ALTER TABLE
ALTER TABLE COMPACT
ALTER USER
ANALYZE TABLE
BATCH
BEGIN
CHANGE COLUMN
COMMIT
CHANGE DRAINER
CHANGE PUMP
CREATE [GLOBAL|SESSION] BINDING
CREATE DATABASE
CREATE INDEX
CREATE ROLE
CREATE SEQUENCE
CREATE TABLE LIKE
CREATE TABLE
CREATE USER
CREATE VIEW
DEALLOCATE
DELETE
DESC
DESCRIBE
DO
DROP [GLOBAL|SESSION] BINDING
DROP COLUMN
DROP DATABASE
DROP INDEX
DROP ROLE
DROP SEQUENCE
DROP STATS
DROP TABLE
DROP USER
DROP VIEW
EXECUTE
EXPLAIN ANALYZE
EXPLAIN
FLASHBACK TABLE
FLUSH PRIVILEGES
FLUSH STATUS
FLUSH TABLES
GRANT <privileges>
GRANT <role>
INSERT
KILL [TIDB]
MODIFY COLUMN
PREPARE
RECOVER TABLE
RENAME INDEX
RENAME TABLE
REPLACE
REVOKE <privileges>
REVOKE <role>
ROLLBACK
SELECT
SET DEFAULT ROLE
SET [NAMES|CHARACTER SET]
SET PASSWORD
SET ROLE
SET TRANSACTION
SET [GLOBAL|SESSION] <variable>
SHOW ANALYZE STATUS
SHOW [GLOBAL|SESSION] BINDINGS
SHOW BUILTINS
SHOW CHARACTER SET
SHOW COLLATION
SHOW [FULL] COLUMNS FROM
SHOW CREATE SEQUENCE
SHOW CREATE TABLE
SHOW CREATE USER
SHOW DATABASES
SHOW DRAINER STATUS
SHOW ENGINES
SHOW ERRORS
SHOW [FULL] FIELDS FROM
SHOW GRANTS
SHOW INDEX [FROM|IN]
SHOW INDEXES [FROM|IN]
SHOW KEYS [FROM|IN]
SHOW MASTER STATUS
SHOW PLUGINS
SHOW PRIVILEGES
SHOW [FULL] PROCESSSLIST
SHOW PROFILES
SHOW PUMP STATUS
SHOW SCHEMAS
SHOW STATS_HEALTHY
SHOW STATS_HISTOGRAMS
SHOW STATS_META
SHOW STATUS
SHOW TABLE NEXT_ROW_ID
SHOW TABLE REGIONS
SHOW TABLE STATUS
SHOW [FULL] TABLES
SHOW [GLOBAL|SESSION] VARIABLES
SHOW WARNINGS
SHUTDOWN
SPLIT REGION
START TRANSACTION
TABLE
TRACE
TRUNCATE
UPDATE
USE
WITH
- データ型
- 関数と演算子
- クラスタ化インデックス
- 制約
- 生成された列
- SQL モード
- テーブル属性
- 取引
- ビュー
- パーティショニング
- 一時テーブル
- キャッシュされたテーブル
- 文字セットと照合
- 履歴データの読み取り
- システム テーブル
mysql
- 情報_スキーマ
- 概要
ANALYZE_STATUS
CLIENT_ERRORS_SUMMARY_BY_HOST
CLIENT_ERRORS_SUMMARY_BY_USER
CLIENT_ERRORS_SUMMARY_GLOBAL
CHARACTER_SETS
CLUSTER_INFO
COLLATIONS
COLLATION_CHARACTER_SET_APPLICABILITY
COLUMNS
DATA_LOCK_WAITS
DDL_JOBS
DEADLOCKS
ENGINES
KEY_COLUMN_USAGE
PARTITIONS
PROCESSLIST
REFERENTIAL_CONSTRAINTS
SCHEMATA
SEQUENCES
SESSION_VARIABLES
SLOW_QUERY
STATISTICS
TABLES
TABLE_CONSTRAINTS
TABLE_STORAGE_STATS
TIDB_HOT_REGIONS_HISTORY
TIDB_INDEXES
TIDB_SERVERS_INFO
TIDB_TRX
TIFLASH_REPLICA
TIKV_REGION_PEERS
TIKV_REGION_STATUS
TIKV_STORE_STATUS
USER_PRIVILEGES
VIEWS
- システム変数
- ストレージ エンジン
- TiKV
- ティフラッシュ
- Dumpling
- テーブル フィルター
- データとインデックス間の不一致のトラブルシューティング
- よくある質問
- リリースノート
- サポート
- 用語集
Amazon S3 または GCS からTiDB Cloudに Apache Parquet ファイルをインポートする
非圧縮および Snappy 圧縮アパッチ寄木細工形式のデータ ファイルの両方をTiDB Cloudにインポートできます。このドキュメントでは、Amazon Simple Storage Service (Amazon S3) または Google Cloud Storage (GCS) からTiDB Cloudに Parquet ファイルをインポートする方法について説明します。
ノート:
TiDB Cloudは、空のテーブルへの Parquet ファイルのインポートのみをサポートしています。既にデータが含まれている既存のテーブルにデータをインポートするには、このドキュメントに従って、 TiDB Cloudを使用してデータを一時的な空のテーブルにインポートし、
INSERT SELECT
ステートメントを使用してデータをターゲットの既存のテーブルにコピーします。
ステップ 1.Parquet ファイルを準備する
ノート:
現在、 TiDB Cloudは、次のデータ型のいずれかを含む Parquet ファイルのインポートをサポートしていません。インポートする Parquet ファイルにそのようなデータ型が含まれている場合は、最初にサポートされているデータ型 (たとえば、
STRING
) を使用して Parquet ファイルを再生成する必要があります。または、AWS Glue などのサービスを使用してデータ型を簡単に変換することもできます。
LIST
NEST STRUCT
BOOL
ARRAY
MAP
Parquet ファイルが 256 MB より大きい場合は、それぞれのサイズが約 256 MB の小さなファイルに分割することを検討してください。
TiDB Cloudは、非常に大きな Parquet ファイルのインポートをサポートしていますが、サイズが 256 MB 前後の複数の入力ファイルで最高のパフォーマンスを発揮します。これは、 TiDB Cloudが複数のファイルを並行して処理できるため、インポート速度が大幅に向上する可能性があるためです。
次のように Parquet ファイルに名前を付けます。
Parquet ファイルにテーブル全体のすべてのデータが含まれている場合は、ファイルに
${db_name}.${table_name}.parquet
形式の名前を付けます。これは、データをインポートするときに${db_name}.${table_name}
テーブルにマップされます。1 つのテーブルのデータが複数の Parquet ファイルに分割されている場合は、これらの Parquet ファイルに数値のサフィックスを追加します。たとえば、
${db_name}.${table_name}.000001.parquet
と${db_name}.${table_name}.000002.parquet
です。数値サフィックスは連続していなくてもかまいませんが、昇順でなければなりません。また、数字の前にゼロを追加して、すべてのサフィックスが同じ長さになるようにする必要もあります。
ノート:
上記のルールに従って Parquet ファイル名を更新できない場合 (たとえば、Parquet ファイル リンクが他のプログラムでも使用されている場合など) は、ファイル名を変更せずにステップ 4のカスタム パターンを使用してソース データをインポートできます。単一のターゲット テーブルに。
ステップ 2. ターゲット表スキーマを作成する
Parquet ファイルにはスキーマ情報が含まれていないため、Parquet ファイルからTiDB Cloudにデータをインポートする前に、次のいずれかの方法を使用してテーブル スキーマを作成する必要があります。
方法 1: TiDB Cloudで、ソース データのターゲット データベースとテーブルを作成します。
方法 2: Parquet ファイルが配置されている Amazon S3 または GCS ディレクトリで、ソース データのターゲット テーブル スキーマ ファイルを次のように作成します。
ソース データのデータベース スキーマ ファイルを作成します。
Parquet ファイルがステップ1の命名規則に従っている場合、データベース スキーマ ファイルはデータ インポートのオプションです。それ以外の場合、データベース スキーマ ファイルは必須です。
各データベース スキーマ ファイルは
${db_name}-schema-create.sql
形式で、CREATE DATABASE
DDL ステートメントを含む必要があります。このファイルを使用すると、 TiDB Cloudは、データをインポートするときにデータを格納するための${db_name}
のデータベースを作成します。たとえば、次のステートメントを含む
mydb-scehma-create.sql
ファイルを作成すると、データをインポートするときにTiDB Cloudによってmydb
データベースが作成されます。CREATE DATABASE mydb;
ソース データのテーブル スキーマ ファイルを作成します。
Parquet ファイルが配置されている Amazon S3 または GCS ディレクトリにテーブル スキーマ ファイルを含めない場合、データをインポートするときに、 TiDB Cloudは対応するテーブルを作成しません。
各テーブル スキーマ ファイルは
${db_name}.${table_name}-schema.sql
形式で、CREATE TABLE
DDL ステートメントを含む必要があります。このファイルを使用すると、データをインポートすると、 TiDB Cloudは${db_name}
データベースに${db_table}
テーブルを作成します。たとえば、次のステートメントを含む
mydb.mytable-schema.sql
ファイルを作成すると、データをインポートすると、 TiDB Cloudはmydb
データベースにmytable
テーブルを作成します。CREATE TABLE mytable ( ID INT, REGION VARCHAR(20), COUNT INT );
ノート:
各
${db_name}.${table_name}-schema.sql
ファイルには、単一の DDL ステートメントのみを含める必要があります。ファイルに複数の DDL ステートメントが含まれている場合、最初のステートメントのみが有効になります。
ステップ 3. クロスアカウント アクセスを構成する
TiDB Cloudが Amazon S3 または GCS バケット内の Parquet ファイルにアクセスできるようにするには、次のいずれかを実行します。
Parquet ファイルが Amazon S3 にある場合、 Amazon S3 へのクロスアカウント アクセスを設定する .
完了したら、 ステップ 4で必要になるため、Role ARN の値を書き留めます。
Parquet ファイルが GCS にある場合は、 GCS へのクロスアカウント アクセスを構成する .
ステップ 4. Parquet ファイルをTiDB Cloudにインポートする
Parquet ファイルをTiDB Cloudにインポートするには、次の手順を実行します。
[**アクティブなクラスター]**ページに移動します。
ターゲットクラスタの領域を見つけて、領域の右上隅にある [データのインポート] をクリックします。 [データ インポート タスク]ページが表示されます。
ヒント:
または、[アクティブなクラスター] ページでターゲットクラスタの名前をクリックし、右上隅にある [データのインポート] をクリックすることもできます。
[**データ インポート タスク]**ページで、次の情報を指定します。
データ ソース タイプ: データ ソースのタイプを選択します。
バケット URL : Parquet ファイルが配置されているバケット URL を選択します。
データ形式: Parquetを選択します。
資格情報の設定(このフィールドは AWS S3 でのみ表示されます): Role-ARNの Role ARN 値を入力します。
ターゲット クラスタ: [ユーザー名]および [パスワード] フィールドに入力します。
DB/Tables Filter : インポートするテーブルをフィルタリングする場合は、このフィールドに
,
で区切られた 1 つ以上のテーブル フィルターを指定できます。例えば:
db01.*
:db01
データベース内のすべてのテーブルがインポートされます。db01.table01*,db01.table02*
:db01
データベースのtable01
とtable02
で始まるすべてのテーブルがインポートされます。!db02.*
:db02
データベースのテーブルを除き、他のすべてのテーブルがインポートされます。!
は、インポートする必要のないテーブルを除外するために使用されます。*.*
: すべてのテーブルがインポートされます。
詳細については、 テーブル フィルター snytaxを参照してください。
カスタム パターン: ファイル名が特定のパターンに一致する Parquet ファイルを単一のターゲット テーブルにインポートする場合は、カスタム パターン機能を有効にします。
ノート:
この機能を有効にすると、1 つのインポート タスクで一度に 1 つのテーブルにのみデータをインポートできます。この機能を使用してデータを別のテーブルにインポートする場合は、インポートするたびに別のターゲット テーブルを指定して、複数回インポートする必要があります。
カスタム パターンが有効になっている場合、次のフィールドで、Parquet ファイルと単一のターゲット テーブルとの間のカスタム マッピング ルールを指定する必要があります。
オブジェクト名パターン: インポートする Parquet ファイルの名前と一致するパターンを入力します。 Parquet ファイルが 1 つしかない場合は、ここにファイル名を直接入力できます。
例えば:
my-data?.parquet
:my-data
と 1 文字 (my-data1.parquet
とmy-data2.parquet
など) で始まるすべての Parquet ファイルが同じターゲット テーブルにインポートされます。my-data*.parquet
:my-data
で始まるすべての Parquet ファイルが同じターゲット テーブルにインポートされます。
ターゲット テーブル名: TiDB Cloudのターゲット テーブルの名前を入力します。これは
${db_name}.${table_name}
形式である必要があります。たとえば、mydb.mytable
です。このフィールドは特定のテーブル名を 1 つしか受け付けないため、ワイルドカードはサポートされていないことに注意してください。
[**インポート]**をクリックします。
データベース リソースの消費に関する警告メッセージが表示されます。
[**確認]**をクリックします。
TiDB Cloudは、指定されたバケット URL のデータにアクセスできるかどうかの検証を開始します。検証が完了して成功すると、インポート タスクが自動的に開始されます。
AccessDenied
エラーが発生した場合は、 S3 からのデータ インポート中のアクセス拒否エラーのトラブルシューティングを参照してください。インポートの進行状況が成功を示したら、 Total Files:の後の数字を確認します。
数値がゼロの場合は、[**オブジェクト名パターン]**フィールドに入力した値と一致するデータ ファイルがないことを意味します。この場合、[オブジェクト名のパターン]フィールドに入力ミスがないかどうかを確認し、再試行してください。
インポート タスクの実行時に、サポートされていない変換または無効な変換が検出された場合、 TiDB Cloudはインポート ジョブを自動的に終了し、インポート エラーを報告します。
インポート エラーが発生した場合は、次の手順を実行します。
部分的にインポートされたテーブルを削除します。
テーブル スキーマ ファイルを確認してください。エラーがある場合は、テーブル スキーマ ファイルを修正します。
Parquet ファイルのデータ型を確認します。
サポートされていないデータ型 (
NEST STRUCT
、ARRAY
、またはMAP
など) が Parquet ファイルに含まれている場合は、 サポートされているデータ型 (STRING
など) を使用して Parquet ファイルを再生成する必要があります。インポート タスクを再試行します。
サポートされているデータ型
次の表に、 TiDB Cloudにインポートできる、サポートされている Parquet データ型を示します。
寄木細工プリミティブ型 | 寄木細工の論理型 | TiDB または MySQL の型 |
---|---|---|
ダブル | ダブル | ダブル 浮く |
FIXED_LEN_BYTE_ARRAY(9) | 10 進数 (20,0) | BIGINT 未署名 |
FIXED_LEN_BYTE_ARRAY(N) | DECIMAL(p,s) | 小数 数値 |
INT32 | DECIMAL(p,s) | 小数 数値 |
INT32 | なし | INT ミディアムミント 年 |
INT64 | DECIMAL(p,s) | 小数 数値 |
INT64 | なし | BIGINT 符号なし整数 ミディアムミント 未署名 |
INT64 | TIMESTAMP_MICROS | 日付時刻 タイムスタンプ |
バイト配列 | なし | バイナリ 少し BLOB CHAR LINESTRING ロングブロブ ミディアムブロブ 複数行文字列 小さな塊 VARBINARY |
バイト配列 | ストリング | 列挙型 日にち 小数 ジオメトリ ジオメトリコレクション JSON ロングテキスト 中文 マルチポイント マルチポリゴン 数値 点 ポリゴン 設定 文章 時間 小さなテキスト VARCHAR |
SMALLINT | なし | INT32 |
SMALLINT 未署名 | なし | INT32 |
TINYINT | なし | INT32 |
TINYINT UNSIGNED | なし | INT32 |