IMPORT INTO

IMPORT INTO 语句使用 TiDB Lightning 的物理导入模式导入数据,提供以下两种用法:

  • IMPORT INTO ... FROM FILE 用于将 CSVSQLPARQUET 等格式的数据文件导入到 TiDB 的一张空表中。
  • IMPORT INTO ... FROM SELECT 用于将 SELECT 语句的查询结果导入到 TiDB 的一张空表中,也支持导入使用 AS OF TIMESTAMP 查询的历史数据。

使用限制

  • 只支持导入数据到数据库中已有的空表。
  • 不支持导入到临时表或者缓存表
  • 不支持事务,也无法回滚。在显式事务 (BEGIN/END) 中执行会报错。
  • 不支持和 Backup & RestoreFLASHBACK CLUSTER创建索引加速、TiDB Lightning 导入、TiCDC 数据同步、Point-in-time recovery (PITR) 等功能同时工作。相关兼容性介绍,请参见 IMPORT INTO 和 TiDB Lightning 与日志备份和 TiCDC 的兼容性
  • 导入数据的过程中,请勿在目标表上执行 DDL 和 DML 操作,也不要在目标数据库上执行 FLASHBACK DATABASE,否则会导致导入失败或数据不一致。导入期间也不建议进行读操作,因为读取的数据可能不一致。请在导入完成后再进行读写操作。
  • 导入期间会占用大量系统资源,建议 TiDB 节点使用 32 核以上的 CPU 和 64 GiB 以上内存以获得更好的性能。导入期间会将排序好的数据写入到 TiDB 临时目录下,建议优先考虑配置闪存等高性能存储介质。详情请参考物理导入使用限制
  • TiDB 临时目录至少需要有 90 GiB 的可用空间。建议预留大于等于所需导入数据的存储空间,以保证最佳导入性能。
  • 一个导入任务只支持导入数据到一张目标表中。
  • TiDB 集群升级期间不支持使用该语句。
  • 所需导入的数据不能存在主键或非空唯一索引冲突的记录,否则会导致任务失败。
  • 已知问题:在 TiDB 节点配置文件中的 PD 地址与当前集群 PD 拓扑不一致时(如曾经缩容过 PD,但没有对应更新 TiDB 配置文件或者更新该文件后未重启 TiDB 节点),执行 IMPORT INTO 会失败。

IMPORT INTO ... FROM FILE 使用限制

  • 目前单个 IMPORT INTO 任务支持导入 10 TiB 以内的数据。启用全局排序后,单个 IMPORT INTO 任务支持导入 40 TiB 以内的数据。
  • 在导入完成前会阻塞当前连接,如果需要异步执行,可以添加 DETACHED 选项。
  • 每个集群上最多同时有 16 个 IMPORT INTO 任务(参考 TiDB 分布式执行框架使用限制)在运行,当集群没有足够资源或者达到任务数量上限时,新提交的导入任务会排队等待执行。
  • 当使用全局排序导入数据时,THREAD 选项值需要大于或等于 8
  • 当使用全局排序导入数据时,单行数据的总长度不能超过 32 MiB。
  • 未开启 TiDB 分布式执行框架时创建的所有 IMPORT INTO 任务会直接在提交任务的节点上运行,后续即使开启了分布式执行框架,这些任务也不会被调度到其它 TiDB 节点上执行。开启分布式执行框架后,新创建的 IMPORT INTO 任务如果导入的是 S3 或 GCS 中的数据,则会自动调度或者 failover 到其它 TiDB 节点执行。

IMPORT INTO ... FROM SELECT 使用限制

  • IMPORT INTO ... FROM SELECT 仅能在当前用户连接的 TiDB 节点执行,在导入完成前会阻塞当前连接。
  • IMPORT INTO ... FROM SELECT 仅支持配置 THREADDISABLE_PRECHECK 这两个导入选项
  • IMPORT INTO ... FROM SELECT 不支持使用 SHOW IMPORT JOB(s)CANCEL IMPORT JOB <job-id> 等任务管理语句。
  • TiDB 临时目录需要有足够的空间来存储整个 SELECT 语句查询结果(暂不支持设置 DISK_QUOTA 选项)。
  • 不支持使用 tidb_snapshot 导入历史数据。

导入前准备

在使用 IMPORT INTO 开始导入数据前,请确保:

  • 要导入的目标表在 TiDB 中已经创建,并且是空表。
  • 当前集群有足够的剩余空间能容纳要导入的数据。
  • 当前连接的 TiDB 节点的临时目录至少有 90 GiB 的磁盘空间。如果导入存储在 S3 或 GCS 的数据文件且开启了 tidb_enable_dist_task,需要确保集群中所有 TiDB 节点的临时目录都有足够的磁盘空间。

需要的权限

执行 IMPORT INTO 的用户需要有目标表的 SELECTUPDATEINSERTDELETEALTER 权限。如果是导入存储在 TiDB 本地的文件,还需要有 FILE 权限。

语法图

ImportIntoStmt
IMPORTINTOTableNameColumnNameOrUserVarListSetClauseFROMfileLocationFormatWithOptionsIMPORTINTOTableNameColumnNameListFROMSelectStatementWithOptions
ColumnNameOrUserVarList
(ColumnNameOrUserVar,)
ColumnNameList
(ColumnName,)
SetClause
SETSetItem,
SetItem
ColumnName=Expr
Format
CSVSQLPARQUET
WithOptions
WITHOptionItem,
OptionItem
optionName=optionValoptionName

参数说明

ColumnNameOrUserVarList

用于指定数据文件中每行的各个字段如何对应到目标表列,也可以将字段对应到某个变量,用来跳过导入某些字段或者在 SetClause 中使用。

  • 当不指定该参数时,数据文件中每行的字段数需要和目标表的列数一致,且各个字段会按顺序导入到对应的列。
  • 当指定该参数时,指定的列或变量个数需要和数据文件中每行的字段数一致。

SetClause

用于指定目标列值的计算方式。在 SET 表达式的右侧,可以引用在 ColumnNameOrUserVarList 中指定的变量。

SET 表达式左侧只能引用 ColumnNameOrUserVarList 中没有的列名。如果目标列名已经在 ColumnNameOrUserVarList 中,则该 SET 表达式无效。

fileLocation

用于指定数据文件的存储位置,该位置可以是 S3 或 GCS URI 路径,也可以是 TiDB 本地文件路径。

  • S3 或 GCS URI 路径:配置详见外部存储服务的 URI 格式

  • TiDB 本地文件路径:必须为绝对路径,数据文件后缀必须为 .csv.sql.parquet。确保该路径对应的文件存储在当前用户连接的 TiDB 节点上,且当前连接的用户有 FILE 权限。

使用 fileLocation 可以指定单个文件,也可使用通配符 *[] 来匹配需要导入的多个文件。注意通配符只能用在文件名部分,不会匹配目录,也不会递归处理子目录下相关的文件。下面以数据存储在 S3 为例:

  • 导入单个文件:s3://<bucket-name>/path/to/data/foo.csv
  • 导入指定路径下的所有文件:s3://<bucket-name>/path/to/data/*
  • 导入指定路径下的所有以 .csv 结尾的文件:s3://<bucket-name>/path/to/data/*.csv
  • 导入指定路径下所有以 foo 为前缀的文件:s3://<bucket-name>/path/to/data/foo*
  • 导入指定路径下以 foo 为前缀、以 .csv 结尾的文件:s3://<bucket-name>/path/to/data/foo*.csv
  • 导入指定路径下的 1.csv2.csvs3://<bucket-name>/path/to/data/[12].csv

Format

IMPORT INTO 支持 3 种数据文件格式,包括 CSVSQLPARQUET。当不指定该参数时,默认格式为 CSV

WithOptions

你可以通过 WithOptions 来指定导入选项,控制数据导入过程。例如,如需使导入数据文件的任务在后台异步执行,你可以通过在 IMPORT INTO 语句中添加 WITH DETACHED 选项来开启导入任务的 DETACHED 模式。

目前支持的选项包括:

选项名支持的数据源以及格式描述
CHARACTER_SET='<string>'CSV指定数据文件的字符集,默认为 utf8mb4。目前支持的字符集包括 binaryutf8utf8mb4gb18030gbklatin1ascii
FIELDS_TERMINATED_BY='<string>'CSV指定字段分隔符,默认为 ,
FIELDS_ENCLOSED_BY='<char>'CSV指定字段的定界符,默认为 "
FIELDS_ESCAPED_BY='<char>'CSV指定字段的转义符,默认为 \
FIELDS_DEFINED_NULL_BY='<string>'CSV指定字段为何值时将会被解析为 NULL,默认为 \N
LINES_TERMINATED_BY='<string>'CSV指定行分隔符,默认 IMPORT INTO 会自动识别分隔符为 \n\r\r\n,如果行分隔符为以上三种,无须显式指定该选项。
SKIP_ROWS=<number>CSV指定需要跳过的行数,默认为 0。可通过该参数跳过 CSV 中的 header,如果是通过通配符来指定所需导入的源文件,该参数会对 fileLocation 中通配符匹配的所有源文件生效。
SPLIT_FILECSV将单个 CSV 文件拆分为多个 256 MiB 左右的小文件块进行并行处理,以提高导入效率。该参数仅对压缩的 CSV 文件生效,且该参数和 TiDB Lightning 的 strict-format 有相同的使用限制。注意,你需要为该选项显式指定 LINES_TERMINATED_BY
DISK_QUOTA='<string>'所有文件格式指定数据排序期间可使用的磁盘空间阈值。默认值为 TiDB 临时目录所在磁盘空间的 80%。如果无法获取磁盘总大小,默认值为 50 GiB。当显式指定 DISK_QUOTA 时,该值同样不能超过 TiDB 临时目录所在磁盘空间的 80%。
DISABLE_TIKV_IMPORT_MODE所有文件格式指定是否禁止导入期间将 TiKV 切换到导入模式。默认不禁止。如果当前集群存在正在运行的读写业务,为避免导入过程对这部分业务造成影响,可开启该参数。
THREAD=<number>所有文件格式、SELECT 语句的查询结果指定导入的并发度。对于 IMPORT INTO ... FROM FILETHREAD 默认值为 TiDB 节点的 CPU 核数的 50%,最小值为 1,最大值为 CPU 核数;对于 IMPORT INTO ... FROM SELECTTHREAD 默认值为 2,最小值为 1,最大值为 TiDB 节点的 CPU 核数的 2 倍。如需导入数据到一个空集群,建议可以适当调大该值,以提升导入性能。如果目标集群已经用于生产环境,请根据业务要求按需调整该参数值。
MAX_WRITE_SPEED='<string>'所有文件格式控制写入到单个 TiKV 的速度,默认无速度限制。例如设置为 1MiB,则限制写入速度为 1 MiB/s。
CHECKSUM_TABLE='<string>'所有文件格式配置是否在导入完成后对目标表是否执行 CHECKSUM 检查来验证导入的完整性。可选的配置项为 "required"(默认)、"optional""off""required" 表示在导入完成后执行 CHECKSUM 检查,如果 CHECKSUM 检查失败,则会报错退出。"optional" 表示在导入完成后执行 CHECKSUM 检查,如果报错,会输出一条警告日志并忽略报错。"off" 表示导入结束后不执行 CHECKSUM 检查。
DETACHED所有文件格式该参数用于控制 IMPORT INTO 是否异步执行。开启该参数后,执行 IMPORT INTO 会立即返回该导入任务的 Job_ID 等信息,且该任务会在后台异步执行。
CLOUD_STORAGE_URI所有文件格式指定编码后的 KV 数据全局排序的目标存储地址。未指定该参数时,IMPORT INTO 会根据系统变量 tidb_cloud_storage_uri 的值来确定是否使用全局排序,如果该系统变量指定了目标存储地址,就使用指定的地址进行全局排序。当指定该参数时,如果参数值不为空,IMPORT INTO 会使用该参数值作为目标存储地址;如果参数值为空,则表示强制使用本地排序。目前目标存储地址仅支持 Amazon S3,具体 Amazon S3 URI 格式配置,请参见 Amazon S3 URI 格式。注意当使用该功能时,所有 TiDB 节点都需要有目标 Amazon S3 bucket 的读写权限,至少包括 s3:ListBuckets3:GetObjects3:DeleteObjects3:PutObjects3:AbortMultipartUpload
DISABLE_PRECHECK所有文件格式、SELECT 语句的查询结果设置该选项后会关闭非 critical 的前置检查项,如检查是否存在 CDC 或 PITR 等任务。

IMPORT INTO ... FROM FILE 使用说明

IMPORT INTO ... FROM FILE 支持导入存储在 Amazon S3、GCS 和 TiDB 本地的数据文件。

  • 对于存储在 S3 或 GCS 的数据文件,IMPORT INTO ... FROM FILE 支持通过 TiDB 分布式执行框架运行。

    • 当此框架功能开启时(即 tidb_enable_dist_taskON),IMPORT INTO 会将一个数据导入任务拆分成多个子任务并分配到各个 TiDB 节点上运行,以提高导入效率。
    • 当此框架功能关闭时,IMPORT INTO ... FROM FILE 仅支持在当前用户连接的 TiDB 节点上运行。
  • 对于存储在 TiDB 本地的数据文件,IMPORT INTO ... FROM FILE 仅支持在当前用户连接的 TiDB 节点上运行,因此数据文件需要存放在当前用户连接的 TiDB 节点上。如果是通过 PROXY 或者 Load Balancer 访问 TiDB,则无法导入存储在 TiDB 本地的数据文件。

压缩文件

IMPORT INTO ... FROM FILE 支持导入压缩的 CSVSQL 文件,会自动根据数据文件后缀来确定该文件是否为压缩文件以及压缩格式:

后缀名压缩格式
.gz.gzipgzip 压缩格式
.zstd.zstZStd 压缩格式
.snappysnappy 压缩格式

全局排序

IMPORT INTO ... FROM FILE 会将源数据文件的导入拆分到多个子任务中,各个子任务独立进行编码排序并导入。如果各个子任务编码后的 KV (TiDB 将数据编码为 KV 的方式,参考 TiDB 数据库的计算) range 重叠过多,导入时 TiKV 需要不断地进行 compaction,会降低导入的性能和稳定性。

在以下情况中,可能存在较多的 KV range 重叠:

  • 如果分配到各子任务的数据文件中的行存在主键范围的重叠,那么各个子任务编码后产生的数据 KV 也会存在重叠。
    • 说明:IMPORT INTO 会按数据文件遍历顺序来划分子任务,一般遍历文件按文件名字典序来排列。
  • 如果目标表索引较多,或索引列值在数据文件中较分散,那么各个子任务编码后产生的索引 KV 也会存在重叠。

当开启 TiDB 分布式执行框架时,可通过 IMPORT INTOCLOUD_STORAGE_URI 参数,或者使用系统变量 tidb_cloud_storage_uri 指定编码后的 KV 数据的目标存储地址来开启全局排序。全局排序目前支持使用 Amazon S3 作为全局排序存储地址。开启全局排序后,IMPORT INTO 会将编码后的 KV 数据写入云存储,并在云存储进行全局排序,之后再将全局排序后的索引数据和表数据并行导入到 TiKV,从而避免因 KV 重叠导致的问题,以提升导入的稳定性和性能。

全局排序对内存资源的使用较高,在数据导入开始前,建议先设置 tidb_server_memory_limit_gc_triggertidb_server_memory_limit 两个变量,避免频繁触发 golang GC 从而影响导入效率:

SET GLOBAL tidb_server_memory_limit_gc_trigger=1; SET GLOBAL tidb_server_memory_limit='75%';

输出内容

IMPORT INTO ... FROM FILE 导入完成,或者开启了 DETACHED 模式时,TiDB 会返回当前任务的信息。以下为一些示例,字段的含义描述请参考 SHOW IMPORT JOB(s)

IMPORT INTO ... FROM FILE 导入完成时输出:

IMPORT INTO t FROM '/path/to/small.csv'; +--------+--------------------+--------------+----------+-------+----------+------------------+---------------+----------------+----------------------------+----------------------------+----------------------------+------------+ | Job_ID | Data_Source | Target_Table | Table_ID | Phase | Status | Source_File_Size | Imported_Rows | Result_Message | Create_Time | Start_Time | End_Time | Created_By | +--------+--------------------+--------------+----------+-------+----------+------------------+---------------+----------------+----------------------------+----------------------------+----------------------------+------------+ | 60002 | /path/to/small.csv | `test`.`t` | 363 | | finished | 16B | 2 | | 2023-06-08 16:01:22.095698 | 2023-06-08 16:01:22.394418 | 2023-06-08 16:01:26.531821 | root@% | +--------+--------------------+--------------+----------+-------+----------+------------------+---------------+----------------+----------------------------+----------------------------+----------------------------+------------+

开启了 DETACHED 模式时,执行 IMPORT INTO ... FROM FILE 语句会立即返回输出。从输出中,你可以看到该任务状态 Statuspending,表示等待执行。

IMPORT INTO t FROM '/path/to/small.csv' WITH DETACHED; +--------+--------------------+--------------+----------+-------+---------+------------------+---------------+----------------+----------------------------+------------+----------+------------+ | Job_ID | Data_Source | Target_Table | Table_ID | Phase | Status | Source_File_Size | Imported_Rows | Result_Message | Create_Time | Start_Time | End_Time | Created_By | +--------+--------------------+--------------+----------+-------+---------+------------------+---------------+----------------+----------------------------+------------+----------+------------+ | 60001 | /path/to/small.csv | `test`.`t` | 361 | | pending | 16B | NULL | | 2023-06-08 15:59:37.047703 | NULL | NULL | root@% | +--------+--------------------+--------------+----------+-------+---------+------------------+---------------+----------------+----------------------------+------------+----------+------------+

查看和控制导入任务

对于开启了 DETACHED 模式的任务,可通过 SHOW IMPORT 来查看当前任务的执行进度。

任务启动后,可通过 CANCEL IMPORT JOB <job-id> 来取消对应任务。

使用示例

导入带有 header 的 CSV 文件

IMPORT INTO t FROM '/path/to/file.csv' WITH skip_rows=1;

DETACHED 模式异步导入

IMPORT INTO t FROM '/path/to/file.csv' WITH DETACHED;

忽略数据文件中的特定字段

假设数据文件为以下 CSV 文件:

id,name,age 1,Tom,23 2,Jack,44

假设要导入的目标表结构为 CREATE TABLE t(id int primary key, name varchar(100)),则可通过以下方式来忽略导入文件中的 age 字段:

IMPORT INTO t(id, name, @1) FROM '/path/to/file.csv' WITH skip_rows=1;

使用通配符导入多个数据文件

假设在 /path/to/ 目录下有 file-01.csvfile-02.csvfile-03.csv 三个文件,如需通过 IMPORT INTO 将这三个文件导入到目标表 t 中,可使用如下 SQL 语句:

IMPORT INTO t FROM '/path/to/file-*.csv';

如果只需要将 file-01.csvfile-03.csv 导入到目标表,可以使用如下 SQL 语句:

IMPORT INTO t FROM '/path/to/file-0[13].csv';

从 S3 或 GCS 导入数据

  • 从 S3 导入数据

    IMPORT INTO t FROM 's3://bucket-name/test.csv?access-key=XXX&secret-access-key=XXX';
  • 从 GCS 导入数据

    IMPORT INTO t FROM 'gs://import/test.csv?credentials-file=${credentials-file-path}';

关于 Amazon S3 或 GCS 的 URI 路径配置,详见外部存储服务的 URI 格式

通过 SetClause 语句计算列值

假设数据文件为以下 CSV 文件:

id,name,val 1,phone,230 2,book,440

要导入的目标表结构为 CREATE TABLE t(id int primary key, name varchar(100), val int),并且希望在导入时将 val 列值扩大 100 倍,则可通过以下方式来导入:

IMPORT INTO t(id, name, @1) SET val=@1*100 FROM '/path/to/file.csv' WITH skip_rows=1;

导入 SQL 格式的数据文件

IMPORT INTO t FROM '/path/to/file.sql' FORMAT 'sql';

限制写入 TiKV 的速度

限制写入单个 TiKV 的速度为 10 MiB/s:

IMPORT INTO t FROM 's3://bucket/path/to/file.parquet?access-key=XXX&secret-access-key=XXX' FORMAT 'parquet' WITH MAX_WRITE_SPEED='10MiB';

IMPORT INTO ... FROM SELECT 使用说明

IMPORT INTO ... FROM SELECT 支持将 SELECT 语句的查询结果导入到 TiDB 的一张空表中,也支持导入使用 AS OF TIMESTAMP 查询的历史数据。

导入 SELECT 语句的查询结果

导入 UNION 结果到目标表 t,指定导入的并发度为 8,并且关闭非 critical 的 precheck 项:

IMPORT INTO t FROM SELECT * FROM src UNION SELECT * FROM src2 WITH THREAD = 8, DISABLE_PRECHECK;

导入指定时间点的历史数据

导入指定时间点的历史数据到目标表 t

IMPORT INTO t FROM SELECT * FROM src AS OF TIMESTAMP '2024-02-27 11:38:00';

MySQL 兼容性

该语句是对 MySQL 语法的扩展。

另请参阅

文档内容是否有帮助?