📣
TiDB Cloud Essential 开放公测中。此页面由 AI 自动翻译,英文原文请见此处。

从云存储导入 CSV 文件到 TiDB Cloud Dedicated



本文档介绍如何将 CSV 文件从 Amazon Simple Storage Service(Amazon S3)、Google Cloud Storage(GCS)或 Azure Blob Storage 导入到 TiDB Cloud Dedicated。

限制

  • 为保证数据一致性,TiDB Cloud 仅允许将 CSV 文件导入到空表中。若需将数据导入已存在且包含数据的表,可以按照本文档的步骤,先将数据导入到一个临时空表,再通过 INSERT SELECT 语句将数据复制到目标已存在的表中。

  • 如果 TiDB Cloud Dedicated 集群已开启 changefeed 或已启用 Point-in-time Restore,则无法向该集群导入数据(Import Data 按钮会被禁用),因为当前数据导入功能使用的是 物理导入模式。在该模式下,导入的数据不会生成变更日志,因此 changefeed 和 Point-in-time Restore 无法检测到导入的数据。

第 1 步:准备 CSV 文件

  1. 如果单个 CSV 文件大于 256 MiB,建议将其切分为更小的文件,每个文件大小约为 256 MiB。

    TiDB Cloud 支持导入非常大的 CSV 文件,但在多个约 256 MiB 的输入文件时性能最佳。这是因为 TiDB Cloud 可以并行处理多个文件,从而大幅提升导入速度。

  2. 按如下方式命名 CSV 文件:

    • 如果一个 CSV 文件包含整个表的所有数据,文件名应采用 ${db_name}.${table_name}.csv 格式,导入时会映射到 ${db_name}.${table_name} 表。
    • 如果一个表的数据被拆分为多个 CSV 文件,应在这些文件名后添加数字后缀。例如,${db_name}.${table_name}.000001.csv${db_name}.${table_name}.000002.csv。数字后缀可以不连续,但必须为正序。还需在数字前补零,确保所有后缀长度一致。
    • TiDB Cloud 支持导入以下格式的压缩文件:.gzip.gz.zstd.zst.snappy。如需导入压缩的 CSV 文件,文件名应采用 ${db_name}.${table_name}.${suffix}.csv.${compress} 格式,其中 ${suffix} 可选,可为任意整数(如 '000001')。例如,若需将 trips.000001.csv.gz 文件导入到 bikeshare.trips 表,需要将文件重命名为 bikeshare.trips.000001.csv.gz

第 2 步:创建目标表结构

由于 CSV 文件不包含表结构信息,在将 CSV 文件数据导入 TiDB Cloud 前,需要通过以下任一方法创建表结构:

  • 方法 1:在 TiDB Cloud 中,为源数据创建目标数据库和表。

  • 方法 2:在存放 CSV 文件的 Amazon S3、GCS 或 Azure Blob Storage 目录下,为源数据创建目标表结构文件,具体如下:

    1. 为源数据创建数据库结构文件。

      如果你的 CSV 文件遵循 第 1 步 的命名规则,则数据库结构文件为可选,否则为必需。

      每个数据库结构文件必须采用 ${db_name}-schema-create.sql 格式,并包含 CREATE DATABASE DDL 语句。通过该文件,TiDB Cloud 会在导入数据时创建 ${db_name} 数据库以存储数据。

      例如,若创建了包含如下语句的 mydb-schema-create.sql 文件,TiDB Cloud 会在导入数据时创建 mydb 数据库。

      CREATE DATABASE mydb;
    2. 为源数据创建表结构文件。

      如果未在存放 CSV 文件的 Amazon S3、GCS 或 Azure Blob Storage 目录下包含表结构文件,TiDB Cloud 在导入数据时不会为你创建对应的表。

      每个表结构文件必须采用 ${db_name}.${table_name}-schema.sql 格式,并包含 CREATE TABLE DDL 语句。通过该文件,TiDB Cloud 会在 ${db_name} 数据库中创建 ${db_table} 表以存储数据。

      例如,若创建了包含如下语句的 mydb.mytable-schema.sql 文件,TiDB Cloud 会在导入数据时在 mydb 数据库中创建 mytable 表。

      CREATE TABLE mytable ( ID INT, REGION VARCHAR(20), COUNT INT );

第 3 步:配置跨账户访问

为允许 TiDB Cloud 访问 Amazon S3 bucket、GCS bucket 或 Azure Blob Storage container 中的 CSV 文件,请按以下方式操作:

第 4 步:将 CSV 文件导入 TiDB Cloud

要将 CSV 文件导入 TiDB Cloud,请按以下步骤操作:

    1. 打开目标集群的 Import 页面。

      1. 登录 TiDB Cloud 控制台,进入项目的 Clusters 页面。

        提示:

        你可以通过左上角的下拉框切换组织、项目和集群。

      2. 点击目标集群名称进入概览页,然后在左侧导航栏点击 Data > Import

    2. 选择 Import data from Cloud Storage

    3. Import Data from Amazon S3 页面,填写以下信息:

      • Included Schema Files:如果源文件夹包含目标表结构文件(如 ${db_name}-schema-create.sql),选择 Yes,否则选择 No
      • Data Format:选择 CSV
      • Edit CSV Configuration:如有需要,根据你的 CSV 文件配置选项。你可以设置分隔符和定界符字符,指定是否使用反斜杠转义字符,以及文件是否包含表头行。
      • Folder URI:输入源文件夹 URI,格式为 s3://[bucket_name]/[data_source_folder]/,路径必须以 / 结尾。例如,s3://mybucket/myfolder/
      • Bucket Access:你可以使用 AWS IAM role ARN 或 AWS 访问密钥访问 bucket。
        • AWS Role ARN(推荐):输入 AWS IAM role ARN 值。如果还没有为 bucket 创建 IAM role,可以点击 Click here to create new one with AWS CloudFormation,按照屏幕上的指引使用 AWS CloudFormation 模板创建。也可以手动为 bucket 创建 IAM role ARN。
        • AWS Access Key:输入 AWS access key ID 和 AWS secret access key。
        • 两种方式的详细说明见 配置 Amazon S3 访问
    4. 点击 Connect

    5. Destination 部分,选择目标数据库和表。

      导入多个文件时,可以通过 Advanced Settings > Mapping Settings 自定义各目标表与其对应 CSV 文件的映射。对于每个目标数据库和表:

      • Target Database:从列表中选择对应的数据库名。
      • Target Table:从列表中选择对应的表名。
      • Source File URIs and Names:输入源文件的完整 URI,包括文件夹和文件名,格式为 s3://[bucket_name]/[data_source_folder]/[file_name].csv。也可以使用通配符(?*)匹配多个文件。例如:
        • s3://mybucket/myfolder/my-data1.csvmyfolder 下名为 my-data1.csv 的单个 CSV 文件将被导入到目标表。
        • s3://mybucket/myfolder/my-data?.csvmyfolder 下所有以 my-data 开头、后跟一个字符(如 my-data1.csvmy-data2.csv)的 CSV 文件将被导入同一目标表。
        • s3://mybucket/myfolder/my-data*.csvmyfolder 下所有以 my-data 开头(如 my-data10.csvmy-data100.csv)的 CSV 文件将被导入同一目标表。
    6. 点击 Start Import

    7. 当导入进度显示 Completed 时,检查已导入的表。

    1. 打开目标集群的 Import 页面。

      1. 登录 TiDB Cloud 控制台,进入项目的 Clusters 页面。

        提示:

        你可以通过左上角的下拉框切换组织、项目和集群。

      2. 点击目标集群名称进入概览页,然后在左侧导航栏点击 Data > Import

    2. 选择 Import data from Cloud Storage

    3. Import Data from Cloud Storage 页面,为源 CSV 文件填写以下信息:

      • Included Schema Files:如果源文件夹包含目标表结构文件(如 ${db_name}-schema-create.sql),选择 Yes,否则选择 No
      • Data Format:选择 CSV
      • Edit CSV Configuration:如有需要,根据你的 CSV 文件配置选项。你可以设置分隔符和定界符字符,指定是否使用反斜杠转义字符,以及文件是否包含表头行。
      • Folder URI:输入源文件夹 URI,格式为 gs://[bucket_name]/[data_source_folder]/,路径必须以 / 结尾。例如,gs://sampledata/ingest/
      • Google Cloud Service Account ID:TiDB Cloud 会在此页面提供唯一的 Service Account ID(如 example-service-account@your-project.iam.gserviceaccount.com)。你必须在 Google Cloud 项目中为该 Service Account ID 授予 GCS bucket 所需的 IAM 权限(如 "Storage Object Viewer")。详细信息见 配置 GCS 访问
    4. 点击 Connect

    5. Destination 部分,选择目标数据库和表。

      导入多个文件时,可以通过 Advanced Settings > Mapping Settings 自定义各目标表与其对应 CSV 文件的映射。对于每个目标数据库和表:

      • Target Database:从列表中选择对应的数据库名。
      • Target Table:从列表中选择对应的表名。
      • Source File URIs and Names:输入源文件的完整 URI,包括文件夹和文件名,格式为 gs://[bucket_name]/[data_source_folder]/[file_name].csv。也可以使用通配符(?*)匹配多个文件。例如:
        • gs://mybucket/myfolder/my-data1.csvmyfolder 下名为 my-data1.csv 的单个 CSV 文件将被导入到目标表。
        • gs://mybucket/myfolder/my-data?.csvmyfolder 下所有以 my-data 开头、后跟一个字符(如 my-data1.csvmy-data2.csv)的 CSV 文件将被导入同一目标表。
        • gs://mybucket/myfolder/my-data*.csvmyfolder 下所有以 my-data 开头(如 my-data10.csvmy-data100.csv)的 CSV 文件将被导入同一目标表。
    6. 点击 Start Import

    7. 当导入进度显示 Completed 时,检查已导入的表。

    1. 打开目标集群的 Import 页面。

      1. 登录 TiDB Cloud 控制台,进入项目的 Clusters 页面。

        提示:

        你可以通过左上角的下拉框切换组织、项目和集群。

      2. 点击目标集群名称进入概览页,然后在左侧导航栏点击 Data > Import

    2. 选择 Import data from Cloud Storage

    3. Import Data from Azure Blob Storage 页面,填写以下信息:

      • Included Schema Files:如果源文件夹包含目标表结构文件(如 ${db_name}-schema-create.sql),选择 Yes,否则选择 No

      • Data Format:选择 CSV

      • Connectivity Method:选择 TiDB Cloud 连接 Azure Blob Storage 的方式:

        • Public(默认):通过公网连接。当存储账户允许公网访问时使用此选项。
        • Private Link:通过 Azure 私有终端节点进行网络隔离访问。当存储账户禁止公网访问或安全策略要求私有连接时使用此选项。若选择 Private Link,还需填写 Azure Blob Storage Resource ID。查找 Resource ID 的方法如下:
          1. 进入 Azure 门户
          2. 导航到你的存储账户,点击 Overview > JSON View
          3. 复制 id 属性的值。Resource ID 格式为 /subscriptions/<subscription_id>/resourceGroups/<resource_group>/providers/Microsoft.Storage/storageAccounts/<account_name>
      • Edit CSV Configuration:如有需要,根据你的 CSV 文件配置选项。你可以设置分隔符和定界符字符,指定是否使用反斜杠转义字符,以及文件是否包含表头行。

      • Folder URI:输入源文件所在的 Azure Blob Storage URI,格式为 https://[account_name].blob.core.windows.net/[container_name]/[data_source_folder]/,路径必须以 / 结尾。例如,https://myaccount.blob.core.windows.net/mycontainer/myfolder/

      • SAS Token:输入账户 SAS token,以允许 TiDB Cloud 访问 Azure Blob Storage container 中的源文件。如果还没有,可以点击 Click here to create a new one with Azure ARM template,按照屏幕上的指引使用 Azure ARM 模板创建。也可以手动创建账户 SAS token。详细信息见 配置 Azure Blob Storage 访问

    4. 点击 Connect

      如果选择了 Private Link 作为连接方式,TiDB Cloud 会为你的存储账户创建私有终端节点。你需要在 Azure 门户中批准该终端节点请求,连接才能继续:

      1. 进入 Azure 门户,导航到你的存储账户。
      2. 点击 Networking > Private endpoint connections
      3. 找到来自 TiDB Cloud 的待处理连接请求,点击 Approve
      4. 返回 TiDB Cloud 控制台。终端节点批准后,导入向导会自动继续。
    5. Destination 部分,选择目标数据库和表。

      导入多个文件时,可以通过 Advanced Settings > Mapping Settings 自定义各目标表与其对应 CSV 文件的映射。对于每个目标数据库和表:

      • Target Database:从列表中选择对应的数据库名。
      • Target Table:从列表中选择对应的表名。
      • Source File URIs and Names:输入源文件的完整 URI,包括文件夹和文件名,格式为 https://[account_name].blob.core.windows.net/[container_name]/[data_source_folder]/[file_name].csv。也可以使用通配符(?*)匹配多个文件。例如:
        • https://myaccount.blob.core.windows.net/mycontainer/myfolder/my-data1.csvmyfolder 下名为 my-data1.csv 的单个 CSV 文件将被导入到目标表。
        • https://myaccount.blob.core.windows.net/mycontainer/myfolder/my-data?.csvmyfolder 下所有以 my-data 开头、后跟一个字符(如 my-data1.csvmy-data2.csv)的 CSV 文件将被导入同一目标表。
        • https://myaccount.blob.core.windows.net/mycontainer/myfolder/my-data*.csvmyfolder 下所有以 my-data 开头(如 my-data10.csvmy-data100.csv)的 CSV 文件将被导入同一目标表。
    6. 点击 Start Import

    7. 当导入进度显示 Completed 时,检查已导入的表。

    当你运行导入任务时,如果检测到任何不支持或无效的转换,TiDB Cloud 会自动终止导入作业并报告导入错误。你可以在 Status 字段查看详细信息。

    如果遇到导入错误,请按以下步骤操作:

    1. 删除部分导入的表。
    2. 检查表结构文件,如有错误请修正。
    3. 检查 CSV 文件中的数据类型。
    4. 重新尝试导入任务。

    故障排查

    解决数据导入过程中的警告

    点击 Start Import 后,如果看到如 can't find the corresponding source files 的警告信息,请通过提供正确的源文件、按 数据导入命名规范 重命名现有文件,或使用 Advanced Settings 进行调整来解决。

    解决后需重新导入数据。

    导入表中行数为零

    当导入进度显示 Completed 后,检查已导入的表。如果行数为零,说明没有数据文件匹配你输入的 Bucket URI。此时,请通过提供正确的源文件、按 数据导入命名规范 重命名现有文件,或使用 Advanced Settings 进行调整来解决。之后重新导入这些表。

    文档内容是否有帮助?