TiDBセルフマネージドのクイックスタート
このガイドでは、TiDBセルフマネージドを使い始めるための最も簡単な方法を紹介します。非本番環境では、以下のいずれかの方法でTiDBデータベースをデプロイできます。
- ローカルテストクラスタをデプロイ (macOSおよびLinux用)
- 単一のマシンで本番の展開をシミュレートする (Linuxのみ)
さらに、 TiDB プレイグラウンドで TiDB の機能を試すこともできます。
注記:
このガイドで提供されるデプロイメント方法は、クイック スタートのみを目的としており、本番や包括的な機能および安定性のテストには使用できません。
- セルフホスト型の本番本番クラスターをデプロイするには、 本番インストールガイド参照してください。
- Kubernetes に TiDB をデプロイするには、 Kubernetes で TiDB を使い始める参照してください。
- クラウドで TiDB を管理するには、 TiDB Cloudクイックスタート参照してください。
ローカルテストクラスタをデプロイ
このセクションでは、単一のmacOSまたはLinuxサーバー上でテスト用のローカルTiDBクラスターを迅速に展開する方法について説明します。このようなクラスターを展開することで、TiDBデータベースの基本的なアーキテクチャと、TiDB、TiKV、PD、監視コンポーネントなどのコンポーネントの動作を学習できます。
分散システムであるTiDBテストクラスタは、通常、2つのTiDBインスタンス、3つのTiKVインスタンス、3つのPDインスタンス、そしてオプションのTiFlashインスタンスで構成されます。TiUP TiUPを使用すると、以下の手順で簡単にテストクラスタをセットアップできます。
TiUPをダウンロードしてインストールします:
curl --proto '=https' --tlsv1.2 -sSf https://tiup-mirrors.pingcap.com/install.sh | sh次のメッセージが表示されたら、 TiUPは正常にインストールされています。
Successfully set mirror to https://tiup-mirrors.pingcap.com Detected shell: zsh Shell profile: /Users/user/.zshrc /Users/user/.zshrc has been modified to add tiup to PATH open a new terminal or source /Users/user/.zshrc to use it Installed path: /Users/user/.tiup/bin/tiup =============================================== Have a try: tiup playground ===============================================上記の出力にあるシェルプロファイルのパスをメモしてください。このパスは次の手順で使用します。
注記:
v5.2.0 以降、TiDB は Apple Silicon チップを使用するマシン上で
tiup playground実行をサポートします。グローバル環境変数を宣言します。
注記:
インストール後、 TiUP は対応するシェルプロファイルファイルの絶対パスを表示します。次の
sourceコマンドの${your_shell_profile}パスに合わせて変更する必要があります。この場合、${your_shell_profile}手順 1 の出力の/Users/user/.zshrcになります。source ${your_shell_profile}現在のセッションでクラスターを起動します。
注記:
以下の方法で運用されたプレイグラウンドでは、デプロイとテストが完了すると、 TiUPによってクラスターデータが自動的にクリーンアップされます。コマンドを再実行すると、新しいクラスターが作成されます。
storageにデータを永続化したい場合は、クラスターの起動時にフラグ
--tagを追加してください。詳細はTiDBクラスタを起動するときにデータを保存するタグを指定します参照してください。tiup playground --tag ${tag_name}
1 つの TiDB インスタンス、1 つの TiKV インスタンス、1 つの PD インスタンス、および 1 つのTiFlashインスタンスを含む最新バージョンの TiDB クラスターを起動するには、次のコマンドを実行します。
tiup playgroundこのコマンドを初めて実行する場合、 TiUP は最新バージョンの TiDB をダウンロードし、クラスターを起動します。
出力にはクラスターのエンドポイントのリストが表示されます。
🎉 TiDB Playground Cluster is started, enjoy! Connect TiDB: mysql --comments --host 127.0.0.1 --port 4000 -u root TiDB Dashboard: http://127.0.0.1:2379/dashboard Grafana: http://127.0.0.1:3000TiDB のバージョンと各コンポーネントのインスタンスの数を指定するには、次のようなコマンドを実行します。
tiup playground v8.5.3 --db 2 --pd 3 --kv 3このコマンドは、少なくとも10GiBのメモリと4つのCPUコアを搭載したマシンで実行することをお勧めします。リソースが不足すると、システムがクラッシュする可能性があります。
利用可能なすべてのバージョンを表示するには、
tiup list tidb実行します。
TiDB クラスターのエンドポイントにアクセスするための新しいセッションを開始します。
TiDB データベースに接続します。
TiUPクライアントを使用して TiDB に接続します。
tiup clientあるいは、MySQL クライアントを使用して TiDB に接続することもできます。
mysql --host 127.0.0.1 --port 4000 -u root
プロメテウス: http://127.0.0.1:9090 .
TiDBダッシュボード : http://127.0.0.1:2379/ダッシュボード 。デフォルトのユーザー名は
root、パスワードは空です。Grafana: http://127.0.0.1:3000 。デフォルトのユーザー名とパスワードはどちらも
adminです。
(オプション) 分析用にTiFlashにデータをロードする 。
テスト後にクラスターをクリーンアップします。
- Control + Cを押して上記の TiDB サービスを停止します。
サービスを停止した後、次のコマンドを実行します。
tiup clean --all
注記:
TiUP Playgroundはデフォルトで
127.0.0.1をリッスンしており、サービスはローカルからのみアクセス可能です。サービスを外部からアクセス可能にしたい場合は、--hostパラメータを使用してリッスンアドレスを指定し、ネットワークインターフェースカード(NIC)を外部からアクセス可能なIPアドレスにバインドします。
分散システムであるTiDBテストクラスタは、通常、2つのTiDBインスタンス、3つのTiKVインスタンス、3つのPDインスタンス、そしてオプションのTiFlashインスタンスで構成されます。TiUP TiUPを使用すると、以下の手順で簡単にテストクラスタをセットアップできます。
TiUPをダウンロードしてインストールします:
curl --proto '=https' --tlsv1.2 -sSf https://tiup-mirrors.pingcap.com/install.sh | sh次のメッセージが表示されたら、 TiUPは正常にインストールされています。
Successfully set mirror to https://tiup-mirrors.pingcap.com Detected shell: bash Shell profile: /home/user/.bashrc /home/user/.bashrc has been modified to add tiup to PATH open a new terminal or source /home/user/.bashrc to use it Installed path: /home/user/.tiup/bin/tiup =============================================== Have a try: tiup playground ===============================================上記の出力にあるシェルプロファイルのパスをメモしてください。このパスは次の手順で使用します。
グローバル環境変数を宣言します。
注記:
インストール後、 TiUP は対応するシェルプロファイルファイルの絶対パスを表示します。以下の
sourceコマンドの${your_shell_profile}パスに合わせて変更する必要があります。source ${your_shell_profile}現在のセッションでクラスターを起動します。
注記:
以下の方法で運用されたプレイグラウンドでは、デプロイとテストが完了すると、 TiUPによってクラスターデータが自動的にクリーンアップされます。コマンドを再実行すると、新しいクラスターが作成されます。
storageにデータを永続化したい場合は、クラスターの起動時にフラグ
--tagを追加してください。詳細はTiDBクラスタを起動するときにデータを保存するタグを指定します参照してください。tiup playground --tag ${tag_name}
1 つの TiDB インスタンス、1 つの TiKV インスタンス、1 つの PD インスタンス、および 1 つのTiFlashインスタンスを含む最新バージョンの TiDB クラスターを起動するには、次のコマンドを実行します。
tiup playgroundこのコマンドを初めて実行する場合、 TiUP は最新バージョンの TiDB をダウンロードし、クラスターを起動します。
出力にはクラスターのエンドポイントのリストが表示されます。
🎉 TiDB Playground Cluster is started, enjoy! Connect TiDB: mysql --comments --host 127.0.0.1 --port 4000 -u root TiDB Dashboard: http://127.0.0.1:2379/dashboard Grafana: http://127.0.0.1:3000TiDB のバージョンと各コンポーネントのインスタンスの数を指定するには、次のようなコマンドを実行します。
tiup playground v8.5.3 --db 2 --pd 3 --kv 3利用可能なすべてのバージョンを表示するには、
tiup list tidb実行します。
TiDB クラスターのエンドポイントにアクセスするための新しいセッションを開始します。
TiDB データベースに接続します。
TiUPクライアントを使用して TiDB に接続します。
tiup clientあるいは、MySQL クライアントを使用して TiDB に接続することもできます。
mysql --host 127.0.0.1 --port 4000 -u root
プロメテウス: http://127.0.0.1:9090 .
TiDBダッシュボード : http://127.0.0.1:2379/ダッシュボード 。デフォルトのユーザー名は
root、パスワードは空です。Grafana: http://127.0.0.1:3000 。デフォルトのユーザー名とパスワードはどちらも
adminです。
(オプション) 分析用にTiFlashにデータをロードする 。
テスト後にクラスターをクリーンアップします。
- Control + Cを押してプロセスを停止します。
サービスを停止した後、次のコマンドを実行します。
tiup clean --all
注記:
TiUP Playgroundはデフォルトで
127.0.0.1をリッスンしており、サービスはローカルからのみアクセス可能です。サービスを外部からアクセス可能にしたい場合は、--hostパラメータを使用してリッスンアドレスを指定し、ネットワークインターフェースカード(NIC)を外部からアクセス可能なIPアドレスにバインドします。
単一のマシンで本番の展開をシミュレートする
このセクションでは、完全なトポロジを持つ最小の TiDB クラスターを設定し、単一の Linuxサーバー上で本番展開手順をシミュレートする方法について説明します。
以下では、 TiUPで最小トポロジの YAML ファイルを使用して TiDB クラスターをデプロイする方法について説明します。
準備する
TiDB クラスターを展開する前に、ターゲット マシンが次の要件を満たしていることを確認してください。
- CentOS 7.3 以降のバージョンがインストールされています。
- Linux OS はインターネットにアクセスできるため、TiDB および関連ソフトウェアのインストール パッケージをダウンロードする必要があります。
最小の TiDB クラスター トポロジは次のインスタンスで構成されます。
| 実例 | カウント | IP | コンフィグレーション |
|---|---|---|---|
| TiKV | 3 | 10.0.1.1 | 競合を避けるために増分ポート番号を使用する |
| TiDB | 1 | 10.0.1.1 | デフォルトのポートとその他の設定を使用する |
| PD | 1 | 10.0.1.1 | デフォルトのポートとその他の設定を使用する |
| TiFlash | 1 | 10.0.1.1 | デフォルトのポートとその他の設定を使用する |
| モニター | 1 | 10.0.1.1 | デフォルトのポートとその他の設定を使用する |
注記:
インスタンスのIPアドレスは例としてのみ示されています。実際の導入では、IPアドレスを実際のIPアドレスに置き換えてください。
ターゲット マシンのその他の要件は次のとおりです。
rootユーザーとそのパスワードが必要です。対象マシンのファイアウォールサービスを停止します 、または TiDB クラスター ノードに必要なポートを開きます。
現在、 TiUPクラスターは、x86_64 (AMD64) および ARM アーキテクチャでの TiDB のデプロイをサポートしています。
- AMD64アーキテクチャでは CentOS 7.3 以降のバージョンを使用することをお勧めします。
- ARMアーキテクチャでは CentOS 7.6 (1810) を使用することをお勧めします。
デプロイ
注記:
対象マシンには、通常のユーザーまたはユーザー
rootとしてログインできます。以下の手順では、ユーザーroot例に説明します。
TiUPをダウンロードしてインストールします:
curl --proto '=https' --tlsv1.2 -sSf https://tiup-mirrors.pingcap.com/install.sh | shグローバル環境変数を宣言します。
注記:
インストール後、 TiUP は対応するシェルプロファイルファイルの絶対パスを表示します。以下の
sourceコマンドの${your_shell_profile}パスに合わせて変更する必要があります。source ${your_shell_profile}TiUPのクラスターコンポーネントをインストールします。
tiup clusterTiUPクラスターがすでにマシンにインストールされている場合は、ソフトウェア バージョンを更新します。
tiup update --self && tiup update clusterルートユーザー権限を使用して、
sshdサービスへの接続制限を増やします。これは、 TiUPが複数のマシンへの展開をシミュレートする必要があるためです。/etc/ssh/sshd_configを変更し、MaxSessionsを20に設定します。sshdサービスを再起動します。service sshd restart
クラスターを作成して起動します。
次のテンプレートに従ってトポロジ構成ファイル作成および編集し、
topo.yamlという名前を付けます。# # Global variables are applied to all deployments and used as the default value of # # the deployments if a specific deployment value is missing. global: user: "tidb" ssh_port: 22 deploy_dir: "/tidb-deploy" data_dir: "/tidb-data" # # Monitored variables are applied to all the machines. monitored: node_exporter_port: 9100 blackbox_exporter_port: 9115 server_configs: tidb: instance.tidb_slow_log_threshold: 300 tikv: readpool.storage.use-unified-pool: false readpool.coprocessor.use-unified-pool: true pd: replication.enable-placement-rules: true replication.location-labels: ["host"] tiflash: logger.level: "info" pd_servers: - host: 10.0.1.1 tidb_servers: - host: 10.0.1.1 tikv_servers: - host: 10.0.1.1 port: 20160 status_port: 20180 config: server.labels: { host: "logic-host-1" } - host: 10.0.1.1 port: 20161 status_port: 20181 config: server.labels: { host: "logic-host-2" } - host: 10.0.1.1 port: 20162 status_port: 20182 config: server.labels: { host: "logic-host-3" } tiflash_servers: - host: 10.0.1.1 monitoring_servers: - host: 10.0.1.1 grafana_servers: - host: 10.0.1.1user: "tidb": クラスターの内部管理には、デプロイメント中に自動作成されるシステムユーザーtidbを使用します。デフォルトでは、ポート22を使用してSSH経由でターゲットマシンにログインします。replication.enable-placement-rules: この PD パラメータは、 TiFlashが正常に実行されるように設定されます。host: ターゲットマシンの IP。
クラスター デプロイメント コマンドを実行します。
tiup cluster deploy <cluster-name> <version> ./topo.yaml --user root -p<cluster-name>: クラスター名を設定します。<version>: TiDBクラスターのバージョンを設定します(例:v8.5.3)tiup list tidbコマンドを実行すると、サポートされているすべてのTiDBバージョンを確認できます。--user: 環境を初期化するユーザーを指定します。-p: ターゲット マシンに接続するために使用するパスワードを指定します。注記:
秘密鍵を使用する場合は、
-iで鍵のパスを指定できます。3と-i-p同時に使用しないでください。
展開を完了するには、「y」と
rootユーザーのパスワードを入力します。Do you want to continue? [y/N]: y Input SSH password:クラスターを起動します。
tiup cluster start <cluster-name>クラスターのエンドポイントにアクセスします。
MySQLクライアントをインストールします。すでにインストールされている場合は、この手順をスキップしてください。
yum -y install mysqlMySQLクライアントを使用してTiDBデータベースに接続します。パスワードは空です。
mysql -h 10.0.1.1 -P 4000 -u rootGrafana: http://{grafana-ip}:3000 。デフォルトのユーザー名とパスワードはどちらも
adminです。TiDBダッシュボード : http://{pd-ip}:2379/ダッシュボード 。デフォルトのユーザー名は
root、パスワードは空です。
(オプション) クラスターのリストとトポロジをビュー。
クラスター リストを表示するには:
tiup cluster listクラスターのトポロジとステータスを表示するには:
tiup cluster display <cluster-name>
tiup clusterコマンドの詳細については、 TiUPクラスタコマンド参照してください。テスト後にクラスターをクリーンアップします。
- Control + Cを押して上記の TiDB サービスを停止します。
サービスを停止した後、次のコマンドを実行します。
tiup clean --all
次は何?
ローカル テスト環境用に TiDB クラスターをデプロイしたばかりの場合は、次の手順に従います。
- TiDBにおける基本的なSQL操作を参照して、TiDB での基本的な SQL 操作について学習します。
- TiDBへのデータの移行を参照して TiDB にデータを移行することもできます。
- TiUPを使用して TiDB クラスターを管理する方法の詳細については、 TiUPの概要を参照してください。
本番環境用に TiDB クラスターをデプロイする準備ができたら、次の手順に従います。
- TiUPを使用して TiDBをデプロイ
- あるいは、 Kubernetes 上の TiDBドキュメントを参照して、 TiDB Operatorを使用してクラウドに TiDB をデプロイすることもできます。
アプリケーション開発者であり、TiDB を使用してアプリケーションを迅速に構築したい場合は、次の手順に従ってください。
TiFlashを使用した分析ソリューションをお探しの場合は、次の手順に従ってください。