TiProxy の概要

x
s
O

TiProxyはPingCAPの公式プロキシコンポーネントです。クライアントとTiDBサーバーの間に配置され、負荷分散、接続の持続性、サービス検出、その他のTiDB機能を提供します。

TiProxy はオプションのコンポーネントです。サードパーティのプロキシコンポーネントを使用することも、プロキシを使用せずに TiDBサーバーに直接接続することもできます。

次の図は、TiProxy のアーキテクチャを示しています。

TiProxyアーキテクチャ

主な特徴

TiProxy は、接続の移行、サービスの検出、および迅速な展開を提供します。

接続の移行

TiProxy は、クライアント接続を切断することなく、ある TiDBサーバーから別の TiDB サーバーに接続を移行できます。

下図に示すように、クライアントはTiProxyを介してTiDB 1に接続します。接続の移行後、クライアントは実際にはTiDB 2に接続します。TiDB 1がオフラインになりそうになった場合、またはTiDB 1とTiDB 2の接続比率が設定されたしきい値を超えた場合、接続の移行がトリガーされます。クライアントは接続の移行を認識しません。

TiProxy接続の移行

接続の移行は通常、次のシナリオで発生します。

  • TiDBサーバーがスケールイン、ローリング アップグレード、またはローリング リスタートを実行する場合、TiProxy はオフラインになる予定の TiDBサーバーから他の TiDB サーバーへの接続を移行して、クライアント接続を維持できます。
  • TiDBサーバーがスケールアウトを実行すると、TiProxy は既存の接続を新しい TiDBサーバーに移行し、クライアント接続プールをリセットせずにリアルタイムの負荷分散を実現できます。

サービス検出

TiDBサーバーがスケールインまたはスケールアウトを実行する際、共通のロードバランサーを使用している場合は、TiDBサーバーリストを手動で更新する必要があります。しかし、TiProxyは手動操作なしでTiDBサーバーリストを自動的に検出します。

迅速な展開

TiProxy はTiUPTiDB OperatorTiDBダッシュボードグラファナに統合されており、導入、運用、管理のコストが削減されます。

ユーザーシナリオ

TiProxy は次のシナリオに適しています。

  • 接続の永続性:TiDBサーバーがスケールイン、ローリングアップグレード、またはローリングリスタートを実行すると、クライアント接続が切断され、エラーが発生します。クライアントに冪等なエラーリトライメカニズムがない場合、手動でエラーを確認して修正する必要があり、人件費が大幅に増加します。TiProxyはクライアント接続を維持できるため、クライアントはエラーを報告しません。
  • 頻繁なスケールインとスケールアウト:アプリケーションのワークロードは定期的に変化する可能性があります。コスト削減のため、TiDBをクラウドに導入し、ワークロードに応じてTiDBサーバーを自動的にスケールインおよびスケールアウトすることができます。ただし、スケールインはクライアントの接続を切断する可能性があり、スケールアウトは負荷の不均衡を引き起こす可能性があります。TiProxyはクライアント接続を維持し、負荷分散を実現します。

TiProxy は次のシナリオには適していません。

  • パフォーマンスの影響を受けやすい:TiProxyのパフォーマンスはHAProxyや他のロードバランサに比べて低いため、TiProxyを使用する場合は、同等のパフォーマンスレベルを維持するためにより多くのCPUリソースを予約する必要があります。詳細については、 TiProxy パフォーマンステストレポートを参照してください。
  • コストに敏感:TiDB クラスターがハードウェアロードバランサー、仮想 IP、または Kubernetes が提供するロードバランサーを使用している場合、TiProxy を追加するとコストが増加します。さらに、クラウド上の複数のアベイラビリティゾーンに TiDB クラスターを展開する場合、TiProxy を追加するとアベイラビリティゾーン間のトラフィックコストも増加します。
  • TiDBサーバーのフェイルオーバー:TiProxyは、TiDBサーバーがオフラインの場合、または計画通りに再起動された場合にのみクライアント接続を維持できます。TiDBサーバーが予期せずオフラインになった場合、接続は依然として切断されます。

TiProxy が適しているシナリオでは TiProxy を使用し、アプリケーションがパフォーマンスに敏感な場合は HAProxy またはその他のプロキシを使用することをお勧めします。

インストールと使用方法

このセクションでは、 TiUPを使用して TiProxy をデプロイおよび変更する方法について説明します。Kubernetes でTiDB Operatorを使用して TiProxy をデプロイする方法については、 TiDB Operatorのドキュメント参照してください。

TiProxyをデプロイ

  1. TiUP v1.15.0 より前のバージョンでは、自己署名証明書を手動で生成する必要があります。

    TiDBインスタンス用の自己署名証明書を生成し、すべてのTiDBインスタンスに同じ証明書を配置して、すべてのTiDBインスタンスが同じ証明書を持つようにします。詳細な手順については、 自己署名証明書を生成する参照してください。

  2. TiDB インスタンスを構成します。

    TiProxy を使用する場合は、TiDB インスタンスに対して次の項目も設定する必要があります。

    設定例は次のとおりです。

    server_configs: tidb: security.session-token-signing-cert: "/var/sess/cert.pem" security.session-token-signing-key: "/var/sess/key.pem" security.ssl-ca: "/var/ssl/ca.pem" security.ssl-cert: "/var/ssl/cert.pem" security.ssl-key: "/var/ssl/key.pem" graceful-wait-before-shutdown: 15
  3. TiProxy インスタンスを構成します。

    TiProxy の高可用性を確保するには、少なくとも 2 つの TiProxy インスタンスを導入することをお勧めします。ハードウェアロードバランサーを使用して各 TiProxy インスタンスにトラフィックを分散するか、仮想 IP を設定して利用可能な TiProxy インスタンスにトラフィックをルーティングすることもできます。

    TiProxy インスタンスのモデルと数を選択するときは、次の要素を考慮してください。

    • ワークロードの種類と最大 QPS については、 TiProxy パフォーマンステストレポート参照してください。
    • TiProxyインスタンス数はTiDBサーバ数よりも少ないため、TiProxyのネットワーク帯域がボトルネックになりやすいです。そのため、ネットワーク帯域も考慮する必要があります。例えばAWSでは、EC2の同系列のベースラインネットワーク帯域はCPUコア数に比例しません。詳細はネットワークパフォーマンス参照してください。このような場合、ネットワーク帯域がボトルネックになる場合は、TiProxyインスタンスをより多くの小さなインスタンスに分割することでQPSを向上させることができます。

    TiDBクラスタをtiup cluster upgradeにアップグレードする際にTiProxyがアップグレードされないように、トポロジ構成でTiProxyのバージョン番号を指定することをお勧めします。そうしないと、TiProxyのアップグレード中にクライアント接続が切断される可能性があります。

    TiProxy 構成項目を構成するには、 TiProxy の設定参照してください。

    設定例は次のとおりです。

    component_versions: tiproxy: "v1.0.0" server_configs: tiproxy: security.server-tls.ca: "/var/ssl/ca.pem" security.server-tls.cert: "/var/ssl/cert.pem" security.server-tls.key: "/var/ssl/key.pem"
  4. クラスターを起動します。

    TiUPを使用してクラスターを起動するには、 TiUPドキュメント参照してください。

  5. TiProxy に接続します。

    クラスタがデプロイされると、クラスタはTiDBサーバーとTiProxyのポートを同時に公開します。クライアントはTiDBサーバーのポートではなく、TiProxyのポートに接続する必要があります。

TiProxy構成の変更

TiProxy がクライアント接続を維持するには、必要な場合を除き TiProxy を再起動しないでください。そのため、TiProxy の設定項目のほとんどはオンラインで変更できます。オンライン変更をサポートする設定項目のリストについては、 TiProxy の設定参照してください。

TiUPを使用して TiProxy の設定を変更する場合、変更する構成項目がオンライン変更をサポートしている場合は、 --skip-restartオプションを使用して TiProxy の再起動を回避できます。

TiProxy をアップグレードする

TiProxy をデプロイする場合は、TiDB クラスターをアップグレードしても TiProxy がアップグレードされないように、TiProxy のバージョンを指定することをお勧めします。

TiProxy をアップグレードする必要がある場合は、アップグレード コマンドに--tiproxy-version追加して、TiProxy のバージョンを指定します。

tiup cluster upgrade <cluster-name> <version> --tiproxy-version <tiproxy-version>

TiDBクラスタを再起動します

tiup cluster restart使用して TiDB クラスタを再起動すると、TiDB サーバはローリング再起動されず、クライアント接続が切断されます。したがって、このコマンドの使用は避けてください。

代わりに、 tiup cluster upgrade使用してクラスターをアップグレードするか、 tiup cluster reload使用して構成を再ロードすると、 TiDB サーバーがローリング再起動されるため、クライアント接続は影響を受けません。

他のコンポーネントとの互換性

  • TiProxy は TiDB v6.5.0 以降のバージョンのみをサポートします。
  • TiProxyのTLS接続にはTiDBと互換性のない機能があります。詳細についてはSecurity参照してください。
  • TiDB ダッシュボードと Grafana は、v7.6.0 から TiProxy をサポートしています。
  • TiUP はv1.14.1 から TiProxy をサポートし、 TiDB Operator はv1.5.1 から TiProxy をサポートします。
  • TiProxy のステータス ポートによって提供されるインターフェイスは TiDBサーバーのインターフェイスと異なるため、 TiDB Lightning使用してデータをインポートする場合、ターゲット データベースは TiProxy のアドレスではなく、TiDBサーバーのアドレスにする必要があります。

Security

TiProxyはTLS接続を提供します。クライアントとTiProxy間のTLS接続は、以下のルールに従って有効化されます。

  • TiProxy のsecurity.server-tls構成が TLS 接続を使用しないように設定されている場合、クライアントが TLS 接続を有効にしているかどうかに関係なく、クライアントと TiProxy 間の TLS 接続は有効になりません。
  • TiProxy のsecurity.server-tlsの構成が TLS 接続を使用するように設定されている場合、クライアントと TiProxy 間の TLS 接続は、クライアントが TLS 接続を有効にした場合にのみ有効になります。

TiProxy と TiDBサーバー間の TLS 接続は、次のルールに従って有効化されます。

  • TiProxyのsecurity.require-backend-tls trueに設定されている場合、クライアントがTLS接続を有効にしているかどうかに関係なく、TiProxyとTiDBサーバーは常にTLS接続を有効にします。TiProxyのsecurity.sql-tls TLSを使用しないように設定されているか、TiDBサーバーがTLS証明書を設定していない場合、クライアントはエラーを報告します。
  • TiProxy のsecurity.require-backend-tls falseに設定され、TiProxy のsecurity.sql-tls TLS で構成され、TiDBサーバーがTLS 証明書で構成されている場合、TiProxy と TiDBサーバーは、クライアントが TLS 接続を有効にした場合にのみ TLS 接続を有効にします。
  • TiProxy のsecurity.require-backend-tls falseに設定されている場合、TiProxy のsecurity.sql-tls TLS を使用しないように設定されているか、TiDBサーバーがTLS 証明書を構成していない場合、TiProxy と TiDBサーバーはTLS 接続を有効にしません。

TiProxy には、TiDB と互換性のない次の動作があります。

  • STATUSSHOW STATUSステートメントは異なる TLS 情報を返す可能性があります。5 STATUSステートメントはクライアントと TiProxy 間の TLS 情報を返し、 SHOW STATUSステートメントは TiProxy と TiDBサーバー間の TLS 情報を返します。
  • TiProxy は証明書ベースの認証サポートしていません。そうでない場合、クライアントと TiProxy 間の TLS 証明書が TiProxy と TiDBサーバー間の TLS 証明書と異なるため、クライアントがログインに失敗する可能性があります。TiDBサーバーはTiProxy 上の TLS 証明書に基づいて TLS 証明書を検証します。

制限事項

次のシナリオでは、TiProxy はクライアント接続を維持できません。

  • TiDB が予期せずオフラインになりました。TiProxy は、TiDBサーバーがオフラインの場合、または計画どおりに再起動された場合にのみクライアント接続を維持し、TiDBサーバーのフェイルオーバーをサポートしません。
  • TiProxy はスケールイン、アップグレード、または再起動を実行します。TiProxy がオフラインになると、クライアント接続は切断されます。
  • TiDBは接続を積極的に切断します。例えば、セッションがwait_timeout以上リクエストを送信しなかった場合、TiDBは接続を積極的に切断し、TiProxyもクライアント接続を切断します。

TiProxy は次のシナリオでは接続を移行できないため、クライアント接続を維持したり負荷分散を実現したりすることができません。

  • 単一のステートメントまたは単一のトランザクションの継続時間が、TiDBサーバーで構成されたgraceful-wait-before-shutdown超えています。
  • セッションはカーソルを使用してデータを読み取りますが、カーソルが閉じられていないか、TiDBサーバーで構成されたgraceful-wait-before-shutdown以内にデータが読み取られません。
  • セッションはローカル一時テーブルを作成します。
  • セッションはユーザーレベルロックを開催します。
  • セッションはテーブルロックを開催します。
  • セッションでプリペアドステートメントが作成されましたが、プリペアドステートメントは無効です。例えば、プリペアドステートメントの作成後に、そのプリペアドステートメントに関連するテーブルが削除された場合などです。
  • セッションはセッションレベル実行プランのバインディングを作成しましたが、バインディングが無効です。例えば、バインディングの作成後に、バインディングに関連するテーブルが削除されています。
  • セッションが作成された後、セッションで使用されたユーザーが削除されるか、ユーザー名が変更されます。

サポートされているコネクタ

TiProxy では、クライアントが使用するコネクタが認証プラグインサポートしている必要があります。そうでない場合、接続に失敗する可能性があります。

次の表に、サポートされているコネクタの一部を示します。

言語コネクタサポートされる最小バージョン
JavaMySQL コネクタ/J5.1.19
Clibmysqlクライアント5.5.7
行くGo SQLDriver1.4.0
JavaScriptMySQL コネクタ/Node.js1.0.2
JavaScriptmysqljs/mysql2.15.0
JavaScriptノード-mysql21.0.0-rc-6
PHPmysqlnd5.4
パイソンMySQL コネクタ/Python1.0.7
パイソンパイMySQL0.7

一部のコネクタはデータベース接続に共通ライブラリを呼び出しますが、これらのコネクタは表に記載されていません。対応するライブラリの必要なバージョンについては、上記の表を参照してください。例えば、MySQL/Rubyはデータベース接続にlibmysqlclientを使用するため、MySQL/Rubyが使用するlibmysqlclientのバージョンは5.5.7以降である必要があります。

TiProxyリソース

このページは役に立ちましたか?