メインコンテンツまでスキップ

オートスケール

備考

ベータ版

Lakebase Postgres (オートスケール Beta) は、 Lakebase の次のバージョンであり、評価のみに利用できます。 本番運用ワークロードの場合は、 Lakebase Public Previewを使用します。 どのバージョンが適しているかを判断するには、バージョンの選択を参照してください。

オートスケールは、現在のワークロードの需要に応じて、Lakebase コンピュートに割り当てられるコンピュート リソースの量を動的に調整します。 アプリケーションでは 1 日を通してさまざまなレベルのアクティビティが発生するため、オートスケールは使用量のピーク時には自動的にコンピュート容量を増やし、静かな時間帯にはコンピュート容量を減らすため、手動介入の必要がなくなります。

この視覚化は、オフピーク時にリソースを節約しながら、データベースに必要なリソースを確実に確保するために、需要に基づいてコンピュート リソースをスケールアップまたはスケールダウンすることで、オートスケールが通常の 1 日を通してどのように機能するかを示しています。

オートスケールの可視化

オートスケールはユーザーが設定した範囲内で動作します。 たとえば、コンピュートを 2 ~ 8 コンピュート ユニット (CU) の間でスケールするように設定し、各 CU が 2 GB の RAM を提供する場合があります。 コンピュートは、ワークロードに基づいてこれらの制限内で自動的に調整され、需要に関係なく、最小値を下回ったり、最大値を超えたりすることはありません。

注記

Lakebase パブリック プレビューとオートスケール ベータ : Lakebase パブリック プレビューでは、各コンピュート ユニットに約 16 GB の RAM が割り当てられました。 Lakebase オートスケール Beta では、各 CU に 2 GB の RAM が割り当てられます。 この変更により、よりきめ細かいスケーリング オプションとコスト管理が可能になります。

オートスケールの仕組み

自動リソース調整

オートスケールを有効にしてコンピュートの最小サイズと最大サイズを設定すると、Lakebase はワークロードを継続的に監視し、リソースを自動的に調整します。 システムは、スケーリングの決定を行うために 3 つの主要なメトリクスを追跡します。

  • CPU 負荷: プロセッサの使用率を監視して、データベースに十分な処理能力があることを確認します。
  • メモリ使用量: メモリ制限を防ぐために RAM の消費量を追跡します。
  • ワーキング セット サイズ: 頻繁にアクセスされるデータを推定し、キャッシュ パフォーマンスを最適化します。

これらのメトリクスに基づいて、Lakebase は、設定された範囲内に留まりながら、需要が増加するとコンピュートをスケールアップし、アクティビティが減少するとスケールダウンします。

境界を拡大する

コンピュートの最小サイズと最大サイズを設定することで、スケーリング範囲を定義します。 この範囲では以下が提供されます:

  • パフォーマンス保証: 最低限のパフォーマンスにより、アクティビティが低いときでもベースライン パフォーマンスが保証されます。
  • コスト管理: 最大値を設定することで、無制限のリソース消費とコストを防止します。
  • 自動最適化: これらの境界内で、Lakebase がすべてのスケーリングの決定を処理します。

たとえば、2 ~ 8 CU (4 ~ 16 GB RAM) の範囲では、負荷に関係なく、コンピュートは需要に合わせて自動的にスケーリングされますが、8 CU を超えることはありません。

ダウンタイムや手動介入なし

オートスケールの調整は、コンピュートの再起動や接続の中断を必要とせずに行われます。 一度構成すると、システムは自律的に動作し、インフラストラクチャの管理ではなくアプリケーションに集中できるようになります。

オートスケールのメリット

コスト効率: 実際に使用するコンピュート リソースに対してのみお支払いいただきます。 オフピーク時にはコンピュートがスケールダウンされ、コストが削減されます。 ピーク時には、パフォーマンスを維持するためにスケールアップします。

パフォーマンスの最適化: ワークロードが増加すると、データベースは自動的に追加のリソースを受け取り、トラフィックの急増や集中的な操作中のパフォーマンスの低下を防ぎます。

予測可能なコスト: コンピュートの最大サイズを設定することで、コンピュート コストの上限を制御し、リソースの暴走による予期せぬ出費を防ぎます。

簡素化された操作: オートスケールにより、ワークロード パターンを手動で監視してコンピュート サイズを調整する必要がなくなり、操作上のオーバーヘッドと人的エラーのリスクが軽減されます。

オートスケールの設定

オートスケール設定では、コンピュート サイズの最小値と最大値の境界を設定する必要があります。 オートスケールはコンピュート32CUまで使用可能です。

オートスケールの有効化と構成の詳細な手順については、 「コンピュートの管理」を参照してください。

一般的なオートスケールのシナリオ

AIエージェントとアプリケーションのワークロード

Databricks 上に構築された AI エージェントとインタラクティブ アプリケーションでは、さまざまなリクエスト パターンが発生することがよくあります。オートスケールにより、アクティブなユーザー セッション中のトラフィックの急増にデータベースが確実に対処できるようになり、静かな期間のコストが削減されます。

開発およびテスト環境

スキーマ変更のテストまたはデータ パイプラインの検証のための開発ブランチでは、通常、断続的なアクティビティが発生します。 オートスケールは、アクティブな開発中に適切なパフォーマンスを確保しながら、アイドル期間中のリソースを最小限に抑えます。

顧客向けダッシュボードとアプリケーション

アナリティクスや運用に関する知識をエンド ユーザーに提供するアプリケーションには、多くの場合、時間帯に応じた使用パターンがあります。 オートスケールは、1 日を通してユーザーのアクティビティに合わせてリソースを自動的に調整します。

オートスケールしてゼロにスケールする

オートスケールは、 scale to zeroと組み合わせて機能します。 オートスケールはワークロードの需要に基づいてリソースを調整しますが、ゼロにスケールすると、一定期間非アクティブになった後にコンピュートが完全に一時停止され、アイドル期間中のコンピュートのコストがゼロに削減されます。

両方の機能を構成する場合:

  1. アクティブ期間: オートスケールは、定義された範囲内のワークロードに基づいてコンピュート サイズを調整します。
  2. 非アクティブ期間: ゼロへのスケール タイムアウトの後、コンピュートは完全に一時停止します。
  3. アクティビティの再開: 新しいクエリが到着すると、コンピュートは最小オートスケール サイズで再開します。

この組み合わせにより、特にアイドル期間が長くなる開発、テスト、ステージング環境においてコスト効率が最大化されます。

次のステップ