Delta テーブルに リキッドクラスタリングを使用する
重要
Delta Lakeリキッドクラスタリングは、 Databricks Runtime 13.3 以降でパブリック プレビューとして利用できます。 Databricks Runtime 12.2 LTS以降では、リキッドクラスタリングに対するサポートが一部存在します。 リキッドクラスタリングのテーブルについては互換性を参照してください。
Delta Lake リキッドクラスタリングは、テーブルのパーティション分割と ZORDER
を置き換えて、データレイアウトの決定を簡素化し、クエリーのパフォーマンスを最適化します。 リキッドクラスタリングは、既存のデータを書き換えることなくクラスターキーを再定義する柔軟性を提供し、時間の経過とともに分析のニーズに応じてデータレイアウトを進化させることができます。
警告
Databricks Runtime 13.3 LTS 以降は、リキッドクラスタリングを有効にしてテーブルを作成、書き込み、またはOPTIMIZE
Delta するために必要です。
注
リキッドクラスタリングが有効になっているテーブルでは、Databricks Runtime 13.3 LTS 以降で行レベルのコンカレンシーがサポートされています。 行レベルのコンカレンシーは、Databricks Runtime 14.2 以降で、削除ベクトルが有効になっているすべてのテーブルで一般公開されています。 「 Databricks での分離レベルと書き込みの競合」を参照してください。
リキッドクラスタリングは何に使用されますか?
Databricks では、すべての新しい Delta テーブルにリキッドクラスタリングを推奨しています。 クラスターの恩恵を受けるシナリオの例を次に示します。
多くの場合、カーディナリティの高い列でフィルター処理されたテーブル。
データ分布に大きな偏りがあるテーブル。
急速に大きくなり、保守とチューニングの作業が必要なテーブル。
並列書き込み要件を持つテーブル。
時間の経過と共に変化するアクセス パターンを持つテーブル。
一般的なパーティション キーによって、パーティションが多すぎるか少なすぎるテーブル。
リキッドクラスタリング を有効にする
リキッドクラスタリングは、既存のテーブルに対して、またはテーブルの作成中に有効にできます。 クラスタリングはパーティショニングやZORDER
と互換性がなく、Databricks クライアントがテーブル内のデータのすべてのレイアウトおよび最適化操作を管理する必要があります。 有効にしたら、 OPTIMIZE
ジョブを通常どおり実行して、データを段階的にクラスター化します。 「クラスタリングをトリガーする方法」を参照してください。
リキッドクラスタリングを有効にするには、次の例のように、テーブル作成ステートメントに CLUSTER BY
フレーズを追加します。
注
Databricks Runtime 14.2 以降では、Python または Scala で DataFrame APIsと DeltaTable API を使用して、リキッドクラスタリングを有効にすることができます。
-- Create an empty table
CREATE TABLE table1(col0 int, col1 string) USING DELTA CLUSTER BY (col0);
-- Using a CTAS statement
CREATE EXTERNAL TABLE table2 CLUSTER BY (col0) -- specify clustering after table name, not in subquery
LOCATION 'table_location'
AS SELECT * FROM table1;
-- Using a LIKE statement to copy configurations
CREATE TABLE table3 LIKE table1;
# Create an empty table
(DeltaTable.create()
.tableName("table1")
.addColumn("col0", dataType = "INT")
.addColumn("col1", dataType = "STRING")
.clusterBy("col0")
.execute())
# Using a CTAS statement
df = spark.read.table("table1")
df.write.format("delta").clusterBy("col0").saveAsTable("table2")
# CTAS using DataFrameWriterV2
df = spark.read.table("table1")
df.writeTo("table1").using("delta").clusterBy("col0").create()
// Create an empty table
DeltaTable.create()
.tableName("table1")
.addColumn("col0", dataType = "INT")
.addColumn("col1", dataType = "STRING")
.clusterBy("col0")
.execute()
// Using a CTAS statement
val df = spark.read.table("table1")
df.write.format("delta").clusterBy("col0").saveAsTable("table2")
// CTAS using DataFrameWriterV2
val df = spark.read.table("table1")
df.writeTo("table1").using("delta").clusterBy("col0").create()
警告
リキッドクラスタリングを有効にして作成されたテーブルには、作成時に多数のDeltaテーブル機能が有効になっており、 Deltaライター バージョン 7 とリーダー バージョン 3 を使用します。 これらの機能の一部は、有効化をオーバーライドできます。 「デフォルトの機能有効化をオーバーライドする (オプション)」を参照してください。
テーブル プロトコルのバージョンはダウングレードできず、クラスタリングが有効になっているテーブルは、有効になっているすべての Delta リーダー プロトコル テーブル機能をサポートしていない Delta Lake クライアントでは読み取ることができません。 「Databricks は Delta Lake 機能の互換性をどのように管理しますか?」を参照してください。 。
Databricks Runtime 13.3 LTS 以降では、次の構文を使用して、パーティション化されていない既存のDeltaテーブルでリキッドフラリングを有効にすることができます。
ALTER TABLE <table_name>
CLUSTER BY (<clustering_columns>)
デフォルトの機能有効化をオーバーライドする (オプション)
リキッドクラスタリングの有効化中にDeltaテーブル機能を有効にするデフォルトの動作をオーバーライドできます。 これにより、これらのテーブル機能に関連付けられているリーダーおよびライターのプロトコルがアップグレードされなくなります。 次のステップを完了するには、既存のテーブルが必要です。
ALTER TABLE
を使用して、1 つ以上の機能を無効にするテーブル プロパティを設定します。たとえば、削除クロを無効にするには、次のコマンドを実行します。ALTER TABLE table_name SET TBLPROPERTIES ('delta.enableDeletionVectors' = false);
次のコマンドを実行して、テーブルで液体クラスタリングを有効にします。
ALTER TABLE <table_name> CLUSTER BY (<clustering_columns>)
次の表に、オーバーライドできる Delta 機能と、有効化が Databricks Runtime バージョンとの互換性にどのような影響を与えるかについての情報を示します。
Delta機能 |
Runtime互換性 |
有効化をオーバーライドするプロパティ |
液体クラスタリングに対する無効化の影響 |
---|---|---|---|
削除ベクトル |
読み取りと書き込みには、Databricks Runtime 12.2 lTS 以上が必要です。 |
|
行レベルの同時実行性が無効になっているため、トランザクションとクラスタリング操作が競合する可能性が高くなります。 「行レベルの同時実行性との書き込みの競合」を参照してください。
|
行の追跡 |
書き込みには Databricks Runtime 13.3 LTS 以上が必要です。 どの Databricks Runtime バージョンからでも読み取ることができます。 |
|
行レベルの同時実行性が無効になっているため、トランザクションとクラスタリング操作が競合する可能性が高くなります。 「行レベルの同時実行性との書き込みの競合」を参照してください。 |
チェックポイント V2 |
読み取りと書き込みには Databricks Runtime 13.3 LTS 以降が必要です。 |
|
リキッドクラスタリングの動作には影響しません。 |
クラスターキー の選択
Databricks では、一般的に使用されるクエリー フィルターに基づいてクラスター キーを選択することをお勧めします。 クラスター キーは任意の順序で定義できます。 2 つの列が相関している場合は、そのうちの 1 つをクラスター キーとして追加するだけで済みます。
クラスタリングは、クラスタリング キーに対して次のデータ型をサポートします。
日付
タイムスタンプ
TimestampNTZ (Databricks Runtime 14.3 LTS 以上が必要)
文字列
整数タイプ
ロング
Short型
Float
Double型
DECIMALタイプ
Byte型
ブール値
既存のテーブルを変換する場合は、次の推奨事項を考慮してください。
現在のデータ最適化手法 |
クラスター キーの推奨事項 |
---|---|
ハイブスタイルのパーティション分割 |
パーティション列をクラスター キーとして使用します。 |
Z-order のインデックス作成 |
|
ハイブ スタイルのパーティション分割と Z-order |
パーティション列と |
カーディナリティを減らすために生成された列 (タイムスタンプの日付など) |
元の列をクラスター キーとして使用し、生成された列は作成しないでください。 |
クラスター化されたテーブル へのデータの書き込み
リキッドクラスタリングで使用されるすべてのDelta書き込みプロトコルテーブル機能をサポートするDeltaライタークライアントを使用する必要があります。Databricksでは、Databricks Runtime 13.3 LTS 以降を使用する必要があります。
ほとんどの操作では、書き込み時にデータが自動的にクラスター化されることはありません。 書き込み時にクラスター化する操作には、次のものがあります。
INSERT INTO
オペレーションズCTAS
ステートメントCOPY INTO
Parquet 形式からspark.write.format("delta").mode("append")
注
書き込み時のクラスターはベストエフォート型アプリケーションであり、以下の状況では適用されません。
書き込み操作が 512 GB のデータを超える場合。
SELECT
サブクエリに変換、フィルター、または結合が含まれている場合。投影された列がソース テーブルと同じでない場合。
すべての操作がリキッドクラスタリングに適用されるわけではないため、Databricks では、すべてのデータが効率的にクラスター化されるように、 OPTIMIZE
を頻繁に実行することをお勧めします。
クラスター をトリガーする方法
クラスターをトリガーするには、 Databricks Runtime 13.3 LTS 以降を使用する必要があります。 次の例のように、テーブルで OPTIMIZE
コマンドを使用します。
OPTIMIZE table_name;
リキッドクラスタリングはインクリメンタルであり、クラスタリングする必要があるデータに対応するために、必要な場合にのみデータが書き換えられます。 クラスタ化されるデータと一致しないクラスタキーを持つデータファイルは書き換えられません。
最適なパフォーマンスを得るには、Databricks では、通常の OPTIMIZE
ジョブをクラスター データにスケジュールすることをお勧めします。 多くの更新または挿入が発生しているテーブルの場合、Databricks では、1 時間または 2 時間ごとに OPTIMIZE
ジョブをスケジュールすることをお勧めします。 リキッドクラスタリングは増分であるため、クラスター化されたテーブルのほとんどの OPTIMIZE
ジョブは迅速に実行されます。
クラスター化されたテーブル からデータを読み取る
クラスター化されたテーブルのデータは、削除ベクトルの読み取りをサポートする任意の Delta Lake クライアントを使用して読み取ることができます。 最適なクエリ結果を得るには、次の例のように、クエリー フィルターにクラスター キーを含めます。
SELECT * FROM table_name WHERE cluster_key_column_name = "some_value";
クラスターキー の変更
テーブルのクラスターキーは、次の例のように ALTER TABLE
コマンドを実行することでいつでも変更できます。
ALTER TABLE table_name CLUSTER BY (new_column1, new_column2);
クラスターキーを変更すると、後続の OPTIMIZE
および書き込み操作では新しいクラスターアプローチが使用されますが、既存のデータは書き換えられません。
次の例のように、キーを NONE
に設定してクラスターをオフにすることもできます。
ALTER TABLE table_name CLUSTER BY NONE;
クラスター キーを NONE
に設定しても、既にクラスター化されているデータは書き換えられませんが、今後の OPTIMIZE
操作でクラスター化キーが使用されなくなります。
テーブルのクラスター化 方法を確認する
次の例に示すように、 DESCRIBE
コマンドを使用してテーブルのクラスターキーを表示できます。
DESCRIBE TABLE table_name;
DESCRIBE DETAIL table_name;
リキッドクラスタリングを持つテーブルの互換性
Databricks では Databricks Runtime リキッドクラスタリングが有効になっているテーブルからの読み取りまたは書き込みを行うすべてのワークロードに対して、13.3 LTS 以降を使用することをお勧めします。
Databricks Runtime 14.1 以降でリキッドクラスタリングで作成されたテーブルは、デフォルトで v2 チェックポイントを使用します。v2 チェックポイントを持つテーブルは、 Databricks Runtime 13.3 LTS 以降で読み書きできます。
Databricks Runtime 12.2 LTS以降では、v2 チェックポイントを無効にしてテーブル プロトコルをダウングレードし、リキッドクラスタリングを使用してテーブルを読み取ることができます。 Drop Delta テーブルの機能を参照してください。