メインコンテンツまでスキップ

MLflow エクスペリメント

MLflow エクスペリメント データソースは、エクスペリメント 実行データをロードするための標準APIを提供しますMLflow。ノートブック エクスペリメントからデータをロードできます。 または、MLflowエクスペリメント名またはエクスペリメント ID を使用することもできます。

必要条件

Databricks Runtime 6.0 ML 以降。

ノートブック エクスペリメントからデータを読み込む

ノートブック エクスペリメントからデータをロードするには、 load().

Python
df = spark.read.format("mlflow-experiment").load()
display(df)

エクスペリメント IDs を使用したデータの読み込み

1 つ以上のワークスペース エクスペリメントからデータをロードするには、図のようにエクスペリメント ID を指定します。

Python
df = spark.read.format("mlflow-experiment").load("3270527066281272")
display(df)

エクスペリメント名を使用したデータの読み込み

エクスペリメントの名前を load() メソッドに渡すこともできます。

Python
expId = mlflow.get_experiment_by_name("/Shared/diabetes_experiment/").experiment_id
df = spark.read.format("mlflow-experiment").load(expId)
display(df)

メトリクスとパラメーターに基づいてデータをフィルタリングする

このセクションの例では、エクスペリメントからデータを読み込んだ後にデータをフィルター処理する方法を示します。

Python
df = spark.read.format("mlflow-experiment").load("3270527066281272")
filtered_df = df.filter("metrics.loss < 0.01 AND params.learning_rate > '0.001'")
display(filtered_df)

スキーマ

データソースによって返される DataFrame のスキーマは次のとおりです。

root
|-- run_id: string
|-- experiment_id: string
|-- metrics: map
| |-- key: string
| |-- value: double
|-- params: map
| |-- key: string
| |-- value: string
|-- tags: map
| |-- key: string
| |-- value: string
|-- start_time: timestamp
|-- end_time: timestamp
|-- status: string
|-- artifact_uri: string