メインコンテンツまでスキップ

Parallelize Hyperopt ハイパーパラメーターチューニング

注記

Hyperopt のオープンソース バージョンは保守されなくなりました。

Hyperopt は、次のメジャー DBR ML バージョンで削除されます。 Databricks、単一ノードの最適化にはOptunaを使用するか、非推奨の分散ハイパーパラメーターチューニング機能と同様のエクスペリエンスのためにRayTuneHyperoptを使用することをお勧めします。Databricks での RayTune の使用の詳細については、こちらをご覧ください。

このノートブックでは、 Hyperopt を使用してハイパーパラメーターチューニングの計算を並列化する方法を示します。 SparkTrials クラスを使用して、クラスター ワーカー全体に計算を自動的に分散します。また、Hyperopt の実行の自動 MLflow 追跡も示しているため、後で結果を保存できます。

Parallelize ハイパーパラメーターチューニング with automated MLflow tracking ノートブック

Open notebook in new tab

ノートブックの最後のセルでアクションを実行すると、MLflow UI に次の情報が表示されます。

Hyperopt MLflow デモ