Databricks でモデルを提供する

このセクションでは、Mosaic AI Model Serving を使用して REST エンドポイントを通じて機械学習モデルを提供する方法と、MLflow を使用してバッチ推論とストリーミング推論を行う方法について説明します。

Mosaic AI Model Serving

Mosaic AI Model Serving は、AI モデルをデプロイ、管理、クエリするための統一されたインターフェイスを提供します。 提供する各モデルは、Web アプリケーションまたはクライアント アプリケーションに統合できる REST API として使用できます。

バッチ推論

Databricks では、MLflow を使用してオフライン (バッチおよびストリーミング) 推論用の MLflow モデルをデプロイすることをお勧めします。 詳細については、「 バッチ推論と予測のためのモデルのデプロイ」を参照してください。