メインコンテンツまでスキップ

モデルの品質とエンドポイントの正常性の監視

Mosaic AI Model Serving は、モデルとそのデプロイの品質と正常性を監視するための高度なツールを提供します。 次の表は、利用可能な各モニタリングツールの概要です。

ツール

説明

目的

アクセス

サービスログ

モデルサービング エンドポイントから stdout ストリームと stderr ストリームをキャプチャします。

モデルのデプロイ中のデバッグに役立ちます。 ログにすぐに表示するには、 print(..., flush=true) を使用します。

Serving UI の Logs タブ からアクセスできます。 ログはリアルタイムでストリームされ、 API.

ビルドログ

モデルサービング エンドポイントの本番運用可能な Python 環境を自動的に作成するプロセスからの出力を表示します。

モデルのデプロイと依存関係の問題を診断するのに役立ちます。

モデルサービングビルドの完了時に、[ ログ ]タブの [ビルドログ ]で使用できます。ログはAPIを介してエクスポートできます。

Endpoint health メトリクス

レイテンシ、リクエスト率、エラー率、CPU使用率、メモリ使用量などのインフラストラクチャメトリクスに関する知見を提供します。

サービス インフラストラクチャのパフォーマンスと正常性を理解するために重要です。

デフォルトでは、過去 14 日間は配信 UI で利用できます。 データは、リアルタイムでオブザーバビリティツールにストリームすることもできます。

推論テーブル

オンライン予測の要求と応答を、 カスタム モデルの Unity Catalog によって管理される Delta テーブルに自動的に記録します。

このツールは、モニタリングおよびデバッグ モデルの品質または応答、トレーニング データ セットの生成、またはコンプライアンス監査の実施に使用します。

既存および新規のモデルサービングエンドポイントに対しては、Serving UI で 1 回クリックするか、プログラムで Serving APIsを使用して有効にできます。

AI Gateway 対応の推論テーブル

外部モデルまたはプロビジョニングされたスループット ワークロードを提供するエンドポイントの Unity Catalog によって管理される Delta テーブルに、オンライン予測要求と応答を自動的に記録します。

このツールは、モニタリングおよびデバッグ モデルの品質または応答、トレーニング データ セットの生成、またはコンプライアンス監査の実施に使用します。

Serving UI または を使用してAI Gateway 機能を有効にするときに、既存および新規のモデルサービングエンドポイントに対して有効にできます。RESTAPI

追加のリソース