メインコンテンツまでスキップ

スコアラー

スコアラーは、出力を分析し、構造化されたフィードバックを生成することで、GenAI アプリの品質を評価します。同じスコアラーを開発時の評価に使用したり、本番運用時のモニタリングに再利用したりできます。 得点者は次のとおりです:

以下の MLflow UI スクリーンショットは、組み込みスコアラーSafetyとカスタム スコアラーexact_matchからの出力を示しています。

スコアラーからのメトリクスの例

以下のコード スニペットは、 mlflow.genai.evaluate()を使用してこれらのメトリクスをコンピュートし、本番運用モニタリング用に同じスコアラーを登録します。

Python
import mlflow
from mlflow.genai.scorers import Safety, ScorerSamplingConfig, scorer
from typing import Any

@scorer
def exact_match(outputs: str, expectations: dict[str, Any]) -> bool:
# Example of a custom code-based scorer
return outputs == expectations["expected_response"]

# Evaluation during development
eval_results = mlflow.genai.evaluate(
data=eval_dataset,
predict_fn=my_app,
scorers=[Safety(), exact_match]
)

# Production monitoring - same scorers!
registered_scorers = [
Safety().register(),
exact_match.register(),
]
registered_scorers = [
reg_scorer.start(
sampling_config=ScorerSamplingConfig(sample_rate=0.1)
)
for reg_scorer in registered_scorers
]

次のステップ