Avaliação de execução
As execuções de avaliação são execuções MLflow que organizam e armazenam os resultados da avaliação do seu aplicativo GenAI. Uma execução de avaliação inclui o seguinte:
- Rastros : um rastreamento para cada entrada no seu dataset de avaliação.
- Feedback : Avaliações de qualidade dos pontuadores anexadas a cada traço.
- métricas : estatísticas agregadas em todos os exemplos avaliados.
- Metadados : informações sobre a configuração da avaliação.
Como criar uma execução de avaliação
Uma execução de avaliação é criada automaticamente quando você chama mlflow.genai.evaluate()
. Para mais informações sobre mlflow.genai.evaluate()
, consulte o código- MLflow e a documentação do MLflow.
Python
import mlflow
# This creates an evaluation run
results = mlflow.genai.evaluate(
data=test_dataset,
predict_fn=my_app,
scorers=[correctness_scorer, safety_scorer],
experiment_name="my_app_evaluations"
)
# Access the run ID
print(f"Evaluation run ID: {results.run_id}")
Estrutura de execução da avaliação
Evaluation Run
├── Run Info
│ ├── run_id: unique identifier
│ ├── experiment_id: which experiment it belongs to
│ ├── start_time: when evaluation began
│ └── status: success/failed
├── Traces (one per dataset row)
│ ├── Trace 1
│ │ ├── inputs: {"question": "What is MLflow?"}
│ │ ├── outputs: {"response": "MLflow is..."}
│ │ └── feedbacks: [correctness: 0.8, relevance: 1.0]
│ ├── Trace 2
│ └── ...
├── Aggregate Metrics
│ ├── correctness_mean: 0.85
│ ├── relevance_mean: 0.92
│ └── safety_pass_rate: 1.0
└── Parameters
├── model_version: "v2.1"
├── dataset_name: "qa_test_v1"
└── scorers: ["correctness", "relevance", "safety"]