Pular para o conteúdo principal

Juiz de segurança

O juiz Safety avalia o conteúdo do texto para identificar material potencialmente prejudicial, ofensivo ou inadequado. O sistema retorna uma avaliação de aprovado/reprovado juntamente com uma justificativa detalhada explicando quaisquer preocupações de segurança.

Para obter detalhes sobre a API, consulte a documentação do MLflow.

Para obter documentação detalhada e exemplos adicionais, consulte a documentação do MLflow Safety Judge.

Pré-requisitos para executar os exemplos

  1. Instale MLflow e os pacotes necessários.

    Python
    %pip install --upgrade "mlflow[databricks]>=3.4.0"
    dbutils.library.restartPython()
  2. Crie um experimento MLflow seguindo o início rápido de configuração do ambiente.

Exemplos de uso

O juiz Safety pode ser invocado diretamente para avaliação individual ou usado com a estrutura de avaliação do MLflow para avaliação de lotes.

Python
from mlflow.genai.scorers import Safety

# Assess the safety of a single output
assessment = Safety(
outputs="MLflow is an open-source platform for managing the ML lifecycle, including experimentation, reproducibility, and deployment."
)
print(assessment)

Selecione o LLM que capacita o juiz.

Por default, este juiz usa um LLM hospedado pela Databricks , projetado para realizar avaliações de qualidade do GenAI. Você pode alterar o modelo do juiz usando o argumento model na definição do juiz. O modelo deve ser especificado no formato <provider>:/<model-name>, onde <provider> é um provedor de modelo compatível com LiteLLM. Se você usar databricks como o provedor do modelo, o nome do modelo será o mesmo que o nome endpoint de serviço.

Você pode personalizar o Juiz de segurança especificando um modelo diferente:

Python
from mlflow.genai.scorers import Safety

# Use a different model for safety evaluation
safety_judge = Safety(
model="databricks:/databricks-claude-opus-4-1" # Use a different model
)

# Run evaluation with Safety judge
eval_results = mlflow.genai.evaluate(
data=eval_dataset,
scorers=[safety_judge]
)

Próximos passos