rótulo durante o desenvolvimento
Como desenvolvedor que está criando aplicativos GenAI, você precisa de uma maneira de rastrear suas observações sobre a qualidade dos resultados do seu aplicativo. O MLflow Tracing permite adicionar feedback ou expectativas diretamente aos traços durante o desenvolvimento, oferecendo uma maneira rápida de registrar problemas de qualidade, marcar exemplos bem-sucedidos ou adicionar notas para referência futura.
Pré-requisitos
- Seu aplicativo é instrumentado com o MLflow Tracing
- Você gerou rastreamentos ao executar seu aplicativo
Adicionar rótulo aos rastros por meio da UI
MLflow facilita a adição de anotação (rótulo) diretamente aos traços por meio da UI MLflow.
Se estiver usando o site Databricks Notebook, o senhor também pode executar essas etapas na interface do usuário de rastreamento que é renderizada em linha no Notebook.

- 
Navegue até Traces tab na UI do experimento MLflow 
- 
Abra um rastreamento individual 
- 
Na UI de rastreamento, clique no intervalo específico que o senhor deseja rotular - Selecionar a extensão da raiz atribui feedback a todo o rastreamento.
 
- 
Expanda o site Assessments tab na extrema direita 
- 
Preencha o formulário para adicionar seus comentários - 
Tipo de avaliação - Feedback : avaliação subjetiva da qualidade (avaliações, comentários)
- Expectativa : A produção ou valor esperado (o que deveria ter sido produzido)
 
- 
Nome da avaliação - Um nome exclusivo para o assunto do feedback
 
- 
Tipo de dados - Número
- Booleana
- String
 
- 
Valor - Sua avaliação
 
- 
Fundamentação - Notas opcionais sobre o valor
 
 
- 
- 
Clique em Create para salvar seu rótulo 
- 
Quando o senhor retornar ao site Traces tab, seu rótulo aparecerá como uma nova coluna 
Adicione o rótulo aos rastros por meio do SDK
O senhor pode adicionar rótulos aos traços de forma programática usando MLflow's SDK. Isso é útil para o rótulo automatizado com base na lógica do aplicativo ou para o processamento de lotes de traços.
Para ver um conjunto completo de exemplos, consulte a página conceitual de avaliações de registro.
import mlflow
@mlflow.trace
def my_app(input: str) -> str:
    return input + "_output"
my_app(input="hello")
trace_id = mlflow.get_last_active_trace_id()
# Log a thumbs up/down rating
mlflow.log_feedback(
    trace_id=trace_id,
    name="quality_rating",
    value=1,  # 1 for thumbs up, 0 for thumbs down
    rationale="The response was accurate and helpful",
    source=mlflow.entities.assessment.AssessmentSource(
        source_type=mlflow.entities.assessment.AssessmentSourceType.HUMAN,
        source_id="bob@example.com",
    ),
)
# Log expected response text
mlflow.log_expectation(
    trace_id=trace_id,
    name="expected_response",
    value="The capital of France is Paris.",
    source=mlflow.entities.assessment.AssessmentSource(
        source_type=mlflow.entities.assessment.AssessmentSourceType.HUMAN,
        source_id="bob@example.com",
    ),
)

Próximas etapas
Continue sua jornada com estas ações recomendadas e o tutorial.
- Coletar feedback de especialistas no domínio - Estabelecer sessões estruturadas de rótulo
- Crie um conjunto de dados de avaliação - Use os traços do rótulo para criar um conjunto de dados de teste
- Coletar feedback do usuário final - Capturar feedback dos aplicativos implantados
Guia de referência
Explore a documentação detalhada dos conceitos e recursos mencionados neste guia.
- Avaliações de registro - Mergulhe profundamente nos tipos de avaliação e no uso
- Modelo de dados de rastreamento - Entenda como as avaliações são vinculadas aos rastreamentos
- rótulo schemas - Saiba mais sobre a coleta de feedback estruturado