Comece a experimentar os experimentos do MLflow

Esta coleção de Notebook demonstra como você pode começar a usar a execução de experimentos do MLflow.

Componentes do MLflow

MLflow é uma plataforma de código aberto para gerenciar o ciclo de vida machine learning de ponta a ponta. O MLflow tem três componentes principais:

  • acompanhamento

  • modelos

  • Projetos

O componente de acompanhamento MLflow permite logs e query sessões de treinamento de modelo de máquina (execução) usando as seguintes APIs:

Uma execução de MLflow é uma coleção de parâmetros, métricas, tags e artefatos associados a um modelo do processo de treinamento machine learning .

O que são experimentos no MLflow?

Os experimentos são a principal unidade de organização no MLflow; todas as execuções do MLflow pertencem a um experimento. Cada experimento permite visualizar, pesquisar e comparar execuções, bem como downloads artefatos de execução ou metadados para análise em outras ferramentas. Os experimentos são mantidos em um servidor de acompanhamento MLflow hospedado no Databricks.

Os experimentos estão localizados na árvore de arquivos do espaço de trabalho . Você gerencia experimentos usando as mesmas ferramentas que usa para gerenciar outros objetos workspace , como pastas, Notebook e bibliotecas.

Caderno de exemplo do MLflow

O caderno a seguir demonstra como criar e registrar em log uma execução do MLflow usando as APIs de acompanhamento do MLflow, bem como usar a interface do usuário do experimento para view a execução. Esses notebooks estão disponíveis em Python, Scala e R.

O Python e o R Notebook usam um experimentoNotebook . O Scala Notebook cria um experimento na pasta Shared.

Observação

Com o Databricks Runtime 10.4 LTS ML e acima, o Databricks Autologging é habilitado por default para Python Notebook.