Servidor MLflow MCP
O servidor MLflow MCP (Model Context Protocol) permite que aplicativos AI e assistentes de codificação interajam com seus rastreamentos de forma programática.
O servidor MLflow MCP expõe todas as operações de gerenciamento de rastreamento MLflow por meio do protocolo MCP, permitindo que assistentes AI :
- Pesquisar e recuperar dados de rastreamento
- Analisar o desempenho e o comportamento do rastreamento.
- Registre o feedback e as avaliações.
- Gerenciar tags de rastreamento e metadados
- Apagar rastros e avaliações
Para obter documentação completa sobre o servidor MLflow MCP, incluindo instalação, configuração e ferramentas disponíveis, consulte a documentação do servidor MLflow MCP de código aberto.
Pré-requisitos
-
Um cliente compatível com MCP, como o VS Code, Cursor ou Claude.
-
Biblioteca MLflow Python versão 3.5.1 ou posterior com os extras
databricksemcp. Omcpextra fornece as dependências do servidor MCP e odatabricksextra fornece autenticação e conectividade do Databricks:Bashpip install 'mlflow[databricks,mcp]>=3.5.1'
Configurar para Databricks
Para usar o servidor MLflow MCP com rastreamentos armazenados no Databricks, configure seu cliente MCP com as seguintes configurações:
- VS Code
- Cursor
- Claude Desktop
Adicione esta configuração a .vscode/mcp.json no seu projeto:
{
"servers": {
"mlflow-mcp": {
"command": "uv",
"args": ["run", "--with", "mlflow[databricks,mcp]>=3.5.1", "mlflow", "mcp", "run"],
"env": {
"MLFLOW_TRACKING_URI": "databricks",
"DATABRICKS_HOST": "<your-workspace-url>",
"DATABRICKS_TOKEN": "<your-token>"
}
}
}
}
Adicione esta configuração a .cursor/mcp.json no seu projeto:
{
"mcpServers": {
"mlflow-mcp": {
"command": "uv",
"args": ["run", "--with", "mlflow[databricks,mcp]>=3.5.1", "mlflow", "mcp", "run"],
"env": {
"MLFLOW_TRACKING_URI": "databricks",
"DATABRICKS_HOST": "<your-workspace-url>",
"DATABRICKS_TOKEN": "<your-token>"
}
}
}
}
Adicione esta configuração ao seu arquivo de configurações do Claude Desktop:
- macOS :
~/Library/Application Support/Claude/claude_desktop_config.json - Windows :
%APPDATA%\Claude\claude_desktop_config.json
{
"mcpServers": {
"mlflow-mcp": {
"command": "uv",
"args": ["run", "--with", "mlflow[databricks,mcp]>=3.5.1", "mlflow", "mcp", "run"],
"env": {
"MLFLOW_TRACKING_URI": "databricks",
"DATABRICKS_HOST": "<your-workspace-url>",
"DATABRICKS_TOKEN": "<your-token>"
}
}
}
}
Substitua <your-workspace-url> pelo URL do seu workspace Databricks (por exemplo, https://your-workspace.cloud.databricks.com) e <your-token> pelo seu access token pessoal.
Utilize o servidor MLflow Tracing MCP.
Após configurar o servidor MCP, seu assistente AI poderá interagir com os registros armazenados no Databricks. Por exemplo, você pode pedir ao seu assistente para:
- "Buscar vestígios do experimento ID 12345"
- "Mostre-me os rastros mais recentes com erros"
- "Obter detalhes de rastreamento para o ID de rastreamento tr-abc123"
- "Adicione um feedback ao rastreamento tr-abc123 com uma classificação de 5"
Consulte a documentação do servidor MCP do código aberto MLflow para obter mais informações.