Estado e memória do agente
Lakebase autoscale é a versão mais recente do Lakebase, com recursos como autoscale compute, escala-to-zero, branching e instant restore. Para regiões compatíveis, consulte Disponibilidade por região. Se você é usuário de provisionamento Lakebase , consulte ProvisionamentoLakebase.
Os agentes AI precisam de armazenamento persistente para manter o contexto entre turnos e sessões. Lakebase Autoscale fornece um backend Postgres totalmente gerenciado para armazenar o estado do agente e a memória, integrando-se nativamente com a autenticação Databricks e escalando automaticamente de acordo com sua carga de trabalho.
Memória de curto prazo versus memória de longo prazo
memória de curto prazo | memória de longo prazo |
|---|---|
Captura o contexto dentro de uma única sessão de conversa usando IDs de tópicos e pontos de verificação. Permite que os agentes respondam a perguntas de acompanhamento levando em consideração as ações anteriores. | Extrai e armazena informações key em várias conversas. Permite respostas personalizadas com base em interações anteriores. Constrói uma base de conhecimento do usuário que melhora com o tempo. |
Você pode implementar um ou ambos os tipos de memória no mesmo agente.
Opções de implantação
A memória do agente com suporte do Lakebase é compatível com dois destinos de implantação do Databricks:
Databricks Apps : implante agentes como aplicativos interativos com memória de curto ou longo prazo, usando checkpointers LangGraph ou o SDK de Agentes OpenAI . O Databricks gerencia a autenticação entre o aplicativo e o Lakebase automaticamente. Veja Memória do agente deAI.
Mosaic AI Model Serving : implementou agentes para o endpoint do modelo com pontos de verificação apoiados pelo Lakebase. Suporta LangGraph viagem do tempo para retomar ou bifurcar conversas a partir de qualquer ponto de verificação. Consulte Memória do agenteAI (modelo de serviço).
Implementação
Para obter instruções completas de configuração, padrões de aplicação e exemplos de Notebook, consulte: