Pular para o conteúdo principal

Plataforma outubro de 2025 notas sobre a versão

Essas melhorias na plataforma Recursos e SAP Databricks foram lançadas em outubro de 2025. A cloud à qual a versão se aplica é indicada em cada nota sobre a versão.

nota

Os lançamentos são encenados. Sua account do SAP Databricks pode não ser atualizada até uma semana ou mais após a data de lançamento inicial.

Ignorar células ao executar o Notebook

31 de outubro de 2025 | Aplica-se a: Sim, marcado como certo AWS Sim, marcado como certo GCP Sim, marcado como certo Azure

Agora você pode pular células individuais ao executar várias células em um Notebook usando o comando mágico %skip . Adicione %skip no início de qualquer célula que você queira ignorar.

Experiência aprimorada do depurador de Notebook

31 de outubro de 2025 | Aplica-se a: Sim, marcado como certo AWS Sim, marcado como certo GCP Sim, marcado como certo Azure

O depurador interativo Python Notebook agora suporta depuração com vários arquivos. Você pode definir pontos de interrupção e entrar em funções em vários arquivos workspace . O depurador abre automaticamente o arquivo em uma nova tab quando você entra nele. Essa melhoria facilita a depuração de código que abrange vários arquivos em seu workspace.

Modelo de feedback descontinuado para agentes AI

29 de outubro de 2025 | Aplica-se a: Sim, marcado como certo AWS Sim, marcado como certo GCP Sim, marcado como certo Azure

O modelo de feedback experimental para agentes AI foi descontinuado. A partir de 1º de novembro de 2025, os agentes recém-implantados não incluirão um modelo de feedback. Atualize para o MLflow 3 e use a API log_feedback para coletar avaliações em rastreamentos de agentes.

As tabelas de logs de solicitações e logs de avaliação foram descontinuadas.

29 de outubro de 2025 | Aplica-se a: Sim, marcado como certo AWS Sim, marcado como certo GCP Sim, marcado como certo Azure

As tabelas payload_request_logs e payload_assessment_logs estão obsoletas. A partir de 1º de novembro de 2025, os agentes recém-implantados não terão essas tabelas. A partir de 15 de novembro de 2025, as tabelas existentes não serão mais preenchidas com novos dados. Atualize para o MLflow 3 para rastreamento de tempo em tempo real ou use a visualização fornecida.

Driver JDBC do Databricks 2.7.5

23 de outubro de 2025 | Aplica-se a: Sim, marcado como certo AWS Sim, marcado como certo GCP Sim, marcado como certo Azure

O driver JDBC da Databricks (Simba) versão 2.7.5 já está disponível com as seguintes melhorias:

Novo recurso

O conector agora suporta Kerberos com conexões proxy. Para habilitar o proxy Kerberos, defina UseProxy=1 e ProxyAuth=2. Para definir detalhes do proxy, use ProxyHost, ProxyPort, ProxyKrbRealm, ProxyKrbFQDN e ProxyKrbService.

Problemas resolvidos

  • Corrigido um problema em que o conector não conseguia executar consultas complexas que continham caracteres ? no modo nativo.
  • Corrigidas falhas intermitentes na ingestão de volumes do Unity Catalog causadas por comportamento inesperado do conector.
  • Corrigido um erro de asserção em getColumns quando uma tabela incluía uma coluna do tipo Void ou Variant e o sinalizador java -ea estava ativado.

ai_parse_document (Pré-visualização)

23 de outubro de 2025 | Aplica-se a: Sim, marcado como certo AWS Sim, marcado como certo GCP Sim, marcado como certo Azure

ai_parse_document Já está disponível em versão prévia.

Comportamento de arrastar e soltar da coluna atualizado

22 de outubro de 2025 | Aplica-se a: Sim, marcado como certo AWS Sim, marcado como certo GCP Sim, marcado como certo Azure

Ao tentar excluir uma coluna que possui uma ou mais tags de controle atribuídas, a operação falha. Para excluir uma coluna de tags, primeiro você deve remover todas tags que a compõem.

O Zstd agora é o método de compressão default para novas tabelas Delta .

21 de outubro de 2025 | Aplica-se a: Sim, marcado como certo AWS Sim, marcado como certo GCP Sim, marcado como certo Azure

Todas as tabelas Delta recém-criadas no Databricks Runtime 16.0 e versões superiores agora usam a compressão Zstandard (Zstd) por default em vez de Snappy.

As tabelas existentes continuam a usar o codec de compressão atual. Para alterar o codec de compressão de uma tabela existente, defina a propriedade da tabela delta.parquet.compression.codec .

Os Bundles ativosDatabricks no workspace estão disponíveis para o público geral.

16 de outubro de 2025 | Aplica-se a: Sim, marcado como certo AWS Sim, marcado como certo GCP Sim, marcado como certo Azure

Databricks Ativo Bundles no workspace agora está disponível para o público em geral (GA). Este recurso permite que você colabore com outros usuários da sua organização para editar, commit, testar e implantar atualizações de pacotes por meio da interface do usuário.

Comportamento de dimensionamento automático aprimorado para Mosaic AI Model Serving

13 de outubro de 2025 | Aplica-se a: Sim, marcado como certo AWS Sim, marcado como certo GCP Sim, marcado como certo Azure

O recurso de dimensionamento automático do Mosaic AI Model Serving foi ajustado para ignorar picos de tráfego extremamente breves e, em vez disso, responder apenas a aumentos sustentados na carga. Essa alteração impede o provisionamento desnecessário de escalonamento de concorrência durante picos momentâneos e reduz os custos de serviço sem afetar o desempenho ou a confiabilidade.

Classificação de dados (pré-visualização)

13 de outubro de 2025 | Aplica-se a: Sim, marcado como certo AWS Sim, marcado como certo GCP Sim, marcado como certo Azure

Databricks Data Classification agora está em versão prévia e oferece suporte a todos os tipos de catálogo, consolida todos os resultados de classificação em uma única tabela do sistema e apresenta uma nova interface de usuário para revisar etag automaticamente as classificações.

O suporte multimodal já está disponível.

13 de outubro de 2025 | Aplica-se a: Sim, marcado como certo AWS Sim, marcado como certo GCP Sim, marcado como certo Azure

O Mosaic AI Model Serving agora oferece suporte a entradas multimodais para modelos de base hospedados no Databricks.

Este suporte multimodal está disponível através das seguintes funcionalidades:

  • APIs do modelo Foundation com pagamento por token.
  • Provisionamento APIs do Modelo Básico Taxa de transferência.
  • AI Functions. Tanto a inferência em tempo real quanto a inferência em lotes de carga de trabalho.

Git privado sem servidor (Prévia)

6 de outubro de 2025 | Aplica-se a: Sim, marcado como certo Azure

Agora você pode conectar um workspace Databricks a um servidor Git privado usando compute serverless e Azure Private Link.

Os metadados de partição geralmente estão disponíveis.

6 de outubro de 2025 | Aplica-se a: Sim, marcado como certo AWS Sim, marcado como certo GCP Sim, marcado como certo Azure

Agora você pode ativar o registro de metadados de partição, uma estratégia de descoberta de partições para tabelas externas registradas no Unity Catalog.

Os destinatáriosDelta Sharing podem aplicar filtros de linha e máscaras de coluna (GA).

6 de outubro de 2025 | Aplica-se a: Sim, marcado como certo AWS Sim, marcado como certo GCP Sim, marcado como certo Azure

Os destinatários Delta Sharing agora podem aplicar seus próprios filtros de linha e máscaras de coluna em tabelas compartilhadas e tabelas estrangeiras compartilhadas. No entanto, os provedores Delta Sharing ainda não podem compartilhar dados ativos que tenham segurança em nível de linha ou máscaras de coluna.

tag do sistema de status de certificação está em Pré-visualização.

6 de outubro de 2025 | Aplica-se a: Sim, marcado como certo AWS Sim, marcado como certo GCP Sim, marcado como certo Azure

Agora você pode aplicar a tag governada system.certification_status a catálogos, esquemas, tabelas, visualizações, volumes, painéis, modelos registrados e Genie Spaces para indicar se um ativo de dados é certificado ou obsoleto . Isso melhora a governança, a capacidade de descoberta e a confiança nas cargas de trabalho analíticas e AI .

O armazenamento em cache de prompts agora é compatível com os modelos Claude.

3 de outubro de 2025 | Aplica-se a: Sim, marcado como certo AWS Sim, marcado como certo GCP Sim, marcado como certo Azure

O cache de prompts agora é compatível com modelos Claude hospedados no Databricks. Você pode especificar o parâmetro cache_control em suas solicitações de consulta para armazenar em cache o seguinte:

  • Pensando no conteúdo das mensagens no array messages.content .
  • Blocos de conteúdo de imagens na matriz messages.content .
  • Uso da ferramenta, resultados e definições na matriz tools .

Anthropic Claude Sonnet 4.5 já está disponível como um modelo hospedado Databricks

3 de outubro de 2025 | Aplica-se a: Sim, marcado como certo AWS Sim, marcado como certo GCP Sim, marcado como certo Azure

O Mosaic AI Model Serving agora oferece suporte ao Anthropic Claude Sonnet 4.5 como um modelo hospedado no Databricks. Você pode acessar este modelo usando APIs do Foundation Model com pagamento por token.

MelhoriasNotebook

3 de outubro de 2025 | Aplica-se a: Sim, marcado como certo AWS Sim, marcado como certo GCP Sim, marcado como certo Azure

As seguintes melhorias para o Notebook já estão disponíveis:

  • O minimapa de execução de células agora aparece na margem direita do Notebook. Use o minimapa para obter uma visão geral do status de execução do seu Notebook e navegar rapidamente entre as células.
  • Utilize Databricks Assistant para ajudar a diagnosticar e corrigir erros de ambiente, incluindo erros de instalação de bibliotecas.
  • Ao reconectar a um Notebook serverless , as sessões são restauradas automaticamente com as variáveis Python e o estado Spark do Notebook.
  • O recurso de autoria PySpark agora suporta as cláusulas agg, withColumns, withColumnsRenamed e filter/where .
  • Databricks agora suporta a importação e exportação de notebooks ipynb de até 100 MB. O salvamento automático de instantâneos de revisão, o salvamento manual e a clonagem são suportados para todos os notebooks de até 100 MB.
  • Ao clonar e exportar o Notebook, agora você pode escolher se deseja incluir ou não as saídas das células.

O SonetoAnthropic 4 de Claude está disponível para inferência de lotes em regiões dos EUA.

3 de outubro de 2025 | Aplica-se a: Sim, marcado como certo AWS Sim, marcado como certo GCP Sim, marcado como certo Azure

Mosaic AI Model Serving agora oferece suporte Anthropic Claude Sonnet 4 para inferência de lotes de fluxo de trabalho. Agora você pode usar databricks-claude-sonnet-4 em suas solicitações ai_query para realizar inferência de lotes.

Converter para o Unity Catalog tabela a partir de tabela externa

2 de outubro de 2025 | Aplica-se a: Sim, marcado como certo AWS Sim, marcado como certo GCP Sim, marcado como certo Azure

O comando ALTER TABLE ... SET MANAGED agora está disponível para todos. Este comando converte tabelas externas Unity Catalog em tabelas gerenciadas de forma transparente. Isso permite que você aproveite ao máximo os recursos de gerenciamento de tabelas Unity Catalog , como governança aprimorada, confiabilidade e desempenho.

Configuração de identidade email Git para pastas Git

1º de outubro de 2025 | Aplica-se a: Sim, marcado como certo AWS Sim, marcado como certo GCP Sim, marcado como certo Azure

Agora você pode especificar um endereço email do provedor Git , separado do seu nome de usuário, ao criar credenciais Git para pastas Git Databricks . Este email é usado como identidade do autor e committer Git para todos os commits feitos por meio de pastas Git , garantindo a atribuição correta em seu provedor Git e uma melhor integração com sua account Git .

O email que você fornecer se tornará o GIT_AUTHOR_EMAIL e GIT_COMMITTER_EMAIL para commit, permitindo que os provedores Git associem corretamente o commit à sua account de usuário e exibam suas informações de perfil. Caso nenhum email seja especificado, Databricks usará seu nome de usuário Git como endereço email (comportamento legado).

Novas permissões para o aplicativo Databricks no GitHub

1º de outubro de 2025 | Aplica-se a: Sim, marcado como certo AWS Sim, marcado como certo GCP Sim, marcado como certo Azure

Se você possui uma account SAP Databricks com o aplicativo SAP Databricks GitHub instalado, poderá receber um email do GitHub com o título "Databricks está solicitando permissões atualizadas".

Esta é uma solicitação legítima da Databricks. A mensagem solicita que você aprove uma nova permissão que permite ao SAP Databricks ler os seus emailaccount GitHub . Ao conceder essa permissão, o SAP Databricks poderá recuperar e salvar email da sua account principal GitHub nas suas credenciais Git vinculadas no SAP Databricks. Em uma atualização futura, isso garantirá que os commits feitos no SAP Databricks sejam devidamente vinculados à sua identidade GitHub .

Se você não aceitar a nova permissão, suas credenciais do Git vinculado ainda serão autenticadas no GitHub. No entanto, commits futuros feitos a partir dessas credenciais não serão associados à identidade da sua account GitHub