Pular para o conteúdo principal

Databricks Runtime 16,0 (EoS)

As notas a seguir sobre a versão fornecem informações sobre o site Databricks Runtime 16.0, alimentado por Apache Spark 3.5.0.

A Databricks lançou essa versão em novembro de 2024.

nota

O suporte para essa versão do Databricks Runtime foi encerrado. Para saber a data do fim do suporte, consulte Histórico do fim do suporte. Para conhecer todas as versões compatíveis do site Databricks Runtime, consulte Databricks Runtime notas sobre versões e compatibilidade.

nota

Essas notas sobre a versão podem incluir referências a recursos que não estão disponíveis no Google Cloud a partir desta versão.

dica

Para ver notas sobre a versão das versões do site Databricks Runtime que chegaram ao fim do suporte (EoS), consulte Fim do suporte Databricks Runtime notas sobre a versão. As versões do EoS Databricks Runtime foram retiradas e podem não ser atualizadas.

Mudanças comportamentais

Mudança radical : O JDK 17 agora é o default

Em Databricks Runtime 16.0 e acima, a versão do JDK de default é alterada de JDK 8 para JDK 17. Essa alteração é feita devido à descontinuação planejada e ao fim do suporte para o JDK 8. Isso afeta o seguinte:

  • Java o código executado em Databricks compute deve ser compatível com Java 17.
  • Scala O código executado no Notebook ou em Databricks compute deve ser compatível com Java 17.
  • Java e Scala biblioteca instalada em compute devem ser compatíveis com Java 17.
  • Versões do cliente Apache Hive metastore abaixo 2.x. Definir a configuração do Spark spark.sql.hive.metastore.version para uma versão inferior a 2.x causará problemas de compatibilidade com o Java 17 e falhas de conexão com o Hive metastore. A Databricks recomenda a atualização do Hive para uma versão acima de 2.0.0.

Se o senhor precisar reverter para Java 8, adicione o seguinte ao Spark variável de ambiente quando configurar seu Databricks compute:

Bash
JNAME=zulu8-ca-amd64

Se você estiver usando instâncias ARM, use o seguinte:

JNAME=zulu8-ca-arm64

Para saber mais sobre como especificar as versões do JDK com Databricks compute, consulte Criar um clustering que use o JDK 17.

Para obter ajuda para migrar seu código de Java 8, consulte o seguinte guia:

Mudança radical : O RStudio hospedado está no fim da vida útil

Com esta versão, o Databricks-hosted RStudio Server está no fim da vida útil e indisponível em qualquer Databricks workspace que esteja executando Databricks Runtime 16.0 e acima. Para saber mais e ver uma lista de alternativas ao RStudio, consulte Depreciação do Hosted RStudio Server.

Alteração importante: remoção do suporte para alterar os tipos byte, short, int e long para tipos mais amplos

Em Databricks Runtime 15.4.3 e acima, as seguintes alterações de tipo de dados não podem mais ser aplicadas a tabelas com o recurso de ampliação de tipo ativado:

  • byte, short, int e long a decimal.
  • byte, short e int a double.

Essa alteração foi feita para garantir um comportamento consistente nas tabelas Delta e Iceberg. Para saber mais sobre ampliação de tipo, consulte Ampliação de tipo.

Análise correta de padrões regex com negação no agrupamento de caracteres aninhados

Esta versão inclui uma mudança para oferecer suporte à análise correta de padrões regex com negação no agrupamento de caracteres aninhados. Por exemplo, [^[abc]] será analisado como “qualquer caractere que NÃO seja de 'abc'”.

Além disso, o comportamento do Photon era inconsistente com o Spark para classes de caracteres aninhados. Os padrões Regex que contêm classes de caracteres aninhadas não usarão mais o Photon e, em vez disso, usarão o Spark. Uma classe de caracteres aninhada é qualquer padrão contendo colchetes dentro de colchetes, como [[a-c][1-3]].

Melhorar a detecção de correspondências duplicadas no Delta Lake MERGE

No Databricks Runtime 15.4 LTS e abaixo, as operações MERGE falham se mais de uma linha na tabela de origem corresponder à mesma linha na tabela de destino com base na condição MERGE especificada na cláusula ON. Em Databricks Runtime 16.0 e acima, MERGE também considera as condições especificadas na cláusula WHEN MATCHED. Consulte Upsert em uma tabela Delta Lake usando merge.

O método de instalação da biblioteca de agrupamento não pode mais ser substituído

As configurações Spark spark.databricks.libraries.enableSparkPyPI, spark.databricks.libraries.enableMavenResolution e spark.databricks.libraries.enableCRANResolutionnow agora são default a true e não podem ser substituídas.

tempo limite padrão de duas horas para instalações de biblioteca com escopo de cluster

Em Databricks Runtime 16.0 e acima, a instalação da biblioteca com escopo de cluster tem um tempo limite de default de duas horas. As instalações da biblioteca que demorarem mais do que esse tempo limite falharão e a instalação será encerrada. Ao configurar um clustering, o senhor pode alterar o período de tempo limite usando a configuração Spark spark.databricks.driver.clusterLibraryInstallationTimeoutSec.

A instalação da biblioteca a partir de DBFS e a configuração do spark conf spark.databricks.driver.dbfsLibraryInstallationAllowed estão desativadas

Em Databricks Runtime 16.0 e acima, a instalação da biblioteca a partir de DBFS está totalmente desativada. Essa alteração foi feita para melhorar a segurança da biblioteca em um Databricks workspace. Além disso, em Databricks Runtime 16.0 e acima, o senhor não pode mais usar a configuração Spark spark.databricks.driver.dbfsLibraryInstallationAllowed.

A funcionalidade do addArtifact() agora é consistente em todos os tipos de compute

Com esta versão, o arquivo é descompactado automaticamente quando o senhor usa o endereço addArtifact(archive = True) para adicionar uma dependência ao arquivo compartilhado ou serverless Databricks compute. Essa alteração torna o comportamento do site addArtifact(archive = True) nesses tipos de compute consistente com o site dedicado compute (antigo usuário único compute), que já oferece suporte à descompactação automática de arquivos.

Regra de acentos invertidos aplicada adequadamente para identificadores principais com caracteres especiais

Com essa versão, os identificadores principais com caracteres especiais nas instruções GRANT, DENY e REVOKE agora gerarão um erro se não estiverem entre aspas.

Novos recursos e melhorias

Recarregamento mais confiável de módulos Python modificados com melhorias no autoreload

Em Databricks Runtime 16.0 e acima, as atualizações da extensão autoreload melhoram a segurança e a confiabilidade do recarregamento de módulos Python modificados importados de arquivos workspace. Com essas mudanças, autoreload, quando possível, recarrega somente a parte de um módulo que foi alterada em vez do módulo inteiro. Além disso, o Databricks agora sugere automaticamente o uso da extensão autoreload se o módulo tiver sido alterado desde sua última importação. Consulte Autoreload para módulos Python.

Suporte Avro para esquema recursivo

Agora o senhor pode usar a opção recursiveFieldMaxDepth com a função from_avro e a fonte de dados avro. Essa opção define a profundidade máxima para a recursão do esquema na Avro fonte de dados. Consulte Transmissão de leitura e gravação Avro data.

funções to_avro e from_avro

As funções to_avro e from_avro permitem a conversão de tipos SQL em dados binários Avro e vice-versa.

Suporte ampliado para o Confluent Schema Registry for Avro

O Databricks agora oferece suporte à referência de esquema Avro com o Confluent Schema Registry. Consulte Autenticar em um registro externo do Confluent Schema.

Forçar o reclustering em tabelas com clustering líquido

No Databricks Runtime 16.0 e no acima, é possível usar a sintaxe OPTIMIZE FULL para forçar o reclustering de todos os registros em uma tabela com o clustering líquido ativado. Consulte Force reclustering para todos os registros.

As APIs Delta para Python e Scala agora suportam colunas de identidade

Agora o senhor pode usar as APIs Delta para Python e Scala para criar tabelas com colunas de identidade. Veja as colunas de identidade de uso em Delta Lake.

O controle de acesso refinado em compute dedicado (anteriormente um único usuário compute) está geralmente disponível

Em Databricks Runtime 16.0 e acima, o controle de acesso refinado em compute dedicado está geralmente disponível. No espaço de trabalho habilitado para serverless compute, se uma consulta for executada em compute compatível, como compute dedicado, e a consulta acessar qualquer um dos seguintes objetos, o recurso compute passará a consulta para serverless compute para executar a filtragem de dados:

  • definida sobre tabelas nas quais o usuário não tem o privilégio SELECT.
  • Visualização dinâmica.
  • Tabelas com filtros de linha ou máscaras de coluna aplicados.
  • Visualização materializada e tabelas de transmissão

Criar tabelas com cluster líquido durante gravações de transmissão

Agora o senhor pode usar clusterBy para ativar o clustering líquido ao criar novas tabelas com gravações de transmissão estruturada. Consulte Ativar clustering líquido.

Suporte à cláusula OPTIMIZE FULL

O Databricks Runtime 16.0 é compatível com a cláusula OPTIMIZE FULL. Essa cláusula otimiza todos os registros em uma tabela que usa clustering líquido, inclusive dados que podem ter sido clusterizados anteriormente.

Suporte para especificação de opções WITH em INSERT e referência de tabela

Databricks Runtime A versão 16.0 oferece suporte a uma especificação de opções para referências de tabela e nomes de tabela de uma declaração INSERT que pode ser usada para controlar o comportamento da fonte de dados.

Novas funções SQL

As seguintes funções SQL foram adicionadas ao Databricks Runtime 16.0:

  • try_url_decode

    Essa função é uma versão tolerante a erros de url_decode. Essa função retorna NULL se a entrada não for uma cadeia de caracteres codificada por URL válida.

  • zero se nulo

    Se a expressão de entrada para a função zeroifnull() for NULL, a função retornará 0. Caso contrário, o valor da expressão de entrada será retornado.

  • nulo se zero

    Retorna NULL se a entrada for 0 ou sua entrada se não for 0. Se a expressão de entrada para a função nullifzero() for 0, a função retornará NULL. Se a expressão de entrada não for 0, o valor da expressão de entrada será retornado

Habilitar a evolução automática do esquema ao mesclar dados em uma tabela Delta

Esta versão adiciona suporte para o membro withSchemaEvolution() da classe DeltaMergeBuilder. Use withSchemaEvolution() para ativar a evolução automática do esquema durante MERGE operações. Por exemplo, mergeBuilder.whenMatched(...).withSchemaEvolution().execute()}}.

Outras mudanças

O SparkR agora está obsoleto

Em Databricks Runtime 16.0 e acima, SparkR em Databricks está obsoleto em preparação para sua obsolecência na próxima versão Spark 4. Consulte o thread Apache Spark Deprecate SparkR.

Databricks recomenda o uso de Sparklyr em vez disso.

O Databricks Runtime 16.0 não é compatível com o PVC

O Databricks Runtime 16.0 não é compatível com o Databricks Private Virtual Cloud (PVC). O senhor deve usar o site Databricks Runtime 15.4 ou abaixo com todas as versões do PVC.

Correções de bugs

O Auto Loader agora recupera os tipos de registro Avro com esquemas vazios

Ao carregar um arquivo Avro em uma tabela Delta usando o Auto Loader, os tipos record no arquivo que têm um esquema vazio agora são adicionados à coluna de dados resgatada. Como o senhor não pode ingerir tipos de dados complexos vazios em uma tabela Delta, isso resolve um problema com o carregamento de alguns arquivos Avro. Para saber mais sobre dados resgatados, consulte O que é a coluna de dados resgatados? .

Correção de erro ao gravar carimbos de data/hora com fusos horários contendo um segundo deslocamento.

Esta versão corrige um bug que afeta alguns registros de data e hora com fusos horários contendo um segundo deslocamento. Esse bug faz com que os segundos sejam omitidos ao gravar em JSON, XML ou CSV, levando a valores incorretos de registro de data e hora.

Para retornar ao comportamento anterior, use a opção a seguir ao gravar em um dos formatos afetados: .option("yyyy-MM-dd'T'HH:mm:ss[.SSS][XXX]").

Atualizações da biblioteca

  • Atualizado Python biblioteca:

    • azure-core de 1.30.2 para 1.31.0
    • azure-storage-blob de 12.19.1 para 12.23.0
    • azure-storage-file-datalake de 12.14.0 para 12.17.0
    • preto de 23.3.0 a 24.4.2
    • pisca-pisca de 1.4 a 1.7.0
    • boto3 de 1.34.39 a 1.34.69
    • botocore de 1.34.39 a 1.34.69
    • certificado de 2023.7.22 a 2024.6.2
    • cffi de 1.15.1 a 1.16.0
    • clique de 8.0.4 a 8.1.7
    • comunicação de 0.1.2 para 0.2.1
    • contorno de 1.0.5 a 1.2.0
    • criptografia de 41.0.3 a 42.0.5
    • Cython de 0.29.32 a 3.0.11
    • databricks-sdk de 0.20.0 a 0.30.0
    • dbus-Python de 1.2.18 para 1.3.2
    • filelock de 3.13.4 a 3.15.4
    • fonttools de 4.25.0 a 4.51.0
    • GitPython a partir de 3.1.43 até 3.1.37
    • google-api-core de 2.18.0 a 2.20.0
    • google-auth de 2.31.0 a 2.35.0
    • Google Cloud Storage da versão 2.17.0 para a 2.18.2
    • google-crc32c de 1.5.0 a 1.6.0
    • google-resumable-media de 2.7.1 a 2.7.2
    • googleapis-common-protos de 1.63.2 a 1.65.0
    • httplib2 de 0.20.2 a 0.20.4
    • idna de 3,4 a 3,7
    • ipykernel de 6.25.1 a 6.28.0
    • ipython de 8.15.0 a 8.25.0
    • jedi de 0.18.1 a 0.19.1
    • jmespath de 0.10.0 a 1.0.1
    • joblib de 1.2.0 a 1.4.2
    • jupyter_client de 7.4.9 a 8.6.0
    • jupyter_core de 5.3.0 a 5.7.2
    • launchpadlib de 1.10.16 a 1.11.0
    • lazr.restfulclient de 0.14.4 a 0.14.6
    • matplotlib de 3.7.2 a 3.8.4
    • mlflow-skinny de 2.11.4 a 2.15.1
    • more-itertools de 8.10.0 a 10.3.0
    • mypy-extensions de 0.4.3 a 1.0.0
    • nest-asyncio de 1.5.6 a 1.6.0
    • numpy de 1.23,5 a 1.26.4
    • oauthlib de 3.2.0 a 3.2.2
    • embalagem de 23,2 a 24,1
    • bode expiatório de 0.5.3 a 0.5.6
    • pip de 23.2.1 a 24.2
    • plotly de 5.9.0 a 5.22.0
    • prompt-toolkit de 3.0.36 a 3.0.43
    • pyarrow de 14.0.1 a 15.0.2
    • pydantic de 1.10.6 a 2.8.2
    • PyGObject de 3.42.1 a 3.48.2
    • PyJWT de 2.3.0 a 2.7.0
    • pyodbc de 4.0.38 para 5.0.1
    • Python-dateutil de 2.8.2 para 2.9.0.post0
    • Python-lsp-jsonrpc de 1.1.1 para 1.1.2
    • pytz de 2022.7 a 2024.1
    • PyYAML de 6.0 a 6.0.1
    • pyzmq de 23.2.0 a 25.1.2
    • solicitações de 2.31.0 a 2.32.2
    • scikit-learn de 1.3.0 para 1.4.2
    • scipy de 1.11.1 a 1.13.1
    • marítimo de 0.12.2 a 0.13.2
    • ferramentas de configuração de 68.0.0 a 74.0.0
    • smmap de 5.0.1 a 5.0.0
    • sqlparse de 0.5.0 a 0.5.1
    • modelos de estatísticas de 0.14.0 a 0.14.2
    • tornado de 6.3.2 para 6.4.1
    • tortas de 5.7.1 a 5.14.3
    • typing_extensions de 4.10.0 a 4.11.0
    • ujson de 5.4.0 a 5.10.0
    • virtualenv de 20.24.2 a 20.26.2
    • roda de 0,38,4 a 0,43,0
    • zipp de 3.11.0 para 3.17.0
  • Biblioteca R atualizada:

    • seta de 14.0.0.2 a 16.1.0
    • backports de 1.4.1 a 1.5.0
    • base de 4.3.2 a 4.4.0
    • bitops de 1,0-7 a 1,0-8
    • inicialize de 1,3-28 a 1,3-30
    • brio a partir de 1.1.4 para 1.1.5
    • vassoura de 1.0.5 a 1.0.6
    • bslib de 0.6.1 a 0.8.0
    • cachem de 1.0.8 a 1.1.0
    • callr de 3.7.3 a 3.7.6
    • CLI De 3.6.2 para 3.6.3
    • relógio de 0.7.0 a 0.7.1
    • agrupamento de 2.1.4 para 2.1.6
    • ferramentas de código de 0,2-19 a 0,2-20
    • espaço de cores de 2,1-0 a 2,1-1
    • compilador de 4.3.2 a 4.4.0
    • giz de cera de 1.5.2 a 1.5.3
    • curl de 5.2.0 a 5.2.1
    • data.table de 1.15.0 a 1.15.4
    • conjunto de dados da versão 4.3.2 para a 4.4.0
    • DBI de 1.2.1 a 1.2.3
    • dbplyr de 2.4.0 a 2.5.0
    • resumo de 0.6.34 a 0.6.36
    • downlit de 0.4.3 para 0.4.4
    • avaliar de 0,23 a 0,24,0
    • farver de 2.1.1 a 2.1.2
    • fastmap de 1.1.1 a 1.2.0
    • estrangeiro de 0,8-85 a 0,8-86
    • fs de 1.6.3 a 1.6.4
    • futuro de 1.33.1 a 1.34.0
    • future.apply de 1.11.1 a 1.11.2
    • vá de 2.0.1 para 2.1.0
    • ggplot2 de 3.4.4 a 3.5.1
    • gh de 1.4.0 a 1.4.1
    • globais de 0.16.2 a 0.16.3
    • gráficos de 4.3.2 a 4.4.0
    • GRDevices de 4.3.2 a 4.4.0
    • grade de 4.3.2 a 4.4.0
    • gt de 0.10.1 a 0.11.0
    • tabela de 0.3.4 a 0.3.5
    • hardhat de 1.3.1 a 1.4.0
    • maior de 0,10 a 0,11
    • htmltools de 0.5.7 a 0.5.8.1
    • httpuv de 1.6.14 a 1.6.15
    • httr2 de 1.0.0 a 1.0.2
    • ipred de 0,9-14 a 0,9-15
    • KernSmooth de 2.23-21 a 2.23-22
    • knitr de 1,45 a 1,48
    • rede de 0,21-8 a 0,22-5
    • lava de 1.7.3 a 1.8.0
    • markdown de 1,12 a 1,13
    • MASS de 7,3-60 a 7,3-60,0.1
    • Matriz de 1,5-4,1 a 1,6-5
    • métodos de 4.3.2 a 4.4.0
    • mgcv de 1,8-42 a 1,9-1
    • mlflow de 2.10.0 a 2.14.1
    • munsell de 0.5.0 a 0.5.1
    • nome de 3,1-163 a 3,1-165
    • openssl de 2.1.1 a 2.2.0
    • paralelo de 4.3.2 a 4.4.0
    • paralelamente de 1.36.0 a 1.38.0
    • pkgbuild de 1.4.3 a 1.4.4
    • pkgdown de 2.0.7 a 2.1.0
    • pkgload de 1.3.4 a 1.4.0
    • processos de 3.8.3 a 3.8.4
    • prodlim de 2023.08.28 a 2024.06.25
    • promessas de 1.2.1 a 1.3.0
    • ps de 1.7.6 a 1.7.7
    • ragg de 1.2.7 a 1.3.2
    • Rcpp de 1.0.12 a 1.0.13
    • RCPPeigen de 0.3.3.9.4 a 0.3.4.0.0
    • ReactR de 0.5.0 a 0.6.0
    • receitas de 1.0.9 a 1.1.0
    • remotos de 2.4.2.1 a 2.5.0
    • reprex de 2.1.0 para 2.1.1
    • rlang a partir de 1.1.3 para 1.1.4
    • rmarkdown de 2.25 para 2.27
    • roxygen2 de 7.3.1 a 7.3.2
    • a partir de 4.1.21 até 4.1.23
    • RSQLite de 2.3.5 a 2.3.7
    • rstudioapi de 0.15.0 a 0.16.0
    • rvest de 1.0.3 a 1.0.4
    • sass de 0.4.8 a 0.4.9
    • forma de 1.4.6 a 1.4.6.1
    • brilhante de 1.8.0 a 1.9.1
    • Sparklyr da versão 1.8.4 para a 1.8.6
    • espacial de 7,3-15 a 7,3-17
    • splines de 4.3.2 a 4.4.0
    • estatísticas de 4.3.2 a 4.4.0
    • stats4 de 4.3.2 a 4.4.0
    • stringi de 1.8.3 a 1.8.4
    • sobrevivência de 3,5-5 a 3,6-4
    • swagger de 3.33.1 a 5.17.14.1
    • systemfonts de 1.0.5 a 1.1.0
    • tcltk de 4.3.2 a 4.4.0
    • testthat de 3.2.1 a 3.2.1.1
    • modelagem de texto de 0.3.7 a 0.4.0
    • tidyselect de 1.2.0 a 1.2.1
    • tinytex de 0,49 a 0,52
    • ferramentas de 4.3.2 a 4.4.0
    • use isso de 2.2.2 a 3.0.0
    • utilitários de 4.3.2 a 4.4.0
    • uuid de 1,2-0 a 1,2-1
    • V8 de 4.4.1 a 4.4.2
    • com de 3.0.0 a 3.0.1
    • xfun de 0,41 a 0,46
    • xopen de 1.0.0 a 1.0.1
    • yaml de 2.3.8 a 2.3.10
  • Atualizado Java biblioteca:

    • com.amazonaws.aws-java-sdk-autoscale de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-cloudformation de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-cloudfront de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-cloudhsm de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-cloudsearch de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-cloudtrail de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-cloudwatch de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-cloudwatchmetrics de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-codedeploy de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-cognitoidentity de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-cognitosync de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-config de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-core de 1.12.610 a 1.12.638
    • pipeline de dados com.amazonaws.aws-java-sdk- de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-directconnect de 1.12.610 a 1.12.638
    • diretório com.amazonaws.aws-java-sdk de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-dynamodb de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-ec2 de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-ecs de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-efs de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-elasticache de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-elasticbeanstalk de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-elasticloadbalancing de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-elastictranscoder de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-emr de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-glacier de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-glue de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-iam de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-importexport de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-kinesis de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-kms de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-lambda de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-logs de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-machinelearning de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-opsworks de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-rds de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-redshift de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-route53 de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-s3 de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-ses de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-simpledb de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-fluxo de trabalho simples de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-sns de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-sqs de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-ssm de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-storage gateway de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-sts de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-support de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-workspace de 1.12.610 a 1.12.638
    • com.amazonaws.jmespath-java de 1.12.610 a 1.12.638
    • com.google.protobuf.protobuf-java de 2.6.1 a 3.25.1
    • io.airlift.compressor de ar de 0,25 a 0,27
    • io.delta.delta-compartilhamento-client_2.12 de 1.1.3 para 1.2.0
    • io.netty.netty-all de 4.1.96.Final a 4.1.108.Final
    • io.netty.netty-buffer de 4.1.96.Final a 4.1.108.Final
    • codec io.netty.netty de 4.1.96.Final a 4.1.108.Final
    • io.netty.netty-codec-http de 4.1.96.Final a 4.1.108.Final
    • io.netty.netty-codec-http2 de 4.1.96.Final a 4.1.108.Final
    • io.netty.netty-codec-socks de 4.1.96.Final a 4.1.108.Final
    • io.netty.netty-common de 4.1.96.Final a 4.1.108.Final
    • io.netty.netty-handler de 4.1.96.Final a 4.1.108.Final
    • io.netty.netty-handler-proxy de 4.1.96.Final a 4.1.108.Final
    • io.netty.netty-resolver de 4.1.96.Final a 4.1.108.Final
    • io.netty.netty-transport de 4.1.96.Final a 4.1.108.Final
    • io.netty.netty-transport-classes-epoll de 4.1.96.Final a 4.1.108.Final
    • io.netty.netty-transport-classes-kqueue de 4.1.96.Final a 4.1.108.Final
    • io.netty.netty-transport-native-epoll de 4.1.96.final-linux-x86_64 a 4.1.108.final-linux-x86_64
    • io.netty.netty-transport-native-kqueue de 4.1.96.final-OSX-x86_64 a 4.1.108.final-OSX-x86_64
    • io.netty.netty-transport-native-unix-common de 4.1.96.Final a 4.1.108.Final
    • org.apache.ivy.ivy de 2.5.1 a 2.5.2
    • org.apache.zookeeper.zookeeper de 3.6.3 a 3.9.2
    • org.apache.zookeeper.zookeeper-juta de 3.6.3 a 3.9.2
    • org.rocksdb.rocksdbjni de 8.11.4 a 9.2.1
    • org.scalactic.scalactic_2.12 de 3.2.15 a 3.2.16
    • compatível com org.scalatest.scalatest de 3.2.15 a 3.2.16
    • org.scalatest.scalatest-core_2.12 de 3.2.15 a 3.2.16
    • org.scalatest.scalatest-diagrams_2.12 de 3.2.15 a 3.2.16
    • org.scalatest.scalatest-featurespec_2.12 de 3.2.15 a 3.2.16
    • org.scalatest.scalatest-flatspec_2.12 de 3.2.15 a 3.2.16
    • org.scalatest.scalatest-freespec_2.12 de 3.2.15 a 3.2.16
    • org.scalatest.scalatest-funspec_2.12 de 3.2.15 a 3.2.16
    • org.scalatest.scalatest-funsuite_2.12 de 3.2.15 a 3.2.16
    • org.scalatest.scalatest-matchers-core_2.12 de 3.2.15 a 3.2.16
    • org.scalatest.scalatest-mustmatchers_2.12 de 3.2.15 a 3.2.16
    • org.scalatest.scalatest-propspec_2.12 de 3.2.15 a 3.2.16
    • org.scalatest.scalatest-refspec_2.12 de 3.2.15 a 3.2.16
    • org.scalatest.scalatest-shouldmatchers_2.12 de 3.2.15 a 3.2.16
    • org.scalatest.scalatest-wordspec_2.12 de 3.2.15 a 3.2.16
    • org.scalatest.scalatest_2.12 de 3.2.15 a 3.2.16

Apache Spark

O Databricks Runtime 16.0 inclui o Apache Spark 3.5.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 15.4 LTS, bem como as seguintes correções de bugs e melhorias adicionais feitas no Spark:

  • [SPARK-49093] [DBRRM-1371] Reverta “[SC-172958] [sql] AGRUPE BY com mapType nes...
  • [SPARK-49898] [DBRRM-1282][sc-178410] Corrigir a documentação e default para o evento log tarefa métricas accumulator logging flag do SPARK-42204
  • [SPARK-49743] [ES-1260022] [behave-157] [SC-177475] [sql] OptimizeCsvJsonExpr não deve alterar os campos do esquema ao remover getArrayStructFields
  • [SPARK-49816] [SC-177896] [sql] Só deve atualizar o out-going-ref-count para a relação CTE externa referenciada
  • [SPARK-48939] [SC-177022][sc-172766][AVRO] Suporte à leitura do Avro com referência de esquema recursivo
  • [SPARK-49688] [SC-177468] [es-1242349] [CONNECT] Corrige uma corrida de dados entre interromper e executar o plano
  • [SPARK-49771] [SC-177466][Python] Melhorar Pandas Scalar Iter UDF erro quando as linhas de saída excedem as linhas de entrada
  • [SPARK-48866] [SC-170772] [sql] Corrige dicas de um conjunto de caracteres válido na mensagem de erro de INVALID_PARAMETER_VALUE.CHARSET
  • [SPARK-48195] [FIXFORWARD][sc-177267][CORE] Salvar e reutilizar RDD/Broadcast criado pelo SparkPlan
  • [SPARK-49585] [CONNECT] Substitua o mapa de execuções em SessionHolder pelo conjunto operationID
  • [SPARK-49211] [SC-174257][sql] O V2 Catalog também pode suportar fontes de dados integradas
  • [SPARK-49684] Minimize a vida útil do bloqueio de restauração da sessão
  • [SPARK-48059] [SPARK-48145][spark-48134][SPARK-48182][spark-48209][SPARK-48291] Estrutura de log estruturada no lado java
  • [SPARK-48857] [SC-170661] [sql] Restringir conjuntos de caracteres em opções CSV
  • [SPARK-49152] [SC-173690] [sql] O V2SessionCatalog deve usar o comando V2
  • [SPARK-42846] [SC-176588] [sql] Remover condição de erro _LEGACY_ERROR_TEMP_2011
  • [SPARK-48195] [SC-177267][core] Salvar e reutilizar RDD/Broadcast criado pelo SparkPlan
  • [SPARK-49630] [SC-177379][ss] Adicionar opção de achatamento para processar tipos de coleção com o leitor de fontes de dados de estado
  • [SPARK-49699] [SC-177154][ss] Desabilitar PruneFilters para cargas de trabalho de transmissão
  • [SPARK-48781] [SC-175282][sql] Adicionar APIs de catálogo para carregar procedimentos armazenados
  • [SPARK-49667] [SC-177068] [sql] Proibir intercaladores CS_AI com expressões que usam StringSearch
  • [SPARK-49737] [SC-177207] [sql] Desative o agrupamento em intervalos em colunas agrupadas em tipos complexos
  • [SPARK-48712] [SC-169794] [sql] Melhoria de desempenho para codificação com valores vazios ou conjunto de caracteres UTF-8
  • [SPARK-49038] [SC-173933] [sql] O SQLMetric deve relatar o valor bruto no evento de atualização do acumulador
  • [SPARK-48541] [SC-169066][core] Adicionar um novo código de saída para o executor morto pelo TaskReaper
  • [SPARK-48774] [SC-170138][sql] Use SparkSession em SQLImplicits
  • [SPARK-49719] [SC-177139] [sql] Faça com que UUID e SHUFFLE aceitem números inteiros seed
  • [SPARK-49713] [SC-177135][Python][CONNECT] Fazer com que a função count_min_sketch aceite argumentos numéricos
  • [SPARK-47601] [SC-162499][graphx] Graphx: Migrar logs com variáveis para a estrutura de logs estruturados
  • [SPARK-49738] [SC-177219] [sql] Termina com correção de bug
  • [SPARK-48623] [SC-170822] [core] Migrações estruturadas de registro [Parte 3]
  • [SPARK-49677] [SC-177148][ss] Certifique-se de que os arquivos changelog sejam gravados em commit e que o sinalizador forceSnapshot também seja redefinido
  • [SPARK-49684] [SC-177040] [conectar] Remova bloqueios globais dos gerenciadores de sessão e execução
  • [SPARK-48302] [SC-168814][Python] Preservar nulos em colunas de mapas em tabelas PyArrow
  • [SPARK-48601] [SC-169025][sql] Fornecer uma mensagem de erro mais amigável ao definir um valor nulo para a opção JDBC
  • [SPARK-48635] [SC-169263][sql] Atribuir classes a join erros de tipo e erro as-of join
  • [SPARK-49673] [SC-177032] [conectar] Aumente CONNECT_GRPC_ARROW_MAX_BATCH_SIZE para 0,7 * CONNECT_GRPC_MAX_MESSAGE_SIZE
  • [SPARK-49693] [SC-177071][Python][CONNECT] Refine a representação de strings do timedelta
  • [SPARK-49687] [SC-176901] [sql] Atrasar a classificação em validateAndMaybeEvolveStateSchema
  • [SPARK-49718] [SC-177112][ps] Mudar Scatter graficar para dados amostrados
  • [SPARK-48472] [SC-169044][sql] Habilitar expressões de reflexão com strings agrupadas
  • [SPARK-48484] [SC-167484][sql] Correção: V2Write usa o mesmo TaskAttemptId para diferentes tentativas de tarefa
  • [SPARK-48341] [SC-166560] [conectar] Permitir que plug-ins usem o QueryTest em seus testes
  • [SPARK-42252] [SC-168723] [core] Adicione spark.shuffle.localDisk.file.output.buffer e descontinue-o spark.shuffle.unsafe.file.output.buffer
  • [SPARK-48314] [SC-166565] [ss] Não duplique os arquivos de cache do FileStreamSource usando Trigger.availableNow
  • [SPARK-49567] [SC-176241][Python] Usar classic em vez de vanilla a partir da base de código PySpark
  • [SPARK-48374] [SC-167596][Python] Suporte a tipos de colunas adicionais da tabela PyArrow
  • [SPARK-48300] [SC-166481] [sql] Suporte do Codegen para from_xml
  • [SPARK-49412] [SC-177059][ps] computa todas as métricas de graficar caixa em um único trabalho
  • [SPARK-49692] [SC-177031][Python][CONNECT] Refine a representação de strings de data literal e datetime
  • [SPARK-49392] [ES-1130351][sc-176705][SQL] Erros de captura ao não conseguir gravar em uma fonte de dados externa
  • [SPARK-48306] [SC-166241] [sql] Melhore o UDT na mensagem de erro
  • [SPARK-44924] [SC-166379] [ss] Adicionar configuração para arquivos em cache do FileStreamSource
  • [SPARK-48176] [SC-165644] [sql] Ajuste o nome da condição de erro FIELD_ALREADY_EXISTS
  • [SPARK-49691] [SC-176988][Python][CONNECT] A função substring deve aceitar nomes de colunas
  • [SPARK-49502] [SC-176077] [core] Evite NPE em sparkenv.get.shufflemanager.unregistershuffle
  • [SPARK-49244] [SC-176703] [sql] Outras melhorias de exceção para analisador/interpretador
  • [SPARK-48355] [SC-176684] [sql] Suporte para declaração CASE
  • [SPARK-49355] [SC-175121] [sql] levenshtein deve verificar se os valores collation de todos os tipos de parâmetros são os mesmos
  • [SPARK-49640] [SC-176953] [ps] Aplique amostragem de reservatório em SampledPlotBase
  • [SPARK-49678] [SC-176857] [core] Suporte spark.test.master em SparkSubmitArguments
  • [SPARK-49680] [SC-176856][Python] Limitar o paralelismo de construção do Sphinx a 4 por default
  • [SPARK-49396] Reverter “[SC-176030] [sql] Modificar verificação de nulidade para a expressão CaseWhen”
  • [SPARK-48419] [SC-167443] [sql] A propagação dobrável substitui a coluna dobrável deve...
  • [SPARK-49556] [SC-176757][sql] Adicionar sintaxe de pipe SQL para o operador SELECT
  • [SPARK-49438] [SC-175237] [sql] Corrija o nome bonito da expressão FromAvro & ToAvro
  • [SPARK-49659] [SC-1229924] [sql] Adicione um bom erro voltado ao usuário para subconsultas escalares dentro da cláusula VALUES
  • [SPARK-49646] [SC-176778][sql] corrige a decorrelação de subconsultas para operações union/set quando parentOuterReferences tem referências não cobertas em collectedChildOuterReferences
  • [SPARK-49354] [SC-175034] [sql] split_part deve verificar se os valores collation de todos os tipos de parâmetros são os mesmos
  • [SPARK-49478] [SC-175914][connect] Manipular métricas nulas no ConnectProgressExecutionListener
  • [SPARK-48358] [SC-176374] [sql] Suporte para instrução REPEAT
  • [SPARK-49183] [SC-173680] [sql] v2SessionCatalog.createTable deve respeitar PROP_IS_MANAGED_LOCATION
  • [SPARK-49611] [SC-176791][sql] Introduzir TVF collations() & remover o comando SHOW COLLATIONS
  • [SPARK-49261] [SC-176589] [sql] Não substitua literais em expressões agregadas por expressões agrupadas
  • [SPARK-49099] [SC-173229] [sql] CatalogManager.setCurrentNamespace deve respeitar o catálogo de sessões personalizado
  • [SPARK-49594] [SC-176569] [ss] Adicionando uma verificação sobre se ColumnFamilies foram adicionadas ou removidas para gravar o arquivo StateSchemaV3
  • [SPARK-49578] [SC-176385] [sql] Remova a sugestão de configuração ANSI em CAST_INVALID_INPUT e CAST_OVERFLOW
  • [SPARK-48882] [SC-174256][ss] Atribuir nomes às classes de erro relacionadas ao modo de saída de transmissão
  • [SPARK-49155] [SC-176506] [sql] [SS] Use um tipo de parâmetro mais apropriado para construir GenericArrayData
  • [SPARK-49519] [SC-176388][sql] mesclar opções de tabela e relação ao construir o FileScanBuilder
  • [SPARK-49591] [SC-176587] [sql] Adicionar coluna de tipo lógico ao readme da variante
  • [SPARK-49596] [SC-176423][sql] Melhorar o desempenho do FormatString
  • [SPARK-49525] [SC-176044][ss][CONNECT] Pequenos aprimoramentos no site log para a transmissão de consultas do lado do servidor ListenerBus Listener
  • [SPARK-49583] [SC-176272] [sql] Defina a subcondição de erro SECONDS_FRACTION para padrão de fração de segundos inválido
  • [SPARK-49536] [SC-176242] Erro de manuseio em Python transmissão fonte de dados record prefetching
  • [SPARK-49443] [SC-176273][sql][Python] Implementar a expressão to_variant_object e fazer com que as expressões schema_of_variant imprimam OBJECT para objetos variantes
  • [SPARK-49544] [SASP-3990] [sc-176557] [CONNECT] Substitua o bloqueio grosseiro no SparkConnectExecutionManager pelo ConcurrentMap
  • [SPARK-49548] [SASP-3990] [sc-176556] [CONNECT] Substitua o bloqueio grosseiro no SparkConnectSessionManager pelo ConcurrentMap
  • [SPARK-49551] [SC-176218][ss] Melhorar RocksDB log para replayChangelog
  • [SPARK-49595] [SC-176396][connect][SQL] Corrigir DataFrame.unpivot/melt no cliente Spark Connect Scala
  • [SPARK-49006] [SC-176162] Implementar a limpeza dos arquivos OperatorStateMetadatav2 e StateSchemaV3
  • [SPARK-49600] [SC-176426][Python] Remover a lógica relacionada a Python 3.6 and olderdo try_simplify_traceback
  • [SPARK-49303] [SC-176013][ss] Implementar TTL para ValueState na API transformWithStateInPandas
  • [SPARK-49191] [SC-176243][ss] Adicionar suporte para leitura de variáveis de estado do mapa transformWithState com leitor de fonte de dados de estado
  • [SPARK-49593] [SC-176371][ss] Lança uma exceção do RocksDB para o chamador no fechamento do banco de dados se for observado um erro
  • [SPARK-49334] [SC-174803] [sql] str_to_map deve verificar se os valores collation de todos os tipos de parâmetros são os mesmos
  • [SPARK-42204] [SC-176126][core] Adicionar opção para desativar o registro redundante dos acumuladores internos do TaskMetrics no evento logs
  • [SPARK-49575] [SC-176256] [ss] Adicione registro para liberação do bloqueio somente se AcquiredThreadInfo não for nulo
  • [SPARK-49539] [SC-176250][ss] Atualizar o identificador interno de col families começar para um identificador diferente
  • [SPARK-49205] [SC-173853] [sql] KeyGroupedPartitioning deve herdar HashPartitioningLike
  • [SPARK-49396] [SC-176030] [sql] Modificar verificação de nulidade para a expressão CaseWhen
  • [SPARK-49476] [SC-175700] [sql] Corrige a nulidade da função base64
  • [SPARK-47262] [SC-174829] [sql] Atribuir nomes às condições de erro para conversões em Parquet
  • [SPARK-47247] [SC-158349][sql] Use um tamanho de destino menor ao combinar partições com junção explosiva
  • [SPARK-49501] [SC-176166] [sql] Corrige o escape duplo da localização da tabela
  • [SPARK-49083] [SC-173214][connect] Permitir que from_xml e from_json trabalhem nativamente com os esquemas JSON
  • [SPARK-49043] [SC-174673][sql] Corrigir o agrupamento do caminho de código interpretado por no mapa que contém strings agrupadas
  • [SPARK-48986] [SC-172265][connect][SQL] Adicionar representação intermediária de ColumnNode
  • [SPARK-49326] [SC-176016] [ss] Classificar classe de erro para erro de função de usuário do Foreach sink
  • [SPARK-48348] [SC-175950][spark-48376][SQL] Introduzir as declarações LEAVE e ITERATE
  • [SPARK-49523] [SC-175949] [conectar] Aumente o tempo máximo de espera para que o servidor de conexão apareça para teste
  • [SPARK-49000] [BEHAVE-105][es-1194747][SQL] Corrigir "select count(distinct 1) from t" where t is empty table by expanding RewriteDistinctAggregates - DBR versão 16.x
  • [SPARK-49311] [SC-175038] [sql] Possibilita que valores grandes de 'intervalo de segundos' sejam convertidos em decimais
  • [SPARK-49200] [SC-173699] [sql] Corrige exceção de ordenação não codegen de tipo nulo
  • [SPARK-49467] [SC-176051][ss] Adicionar suporte para o estado do leitor de fonte de dados e estado da lista
  • [SPARK-47307] [SC-170891][sql] Adicionar uma configuração para, opcionalmente, fragmentar strings base64
  • [SPARK-49391] [SC-176032][ps] Box graficar selecionar outliers por distância das cercas
  • [SPARK-49445] [SC-175845] [ui] Suporte mostra dica de ferramenta na barra de progresso da interface
  • [SPARK-49451] [SC-175702] Permitir chave duplicada em parse_json.
  • [SPARK-49275] [SC-175701] [sql] Corrige a nulidade do tipo de retorno da expressão xpath
  • [SPARK-49021] [SC-175578][ss] Adicionar suporte para leitura de variáveis de estado de valor transformWithState com leitor de fonte de dados de estado
  • [SPARK-49474] [BEHAVE-143] [sc-169253] [SC-175933] [ss] Classificar classe de erro para erro de função de usuário FlatmapGroupsWithState
  • [SPARK-49408] [SC-175932] [sql] Use IndexedSeq na projeção de linha interna
  • [SPARK-49509] [SC-175853] [core] Use Platform.allocateDirectBuffer em vez de ByteBuffer.allocateDirect
  • [SPARK-49382] [SC-175013][ps] Fazer com que o graficar da caixa de quadros renderize adequadamente os fliers/outliers
  • [SPARK-49002] [SC-172846] [sql] Manipule consistentemente locais inválidos em WAREHOUSE/SCHEMA/TABLE/PARTITION/DIRECTORY
  • [SPARK-49480] [SC-175699] [core] Corrigir NullPointerException de SparkThrowableHelper.isInternalError
  • [SPARK-49477] [SC-175828][Python] Melhorar Pandas udf mensagem de erro de tipo de retorno inválido
  • [SPARK-48693] [SC-169492] [sql] Simplifique e unifique ToString of Invoke e StaticInvoke
  • [SPARK-49441] [SC-175716][ml] StringIndexer classificar matrizes no executor
  • [SPARK-49347] [SC-175004][r] Depreciar o SparkR
  • [SPARK-49357] [SC-175227][connect][Python] Truncar verticalmente a mensagem protobuf profundamente aninhada
  • [SPARK-41982] [SC-120604][sql] As partições do tipo strings não devem ser tratadas como tipos numéricos
  • [SPARK-48776] [SC-170452][behave-72] Corrigir a formatação do registro de data e hora para JSON, xml e csv
  • [SPARK-49223] [SC-174800] [ml] Simplifique o StringIndexer.countByValue com funções integradas
  • [SPARK-49016] Reverter "[SC-174663][sql] Restaurar o comportamento de que as consultas a partir de arquivos CSV brutos não são permitidas quando apenas incluem a coluna de registro corrompido e atribuem o nome a _LEGACY_ERROR_TEMP_1285"
  • [SPARK-49041] [SC-172392][Python][CONNECT] Raise proper error for dropDuplicates when wrong subset is given
  • [SPARK-49050] [SC-175235] Habilitando o operador DeleteIfExists no TWS com famílias de colunas virtuais
  • [SPARK-49216] [SC-173919][core]Correção para não log contexto de mensagem com LogEntry explicitamente construído quando a configuração Structured Logging está desativada
  • [SPARK-49252] [SC-175596] [core] TorneTaskSetExcludeList e HeathTracker independentes
  • [SPARK-49352] [SC-174971] [sql] Evite a transformação redundante de matriz para expressão idêntica
  • [SPARK-42307] [SC-173863] [sql] Atribuir nome ao erro _LEGACY_ERROR_TEMP_2232
  • [SPARK-49197] [SC-173732] [core] Redija a saída Spark Command no módulo launcher
  • [SPARK-48913] [SC-173934] [sql] Implemente indentingXmlStreamWriter
  • [SPARK-49306] [SC-175363][Python][SQL] Criar aliases da função SQL para 'zeroifnull' e 'nullifzero'
  • [SPARK-48344] [SQL] Execução de scripts SQL (incluindo Spark Connect)
  • [SPARK-49402] [SC-175122][Python] Corrigir a integração do Binder na documentação do PySpark
  • [SPARK-49017] [SC-174664] [sql] A instrução de inserção falha quando vários parâmetros estão sendo usados
  • [SPARK-49318] [SC-174733][sql] Prevenir erro de baixa prioridade no LCA até o final da análise de verificação para melhorar a experiência de erro
  • [SPARK-49016] [SC-174663][sql] Restaura o comportamento de que as consultas a partir de arquivos CSV brutos não são permitidas quando apenas incluem a coluna de registro corrompido e atribuem o nome a _LEGACY_ERROR_TEMP_1285
  • [SPARK-49387] [SC-175124][Python] Corrigir a dica de tipo para accuracy em percentile_approx e approx_percentile
  • [SPARK-49131] [SC-174666] [ss] TransformWithState deve definir corretamente a chave de agrupamento implícita, mesmo com iteradores preguiçosos
  • [SPARK-49301] [SC-174795][ss] Dados de seta de pedaço passados para Python worker
  • [SPARK-49039] [SC-174651][ui] Reset caixa de seleção quando executor métricas são carregadas nas etapas tab
  • [SPARK-48428] [SC-169806] [sql] : Corrija IllegalStateException em NestedColumnAliasing
  • [SPARK-49353] [SC-174830] [sql] Atualize documentos relacionados à codificação/decodificação UTF-32
  • [SPJ : Suporte a embaralhamento automático de um lado + menos join chave do que a chave de partição
  • [SPARK-47473] [SC-160450][behave-127][SQL] Corrige o problema de correção na conversão de carimbos de data/hora INFINITY do postgres
  • [SPARK-49142] [SC-173658][connect][Python] Acompanhamento para reverter o custo de desempenho de proto para strings
  • [SPARK-49300] [SC-175008][core] Corrigir vazamento de tokens de delegação do Hadoop quando tokenRenewalInterval não estiver definido.
  • [SPARK-49367] [SC-175012] [ps] Paralelize a computação do KDE para várias colunas (backend de plotly)
  • [SPARK-49365] [SC-175011][ps] Simplificar a agregação de baldes no histórico gráfico
  • [SPARK-49372] [SC-175003] [ss] Certifique-se de que o LatestSnapshot esteja definido como nenhum no fechamento para evitar o uso posterior
  • [SPARK-49341] [SC-174785] Remova connector/docker em favor de Apache Spark Operator
  • [SPARK-49344] [SC-174894][ps] Suporte json_normalize para a API do Pandas no Spark
  • [SPARK-49306] [SC-174794][sql] Criar novas funções SQL 'zeroifnull' e 'nullifzero'
  • [SPARK-48796] [SC-174668] [ss] Carregue o ID da família de colunas do RocksDBCheckpointMetadata para VCF ao reiniciar
  • [SPARK-49342] [SC-174899][sql] Tornar opcional o argumento 'jsonFormatSchema' da função SQL TO_AVRO
  • [SPARK-48628] [SC-174695][core] Adicionar métricas de memória de heap de pico de tarefa on/off
  • [SPARK-47407] [SC-159379][behave-126][SQL] Suporte ao mapa java.sql.Types.NULL para NullType
  • [SPARK-48628] [SC-173407][core] Adicionar métricas de memória heap de pico de tarefa on/off
  • [SPARK-49166] [SC-173987] [sql] Suporte OFFSET em subconsulta correlacionada
  • [SPARK-49269] [SC-174676] [sql] Avalie ansiosamente a lista VALUES () no ASTBuilder
  • [SPARK-49281] [SC-174782][sql] Otimizar Parquet binary getBytes com getBytesUnsafe para evitar o custo de cópia
  • [SPARK-49113] [SC-174734] Não faça afirmações sobre erros de tradução - engula silenciosamente a exceção
  • [SPARK-49098] [SC-173253] [sql] Adicionar opções de gravação para INSERT
  • [SPARK-48638] [SC-174694] [follow] [CONNECT] Corrigir documentação para ExecutionInfo
  • [SPARK-49250] [ES-1222826] [sql] Melhorar a mensagem de erro para expressão de janela não resolvida aninhada no CheckAnalysis
  • [SPARK-48755] [SC-174258][ss][Python] transformWithState PySpark implementação básica e suporte a ValueState
  • [SPARK-48966] [SC-174329] [sql] Melhore a mensagem de erro com referência de coluna não resolvida inválida na chamada UDTF
  • [SPARK-46590] [SC-154115] [sql] Falha de correção de coalescência com índices de partição inesperados
  • [SPARK-49235] [SC-174159] [sql] Refatore a regra ResolveInlineTables para que ela não percorra toda a árvore
  • [SPARK-49060] [SC-173107] [conectar] Limpe as regras do Mima para verificações de compatibilidade binária do SQL-Connect
  • [SPARK-48762] [SC-172525][sql] Introduzir a API clusterBy DataFrameWriter para Python
  • [SPARK-49207] [SC-173852] [sql] Corrija o mapeamento de um para muitos casos em SplitPart e StringSplitSQL
  • [SPARK-49204] [SC-173850] [sql] Corrige o tratamento de pares substitutos em StringInStr e StringLocate
  • [SPARK-36680] [SC-170640][sql] Suporta opções de tabela dinâmica para Spark SQL
  • [SPARK-49204] [SC-173849] [sql] Corrige o tratamento de pares substitutos no SubstringIndex
  • [SPARK-49204] [SC-173848] [sql] Corrige o tratamento de pares substitutos no StringTrim
  • [SPARK-48967] [SC-173993] Corrigir o teste SparkConfigOwnershipSuite para OPTIMIZE_INSERT_INTO_VALUES_PARSER
  • [SPARK-49204] [SC-173851] [sql] Corrige o tratamento de pares substitutos no StringReplace
  • [SPARK-48967] [SC-173993][sql][16.x] Melhore o desempenho e o consumo de memória das instruções "INSERT INTO ... VALUES
  • [SPARK-49099] Reverter “[SC-173229] [sql] CatalogManager.setCurrent...
  • [SPARK-48347] [SC-173812] [sql] Suporte para a instrução WHILE
  • [SPARK-49128] [SC-173344][core] Suporte à história personalizada Título da interface do usuário do servidor
  • [SPARK-49146] [SC-173825][ss] Mover erros de asserção relacionados à falta de marca d'água em consultas de transmissão no modo append para a estrutura de erros
  • [SPARK-45787] [SC-172197][sql] Suporte a Catalog.listColumns para colunas clustering
  • [SPARK-49099] [SC-173229] [sql] CatalogManager.setCurrentNamespace deve respeitar o catálogo de sessões personalizado
  • [SPARK-49138] [SC-173483] [sql] Corrige collationTypeCasts de várias expressões
  • [SPARK-49163] [SC-173666][sql] Tentativa de criar uma tabela com base em dados de partição quebrados Parquet Os resultados devem retornar um erro para o usuário
  • [SPARK-49201] [SC-173793][ps][Python][connect] Reimplementar o gráfico hist com Spark SQL
  • [SPARK-49188] [SC-173682][sql] Erro interno em concat_ws chamado em array de arrays de strings
  • [SPARK-49137] [SC-173677][sql] Quando a condição Boolean no if statement é inválida, deve ser lançada uma exceção
  • [SPARK-49193] [SC-173672][sql] Melhorar o desempenho de RowSetUtils.toColumnBasedSet
  • [SPARK-49078] [SC-173078] [sql] Suporte para mostrar sintaxe de colunas na tabela v2
  • [SPARK-49141] [SC-173388] [sql] Marcar variante como tipo de dados incompatível com colmeia
  • [SPARK-49059] [Escolha a dedo] [15.x] [SC-172528] [conectar] Mover SessionHolder.forTesting(...) para o pacote de teste
  • [SPARK-49111] [SC-173661] [sql] Mover withProjectAndFilter para o objeto complementar de DataSourceV2Strategy
  • [SPARK-49185] [SC-173688][ps][Python][connect] Reimplementar o gráfico kde com Spark SQL
  • [SPARK-49178] [SC-173673][sql] Otimizar o desempenho de Row#getSeq para corresponder ao desempenho ao usar Spark 3.5 com Scala 2.12
  • [SPARK-49093] [SC-172958] [sql] GROUP BY com mapType aninhado dentro de um tipo complexo
  • [SPARK-49142] [SC-173469][connect][Python] Lower Spark Conectar o cliente log level to debug
  • [SPARK-48761] [SC-172048][sql] Introduzir a API clusterBy DataFrameWriter para Scala
  • [SPARK-48346] [SC-173083][sql] Suporte para instruções IF ELSE em scripts SQL
  • [SPARK-48338] [SC-173112] [sql] Melhore as exceções lançadas pelo analisador/interpretador
  • [SPARK-48658] [SC-169474] [sql] As funções de codificação/decodificação relatam erros de codificação em vez de mojibake para caracteres não mapeáveis
  • [SPARK-49071] [SC-172954] [sql] Remover a característica ArraySortLike
  • [SPARK-49107] Reverter “Reverter “[SC-173103] [sql] ROUTINE_ALREADY_EXISTS suporta o tipo de rotina””
  • [SPARK-49070] [SC-172907][ss][SQL] TransformWithStateExec.initialState é reescrito incorretamente para produzir um plano de consulta inválido
  • [SPARK-49114] [SC-173217] Sub-categorize cannot load armazenamento do estado errors
  • [SPARK-49107] Reverter “[SC-173103] [sql] ROUTINE_ALREADY_EXISTS suporta o tipo de rotina”
  • [SPARK-49048] [SC-173223][ss] Adicionar suporte para leitura de metadados relevantes do operador em um determinado lote id
  • [SPARK-49094] [SC-173049] [sql] Corrige ignoreCorruptFiles que não funcionava para hive orc impl com mergeSchema desativado
  • [SPARK-49108] [SC-173102][example] Adicionar exemplo da API REST do submit_pi.sh
  • [SPARK-49107] [SC-173103] [sql] ROUTINE_ALREADY_EXISTS suporta o tipo de rotina
  • [SPARK-48997] [SC-172484][ss] Implementar descargas individuais para falhas de thread do pool de threads de manutenção
  • [SPARK-49063] [SC-173094] [sql] Corrigir entre com subconsultas escalares
  • [SPARK-45891] [SC-172305][sql][Python][variant] Adicionar suporte para tipos de intervalo na especificação de variante
  • [SPARK-49074] [BEHAVE-110][sc-172815][SQL] Corrigir variante com df.cache()
  • [SPARK-49003] [SC-172613] [sql] Corrija o hash do caminho do código interpretado para reconhecer o agrupamento
  • [SPARK-48740] [SC-172430] [sql] Detecte o erro de especificação da janela ausente com antecedência
  • [SPARK-48999] [SC-172245] [ss] Divida o Python Streaming DataSource Simple Suite
  • [SPARK-49031] [SC-172602] Implemente a validação para o operador transformWithStateExec usando operatorStateMetadatav2
  • [SPARK-49053] [SC-172494][Python][ML] Fazer com que as funções auxiliares de salvar/carregar modelos aceitem a sessão spark
  • [SPARK-49032] [Porta traseira] [15.x] [SS] Adicione o caminho do esquema na entrada da tabela de metadados, verifique a versão esperada e adicione o teste relacionado aos metadados do operador para o formato de metadados do operador v2
  • [SPARK-49034] [SC-172306][core] Suporte à substituição de sparkProperties no lado do servidor na API de envio REST
  • [SPARK-48931] [SC-171895][ss] Reduzir a lista do Cloud Store API custo para armazenamento do estado tarefa de manutenção
  • [SPARK-48849] [SC-172068] [ss] Crie operatorStateMetadatav2 para o operador transformWithStateExec
  • [SPARK-49013] [SC-172322] Alterar key em collationsMap para os tipos Map e Array em Scala
  • [SPARK-48414] [SC-171884][Python] Corrigir a alteração de ruptura em Python's fromJson
  • [SPARK-48910] [SC-171001] [sql] Use Hashset/HashMap para evitar pesquisas lineares em PreprocessTableCreation
  • [SPARK-49007] [SC-172204] [core] Melhore o MasterPage para oferecer suporte a títulos personalizados
  • [SPARK-49009] [SC-172263][sql][Python] Fazer com que a coluna APIs e as funções aceitem Enums
  • [SPARK-49033] [SC-172303][core] Suporte à substituição de environmentVariables no lado do servidor na API de envio REST
  • [SPARK-48363] [SC-166470] [sql] Limpe alguns códigos redundantes em from_xml
  • [SPARK-46743] [SC-170867] [sql] [BEHAVE-84] Conte o bug após o ScalarSubQery ser dobrado se tiver uma relação vazia
  • [SPARK-49040] [SC-172351] [sql] Corrigir documento sql-ref-syntax-aux-exec-imm.md
  • [SPARK-48998] [SC-172212][ml] Meta algoritmos salvam/carregam modelo com SparkSession
  • [SPARK-48959] [SC-171708] [sql] Faça com que NoSuchNamespaceException estenda NoSuchDatabaseException para restaurar o tratamento de exceções
  • [SPARK-48996] [SC-172130][sql][Python] Permitir literais simples para and and or of Column
  • [SPARK-48990] [SC-171936] Acompanhamento de #101759 - correção de teste
  • [SPARK-48338] [SC-171912] [sql] Verifique as declarações de variáveis
  • [SPARK-48990] [SC-171936] [sql] Palavras-chave de sintaxe SQL relacionadas a variáveis unificadas
  • [SPARK-48988] [SC-171915] [ml] Faça com que DefaultParamsReader/Writer manipule metadados com a sessão Spark
  • [SPARK-48974] [SC-171978][sql][SS][ml][MLlib] Use SparkSession.implicits em vez de SQLContext.implicits
  • [SPARK-48760] [SC-170870] [sql] Corrigir Catalogv2util.applyClusterByChanges
  • [SPARK-48928] [SC-171956] Aviso de registro para chamar .unpersist() em RDDs com ponto de verificação local
  • [SPARK-48760] [SC-170139][sql] Introduzir ALTER TABLE... clustering BY SQL sintaxe para alterar as colunas de clustering
  • [SPARK-48844] Reverta “[SC-170669] [sql] USE INVALID_EMPTY_LOCATION em vez de UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY quando o caminho estiver vazio”
  • [SPARK-48833] [SC-171914] [sql] [VARIANT] Variante de suporte em InMemoryTableScan
  • [SPARK-48975] [SC-171894] [protobuf] Remova a definição ScalaReflectionLock desnecessária de protobuf
  • [SPARK-48970] [SC-171800][Python][ML] Evite usar SparkSession.getActiveSession no leitor/gravador spark ML
  • [SPARK-48844] [SC-170669] [sql] USE INVALID_EMPTY_LOCATION em vez de UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY quando o caminho estiver vazio
  • [SPARK-48714] [SC-170136] Corrigir falha nos testes df.mergeInto no PySpark e UC
  • [SPARK-48957] [SC-171797][ss] Retorna classe de erro subclassificada no carregamento do armazenamento do estado para o provedor HDFS e rocksdb
  • [SPARK-48891] [Backport] [15x] [SC-171677] [ss] Refatore StateSchemaCompatibilityChecker para unificar todos os formatos de esquema de estado
  • [SPARK-48972] [SC-171795][Python] Unificar o tratamento de strings literais em funções
  • [SPARK-48388] [SC-171337][sql] Corrigir o comportamento da instrução SET para scripts SQL
  • [SPARK-48743] [SC-170552] [sql] [SS] MergingSessionIterator deve lidar melhor quando getStruct retorna nulo
  • [SPARK-48623] [15.x] [sc-171322 ] [NÚCLEO] Migrar o FileAppender logs para o registro estruturado
  • [SPARK-36680] [DBRRM-1123] Reverter "[SC-170640][sql] Suporta opções de tabela dinâmica para Spark SQL"
  • [SPARK-48841] [SC-170868][behave-83][SQL] Incluir collationName para sql() de Collate
  • [SPARK-48941] [SC-171703][Python][ML] Substituir a invocação RDD read / write API por Dataframe read / write API
  • [SPARK-48938] [SC-171577][Python] Melhorar as mensagens de erro ao registrar Python UDTFs
  • [SPARK-48350] [SC-171040] [sql] Introdução de exceções personalizadas para scripts SQL
  • [SPARK-48907] [SC-171158] [sql] Corrija o valor explicitTypes em COLLATION_MISMATCH.EXPLICIT
  • [SPARK-48945] [SC-171658][Python] Simplifique as funções regex com lit
  • [SPARK-48944] [SC-171576][connect] Unificar o tratamento do esquema de formato JSON no Connect Server
  • [SPARK-48836] [SC-171569] Integrar o esquema SQL com o esquema/metadados de estado
  • [SPARK-48946] [SC-171504] [sql] NPE no método de redação quando a sessão é nula
  • [SPARK-48921] [SC-171412] [sql] Os codificadores scalaDF na subconsulta devem ser resolvidos para mergeInto
  • [SPARK-45155] [SC-171048][connect] Adicionar documentos de API para o cliente Spark Connect JVM/Scala
  • [SPARK-48900] [SC-171319] Adicione o campo reason para cancelJobGroup e cancelJobsWithTag
  • [SPARK-48865] [SC-171154] [sql] Adicionar a função try_url_decode
  • [SPARK-48851] [SC-170767] [sql] Altere o valor de SCHEMA_NOT_FOUND de namespace para catalog.namespace
  • [SPARK-48510] [SC-170893][2/2] Suporte a UDAF toColumn API no Spark Connect
  • [SPARK-45190] [SC-171055][spark-48897][Python][connect] Make from_xml support StructType schema
  • [SPARK-48930] [SC-171304] [core] Redija awsAccessKeyId incluindo o padrão accesskey
  • [SPARK-48909] [SC-171080][ml][MLlib] Usa SparkSession sobre SparkContext ao gravar metadados
  • [SPARK-48883] [SC-171133][ml][R] Substituir a invocação da API de leitura/gravação do RDD pela API de leitura/gravação do Dataframe
  • [SPARK-48924] [SC-171313] [ps] Adicione uma função auxiliar make_interval semelhante a um panda
  • [SPARK-48884] [SC-171051][Python] Remover função auxiliar não utilizada PythonSQLUtils.makeInterval
  • [SPARK-48817] [SC-170636][sql] Executar ansiosamente a união multi-comando em conjunto
  • [SPARK-48896] [SC-171079][ml][MLlib] Evite a repartição ao gravar os metadados
  • [SPARK-48892] [SC-171127] [ml] Evite a leitura de parâmetros por linha Tokenizer
  • [SPARK-48927] [SC-171227] [core] Mostrar o número de RDDs em cache em StoragePage
  • [SPARK-48886] [15.x] [porta traseira] [SC-171039] [ss] Adicione informações de versão ao changelog v2 para facilitar a evolução
  • [SPARK-48903] [SC-171136][ss] Defina a versão do último Snapshot do RocksDB corretamente no carregamento remoto
  • [SPARK-48742] [SC-170538][ss] Família de colunas virtuais para RocksDB
  • [SPARK-48726] [15,x] [sc-170753 ] [SS] Crie o formato de arquivo StateSchemaV3 e escreva-o para o operador transformWithStateExec
  • [SPARK-48794] [SC-170882][connect][15.x] Suporte a df.mergeInto para Spark Connect (Scala e Python)
  • [SPARK-48714] [SC-170136][Python] Implementar DataFrame.mergeInto em PySpark
  • [SPARK-48772] [SC-170642][ss][SQL] Fonte de dados do estado Alterar o leitor de feeds Mode
  • [SPARK-48666] [SC-170887] [sql] Não empurre o filtro para baixo se ele contiver PythonUDFS
  • [SPARK-48845] [SC-170889] [sql] GenericUDF captura exceções de crianças
  • [SPARK-48880] [SC-170974] [core] Evite lançar NullPointerException se o plug-in do driver falhar na inicialização
  • [SPARK-48888] [Backport][15x][SC-170973][ss] Remover a criação de instantâneos com base no tamanho das operações do changelog
  • [SPARK-48871] [SC-170876] Corrige a validação INVALID_NON_DETERMINISTIC_EXPRESSIONS em...
  • [SPARK-48883] [SC-170894][ml][R] Substituir a invocação da API de leitura/gravação do RDD pela API de leitura/gravação do Dataframe
  • [SPARK-36680] [SC-170640][sql] Suporta opções de tabela dinâmica para Spark SQL
  • [SPARK-48804] [SC-170558] [sql] Adicionar ClassLoadable & OutputCommitter.isAssignableFrom verifique as configurações da classe do commit de saída
  • [SPARK-46738] [SC-170791][Python] Reativar um grupo de testes
  • [SPARK-48858] [SC-170756][Python] Remover a chamada do método setDaemon obsoleto de Thread em log_communication.py
  • [SPARK-48639] [SC-169801][connect][Python] Adicionar origem a RelationCommon
  • [SPARK-48863] [SC-170770][es-1133940][SQL] Corrigir ClassCastException ao analisar JSON com "spark.sql.JSON.enablePartialResults" permitido
  • [SPARK-48343] [SC-170450][sql] Introdução do interpretador de scripts SQL
  • [SPARK-48529] [SC-170755][sql] Introdução do rótulo em SQL Scripting
  • [SPARK-45292] Reverter "[SC-151609][sql][HIVE] Remover o Guava das classes compartilhadas do IsolatedClientLoader".
  • [SPARK-48037] [SC-165330][core][3.5] A correção do SortShuffleWriter carece de métricas relacionadas à gravação aleatória, resultando em dados potencialmente imprecisos
  • [SPARK-48720] [SC-170551][sql] Alinhar o comando ALTER TABLE ... UNSET TBLPROPERTIES ... em v1 e v2
  • [SPARK-48485] [SC-167825][connect][SS] Suporte a interruptTag e interruptAll em consultas de transmissão
  • [SPARK-45292] [SC-151609][sql][HIVE] Remover o Guava das classes compartilhadas do IsolatedClientLoader
  • [SPARK-48668] [SC-169815] [sql] Suporta ALTER NAMESPACE... UNSET PROPERTIES na v2
  • [SPARK-47914] [SC-165313] [sql] Não exibir o parâmetro splits em Range
  • [SPARK-48807] [SC-170643][sql] Suporte binário para fonte de dados CSV
  • [SPARK-48220] [SC-167592][Python][15.X] Permitir a passagem da tabela PyArrow para createDataFrame()
  • [SPARK-48545] [SC-169543][sql] Criar funções SQL to_avro e from_avro para corresponder aos equivalentes do DataFrame
  • [SPARK-47577] [SC-168875][spark-47579] Corrigir o uso enganoso de log key TASK_ID

Suporte ao driver ODBC/JDBC da Databricks

A Databricks é compatível com drivers ODBC/JDBC lançados nos últimos 2 anos. Faça o download dos drivers lançados recentemente e da atualização do site (download ODBC, download JDBC).

Ambiente do sistema

  • Sistema operacional : Ubuntu 24.04.1 LTS
  • Java : Zulu17.50+19-CA
  • Scala : 2.12.15
  • Python : 3.12.3
  • R : 4.4.0
  • Delta Lake : 3.2.1

Instalado Python biblioteca

Biblioteca

Versão

Biblioteca

Versão

Biblioteca

Versão

tipos de anotações

0.7.0

asttokens

2.0.5

atunparse

1.6.3

comando automático

2.2.2

núcleo do azure

1,31,0

azure-storage-blob

12,23,0

azure-storage-file-datalake

12,17.0

arquivo backports.tar

1.2.0

preto

24.4.2

pisca-pisca

1.7.0

boto3

1,34,69

botocore

1,34,69

ferramentas de cache

5.3.3

certifi

2024.6.2

caffi

1,16.0

chardet

4.0.0

normalizador de conjuntos de caracteres

2.0.4

clique

8.1.7

salmoura

2.2.1

comunicações

0.2.1

contornar

1.2.0

criptografia

42,0.5

ciclador

0.11.0

Cython

3.0.11

databricks-sdk

0,30,0

dbus-Python

1.3.2

depurar

1.6.7

decorador

5.1.1

Descontinuado

1.2.14

distlib

0.3.8

docstring-to-markdown

0,11

pontos de entrada

0,4

execução

0,8.3

visão geral das facetas

1.1.1

bloqueio de arquivo

3.15.4

ferramentas de fonte

4,51,0

gitdb

4.0.11

GitPython

3.1.37

google-api-core

2.20.0

autenticação do Google

2.35,0

google-cloud-core

2.4.1

Google Cloud Storage

2.18.2

google-crc32c

1.6.0

mídia retomável do Google

2.7.2

googleapis-common-protos

1,65,0

grócio

1,60,0

status de grpcio

1,60,0

httplib2

0,20,4

Índia

3.7

importlib-metadados

6.0.0

importar lib_resources

6.4.0

inflexão

7.3.1

núcleo ipyflow

0,0.198

ipykernel

6,28,0

ipython

8,25,0

ipython-genutils

0.2.0

ipywidgets

7.7.2

isodato

0.6.1

jaraco.context

5.3.0

jaraco.functools

4.0.1

jaraco.text

3.12.1

jedi

0.19.1

jmespath

1.0.1

joblib

1.4.2

jupyter_client

8.6.0

jupyter_core

5.7.2

solucionador de kiwi

1.4.4

launchpadlib

1.11.0

lazr.restfulclient

0,14.6

lazr.uri

1.0.6

Matplotlib

3.8.4

matplotlib-inline

0.1.6

mccabe

0.7.0

malflow-skinny

2.15.1

mais ferramentas de iteração

10.3.0

mypy

1.10.0

extensões mypy

1.0.0

nest-assíncio

1.6.0

nodeenv

1.9.1

entorpecido

1.26.4

oauthlib

3.2.2

API de telemetria aberta

1.27.0

SDK de telemetria aberta

1.27.0

convenções semânticas de telemetria aberta

0,48b0

fazendo às malas

24,1

Pandas

1.5.3

parso

0,8.3

especificação do caminho

0.10.3

bode expiatório

0.5.6

esperar

4.8.0

travesseiro

10.3.0

pip

24,2

platformdirs

3.10.0

Plotly

5,22,0

plugado

1.0.0

kit de ferramentas de aviso

3,0,43

proto-plus

1.24.0

protobuf

4.24.1

pistila

5.9.0

psycopg2

2.9.3

processo pty

0.7.0

avaliação pura

0.2.2

flecha

15,0.2

pyasn1

0.4.8

módulos pyasn1

0.2.8

piccolo

0,0,52

pycparser

2,21

pidântico

2.8.2

núcleo pirântico

2.20.1

flocos

3.2.0

Pigmentos

2.15.1

Objeto PYG

3,48,2

PyJWT

2.7.0

pyodbc

5.0.1

análise de pipa

3.0.9

direito autoral

1,1,294

Python-dateutil

2.9.0.post0

Python-lsp-jsonrpc

1.1.2

Python-lsp-server

1.10.0

pytoolconfig

1.2.6

pytz

2024,1

PyYAML

6.0.1

pizma

25.1.2

pedidos

2.32.2

corda

1.12.0

rsa

4,9

transferência s3

0.10.2

scikit-learn

1.4.2

pegajoso

1.13.1

marítimo

0,13.2

ferramentas de configuração

74,0,0

seis

1,16.0

tapa

5.0.0

sqlparse

0.5.1

ID de importação ssh

5,11

dados de pilha

0.2.0

modelos de estatísticas

0,14.2

tenacidade

8.2.2

threadpool ctl

2.2.0

tokenizar-rt

4.2.1

tomli

2.0.1

tornado

6.4.1

almôndegas

5.14.3

tipografia

4.3.0

tipos-protobuf

3.20.3

tipos - psutil

5.9.0

tipos-pytz

2023.3.1.1

Tipos - PyYAML

6.0.0

tipos de solicitações

2.31.0.0

ferramentas de configuração de tipos

68.0.0.0

tipos seis

1,16.0

tipos - urllib3

1.26.25.14

extensões_de digitação

4.11.0

junhão

5.10.0

atualizações autônomas

0,1

urllib3

1,26,16

ambiente virtual

20.26.2

wadlib

1.3.6

largura do wc

0.2.5

qual é o patch

1.0.2

Python wheel

0,43,0

embrulhar

1.14.1

yapf

0,33,0

zíper

3.17.0

Instalada a R biblioteca

As bibliotecas R são instaladas a partir do Posit pacote Manager CRAN Snapshot em 2024-08-04: https://packagemanager.posit.co/cran/2024-08-04/.

Biblioteca

Versão

Biblioteca

Versão

Biblioteca

Versão

flecha

16.1.0

askpass

1.2.0

afirme que

0.2.1

portas traseiras

1.5.0

base

4.4.0

base64enc

0,1-3

Grande D

0.2.0

pouco

4.0.5

bit64

4.0.5

bitops

1,0-8

bolha

1.2.4

inicialização

1,3-30

fermentar

1,0-10

brio

1.1.5

vassoura

1.0.6

babião

0,8.0

cachem

1.1.0

chamador

3.7.6

cursor

6,0-94

guarda de celas

1.1.0

crono

2,3-61

Aula

7,3-22

CLIPE

3.6.3

clipe

0,8.0

relógio

0.7.1

Cluster

2.1.6

ferramentas de código

0,2-20

espaço de cores

2,1-1

marca comum

1.9.1

compilador

4.4.0

configuração

0.3.2

em conflito

1.2.0

cpp11

0.4.7

giz de cera

1.5.3

Credenciais

2.0.1

cacho

5.2.1

data.tabela

1,15.4

conjunto de dados

4.4.0

DBI

1.2.3

dbplyr

2.5.0

desc

1.4.3

ferramentas de desenvolvimento

2.4.5

diagrama

1.6.5

diff

0.3.5

digerir

0,6,36

iluminado

0.4.4

dplyr

1.1.4

dtplyr

1.3.1

e1071

1,7-14

reticências

0.3.2

avalie

0,24,0

fansi

1.0.6

colorista

2.1.2

mapa rápido

1.2.0

fontawesome

0.5.2

para gatos

1.0.0

para cada um

1.5.2

Externo

0,8-86

forjar

0.2.0

fs

1.6.4

futuro

1,34,0

futuro.aplique

1.11.2

gargarejar

1.5.2

genéricas

0.1.3

obter

2.1.0

ggplot2

3.5.1

gh

1.4.1

git2r

0,33,0

gitcreds

0.1.2

glmnet

4,1-8

globais

0,16.3

cola

1.7.0

google drive

2.1.1

planilhas do Google 4

1.1.1

goleiro

1.0.1

gráficos

4.4.0

Dispositivos GR

4.4.0

grade

4.4.0

Grid Extra

2.3

gsubfn

0,7

gt

0.11.0

mesa

0.3.5

capacete

1.4.0

refúgio

2.5.4

mais alto

0,11

HMS

1.1.3

ferramentas html

0.5.8.1

widgets html

1.6.4

http.uv

1,6.15

httr

1.4.7

httr2

1.0.2

IDs

1.0.1

mini

0.3.1

ipred

0,9-15

isóbanda

0.2.7

iteradores

1,0.14

jquerylib

0.1.4

jsonlite

1.8.8

suco suculento

0.1.0

Kern Smooth

2,23-22

tricotar

1,48

rótulo

0.4.3

posteriormente

1.3.2

treliça

0,22-5

lava

1.8.0

ciclo de vida

1.0.4

ouvindo

0.9.1

lubrificar

1.9.3

magritter

2.0.3

Markdown

1,13

MASSA

7,3-60,0.1

Matriz

1,6-5

memoise

2.0.1

métodos

4.4.0

mgcv

1,9-1

mímica

0,12

Mini UI

0.1.1.1

MLflow

2.14.1

Métricas do modelo

1.2.2.2

modelar

0.1.11

munsell

0.5.1

nome

3,1-165

net

7,3-19

Número Deriv

2016,8-1,1

openssl

2.2.0

paralelo

4.4.0

paralelamente

1.38,0

pilar

1.9.0

pkgbuild

1.4.4

pkgconfig

2.0.3

pkgdown

2.1.0

carregamento de pacotes

1.4.0

plogr

0.2.0

plyr

1.8.9

elogio

1.0.0

unidades bonitas

1.2.0

ProC

1,18.5

processa

3.8.4

prodlim

2024,06,25

profvis

0.3.8

progresso

1.2.3

progressista

0.14.0

promessas

1.3.0

proto

1.0.0

proxy

0,4-27

ps

1.7.7

ronronar

1.0.2

R6

2.5.1

trapo

1.3.2

Floresta aleatória

4,7-1,1

corredeiras

0.3.3

rcmdcheck

1.4.0

Cervejaria RColor

1,1-3

Rcpp

1,0.13

RCP Pegen

0.3.4.0.0

reagível

0.4.4

Reator R

0.6.0

leitor

2.1.5

readxl

1.4.3

receitas

1.1.0

revanche

2.0.0

revanche 2

2.1.2

controles remotos

2.5.0

reprex

2.1.1

remodelar 2

1.4.4

rlang

1.1.4

rmarkdown

2,27

RODBC

1,3-23

roxigênio2

7.3.2

rpartem

4,1,23

rprojroot

2.0.4

Reservar

1,8-13

RSQLite

2.3.7

API do estúdio

0,16.0

reversões

2.1.2

colete

1.0.4

atrevimento

0.4.9

escala

1.3.0

seletor

0,4-2

informações da sessão

1.2.2

forma

1.4.6.1

brilhante

1.9.1

ferramentas de origem

0,1,7-1

Sparklyr

1.8.6

SparkR

3.5.0

espacial

7,3-17

splines

4.4.0

sqldf

0,4-1

QUADRADO

2021,1

estatísticas

4.4.0

estatísticas4

4.4.0

stringi

1.8.4

longarina

1.5.1

sobrevivência

3,6-4

arrogância

5.17.14.1

diz

3.4.2

fontes do sistema

1.1.0

tcltk

4.4.0

teste isso

3.2.1.1

modelagem de texto

0.4.0

petiscar

3.2.1

arrumado

1.3.1

seleção arrumada

1.2.1

tidyverso

2.0.0

mudança de horário

0.3.0

Hora/Data

4032,109

tinytex

0,52

Ferramentas

4.4.0

tzdb

0.4.0

verificador de URL

1.0.1

use isso

3.0.0

utf 8

1.2.4

utilidades

4.4.0

uuid

1,2-1

V8

4.4.2

vctrs

0.6.5

Viridis Lite

0.4.2

vadouro

1.6.5

waldo

0.5.2

bigode

0.4.1

murchar

3.0.1

diversão

0,46

xml2

1.3.6

xopen

1.0.1

x estável

1,8-4

yaml

2.3.10

fanático

0.1.0

compactar

2.3.1

Instalei Java e Scala biblioteca (versão de clusteringScala 2.12)

ID do grupo

ID do artefato

Versão

chifre

chifre

2.7.7

com.amazonaws

Amazon-kinesis-client

1.12.0

com.amazonaws

aws-java-sdk-autoscale

1,12.638

com.amazonaws

formação de nuvem aws-java-sdk

1,12.638

com.amazonaws

aws-java-sdk-cloudfront

1,12.638

com.amazonaws

aws-java-sdk-cloudhsm

1,12.638

com.amazonaws

aws-java-sdk-cloudsearch

1,12.638

com.amazonaws

aws-java-sdk-cloudtrail

1,12.638

com.amazonaws

aws-java-sdk-cloudwatch

1,12.638

com.amazonaws

métricas aws-java-sdk-cloudwatch

1,12.638

com.amazonaws

aws-java-sdk-codedeploy

1,12.638

com.amazonaws

identidade cognitiva aws-java-sdk

1,12.638

com.amazonaws

aws-java-sdk-cognitosync

1,12.638

com.amazonaws

aws-java-sdk-config

1,12.638

com.amazonaws

aws-java-sdk-core

1,12.638

com.amazonaws

pipeline de dados aws-java-sdk

1,12.638

com.amazonaws

aws-java-sdk-conexão direta

1,12.638

com.amazonaws

diretório aws-java-sdk

1,12.638

com.amazonaws

aws-java-sdk-dynamodb

1,12.638

com.amazonaws

aws-java-sdk-ec2

1,12.638

com.amazonaws

aws-java-sdk-ecs

1,12.638

com.amazonaws

aws-java-sdk-efs

1,12.638

com.amazonaws

aws-java-sdk-elasticache

1,12.638

com.amazonaws

aws-java-sdk-elasticbeanstalk

1,12.638

com.amazonaws

balanceamento de carga elástico aws-java-sdk

1,12.638

com.amazonaws

transcodificador elástico aws-java-sdk-

1,12.638

com.amazonaws

aws-java-sdk-emr

1,12.638

com.amazonaws

aws-java-sdk-glacier

1,12.638

com.amazonaws

aws-java-sdk-glue

1,12.638

com.amazonaws

aws-java-sdk-iam

1,12.638

com.amazonaws

aws-java-sdk-importação/exportação

1,12.638

com.amazonaws

aws-java-sdk-kinesis

1,12.638

com.amazonaws

aws-java-sdk-kms

1,12.638

com.amazonaws

aws-java-sdk-lambda

1,12.638

com.amazonaws

aws-java-sdk-logs

1,12.638

com.amazonaws

aws-java-sdk - aprendizado de máquina

1,12.638

com.amazonaws

aws-java-sdk-opsworks

1,12.638

com.amazonaws

aws-java-sdk-rds

1,12.638

com.amazonaws

aws-java-sdk-redshift

1,12.638

com.amazonaws

aws-java-sdk-route53

1,12.638

com.amazonaws

aws-java-sdk-s3

1,12.638

com.amazonaws

aws-java-sdk-ses

1,12.638

com.amazonaws

aws-java-sdk-simpledb

1,12.638

com.amazonaws

aws-java-sdk - fluxo de trabalho simples

1,12.638

com.amazonaws

aws-java-sdk-sns

1,12.638

com.amazonaws

aws-java-sdk-sqs

1,12.638

com.amazonaws

aws-java-sdk-ssm

1,12.638

com.amazonaws

gateway de armazenamento aws-java-sdk

1,12.638

com.amazonaws

aws-java-sdk-sts

1,12.638

com.amazonaws

suporte aws-java-sdk

1,12.638

com.amazonaws

aws-java-sdk-swf-biblioteca

1.11.22

com.amazonaws

aws-java-sdk-workspace

1,12.638

com.amazonaws

jmespath-java

1,12.638

com.clearspring.analítica

transmissão

2.9.6

com.databricks

Reservar

1,8-3

com.databricks

databricks-sdk-java

0,27.0

com.databricks

jets3t

0.7.1-0

com.databricks.scalapb

scalapb-runtime_2.12

0,4,15-10

com.esotérico software

crio-sombreado

4.0.2

com.esotérico software

minlog

1.3.0

com.fasterxml

colega de classe

1.3.4

com.fasterxml.jackson.core

jackson-anotação

2.15.2

com.fasterxml.jackson.core

jackson-core

2.15.2

com.fasterxml.jackson.core

vinculação de dados jackson

2.15.2

formato de dados com.fasterxml.jackson.

formato de dados jackson-cbor

2.15.2

formato de dados com.fasterxml.jackson.

formato de dados jackson-yaml

2.15.2

com.fasterxml.jackson.tipo de dados

jackson-datatype-joda

2.15.2

com.fasterxml.jackson.tipo de dados

jackson-datatype-jsr310

2.16.0

com.fasterxml.jackson.module

parâmetro do módulo jackson

2.15.2

com.fasterxml.jackson.module

módulo jackson scala_2.12

2.15.2

com.github.ben-manes.cafeína

cafeína

2.9.3

com.github.fommil

descarregador

1.1

com.github.fommil.netlib

native_ref-java

1.1

com.github.fommil.netlib

native_ref-java

1.1 - nativos

com.github.fommil.netlib

sistema_nativo-java

1.1

com.github.fommil.netlib

sistema_nativo-java

1.1 - nativos

com.github.fommil.netlib

netlib-native_ref-linux-x86_64

1.1 - nativos

com.github.fommil.netlib

netlib-native_system-linux-x86_64

1.1 - nativos

com.github.luben

zstd-jni

1,5,5-4

com.github.wendykierp

JTransforma

3.1

com.google.code.findbugs

jsr305

3.0.0

com.google.code.gson

gson

2.10.1

com.google.crypto.tink

eu acho

1.9.0

com.google.propenso a erros

anotações propensas a erros

2.10.0

com.google.flatbuffers

tampões planos-java

23,5,26

com.google.goiaba

goiaba

15,0

com.google.protobuf

protobuf-java

3.25.1

com.helger

perfilador

1.1.1

com.ibm.icu

icu4j

75,1

com.jcraft

jsch

0,1,55

com.jolbox

bonecp

VERSÃO 0.8.0.

com.lihaoyi

código-fonte_2.12

0.1.9

com.microsoft.azure

azure-data lake-store-sdk

2.3.9

com.microsoft.sqlserver

mssql-JDBC

11.2.2. jre8

comendo

comprimir-lzf

1.1.2

com.sun.mail

javax.mail

1.5.2

com.sun.xml.bind

jaxb-core

2.2.11

com.sun.xml.bind

jaxb-impl

2.2.11

com.trunning

JSON

1,8

com.thoughtworks.paranamer

paranâmero

2.8

com.trueaccord.lenses

lentes_2.12

0.4.12

com.Twitter

chill-java

0.10.0

com.Twitter

chill_2.12

0.10.0

com.Twitter

util-app_2.12

7.1.0

com.Twitter

util-core_2.12

7.1.0

com.Twitter

função-útil_2.12

7.1.0

com.Twitter

util-jvm_2.12

7.1.0

com.Twitter

util-lint_2.12

7.1.0

com.Twitter

util-registry_2.12

7.1.0

com.Twitter

util-stats_2.12

7.1.0

com.typesafe

configuração

1.4.3

com.typesafe.Scala-logging

Scala-logging_2.12

3.7.2

com.uber

h3

3.7.3

com.univocidade

analisadores de univocidade

2.9.1

com.zaxxer

HikaricP

4.0.3

comum-CLI

comum-CLI

1.5.0

codec comum

codec comum

1,16.0

coleções comuns

coleções comuns

3.2.2

commons-dbcp

commons-dbcp

1.4

upload de arquivo commons

upload de arquivo commons

1.5

commons-httpclient

commons-httpclient

3.1

commons-io

commons-io

2.13.0

linguagem comum

linguagem comum

2.6

registro de bens comuns

registro de bens comuns

1.1.3

comum-pool

comum-pool

1.5.4

dev.ludovic.netlib

mochila

3.0.3

dev.ludovic.netlib

blás

3.0.3

dev.ludovic.netlib

lapack

3.0.3

info.ganglia.gmetric4j

gmetric4j

1.0.10

io. airlift

compressor de ar

0,27

io.delta

delta-compartilhamento-client_2.12

1.2.0

io.dropwizard.métricas

anotação de métricas

4.2.19

io.dropwizard.métricas

núcleo de métricas

4.2.19

io.dropwizard.métricas

métricas-grafite

4.2.19

io.dropwizard.métricas

métricas-healthchecks

4.2.19

io.dropwizard.métricas

métricas-jetty9

4.2.19

io.dropwizard.métricas

métricas-jmx

4.2.19

io.dropwizard.métricas

métricas-JSON

4.2.19

io.dropwizard.métricas

métricas-JVM

4.2.19

io.dropwizard.métricas

métricas-servlets

4.2.19

io.netty

tudo

4.1.108. Final

io.netty

netty-buffer

4.1.108. Final

io.netty

codec netty

4.1.108. Final

io.netty

netty-codec-http

4.1.108. Final

io.netty

netty-codec-http2

4.1.108. Final

io.netty

netty-codec-socks

4.1.108. Final

io.netty

netty-common

4.1.108. Final

io.netty

manipulador de limpeza

4.1.108. Final

io.netty

proxy netty-handler

4.1.108. Final

io.netty

resolvedor de rede

4.1.108. Final

io.netty

netty-tcnative-boringssl-static

2.0.61. Final

io.netty

netty-tcnative-boringssl-static

2.0.61. final-linux-aarch_64

io.netty

netty-tcnative-boringssl-static

2.0.61. Final-Linux-x86_64

io.netty

netty-tcnative-boringssl-static

2.0.61. Final-OSX-AARCH_64

io.netty

netty-tcnative-boringssl-static

2.0.61. Final-OSX-x86_64

io.netty

netty-tcnative-boringssl-static

2.0.61.Final-windows-x86_64

io.netty

classes netty-tcnative

2.0.61. Final

io.netty

transporte de urtigas

4.1.108. Final

io.netty

netty-transport-classes-epoll

4.1.108. Final

io.netty

netty-transport-classes-kqueue

4.1.108. Final

io.netty

netty-transport-native-epoll

4.1.108. Final

io.netty

netty-transport-native-epoll

4.1.108. final-linux-aarch_64

io.netty

netty-transport-native-epoll

4.1.108. Final-Linux-RISCv64

io.netty

netty-transport-native-epoll

4.1.108. Final-Linux-x86_64

io.netty

netty-transport-native-kqueue

4.1.108. Final-OSX-AARCH_64

io.netty

netty-transport-native-kqueue

4.1.108. Final-OSX-x86_64

io.netty

netty-transport-native-unix-common

4.1.108. Final

io. prometheus

cliente simples

0.7.0

io. prometheus

simpleclient_common

0.7.0

io. prometheus

simpleclient_dropwizard

0.7.0

io. prometheus

gateway client_push simples

0.7.0

io. prometheus

client_servlet simples

0.7.0

io.prometheus.jmx

coletor

0.12.0

jakarta.anotação

jakarta.anotação-api

1.3.5

jakarta.servlet

jakarta.servlet-api

4.0.3

jakarta.validação

jakarta.validação-api

2.0.2

jakarta.ws.rs

jakarta.ws.rs-api

2.1.6

javax.ativação

ativação

1.1.1

javax.el

javax.el-api

2.2.4

javax.jdo

jdo-api

3.0.1

javax.transaction

jta

1.1

javax.transaction

API de transação

1.1

javax.xml.bind

jaxb-api

2.2.11

javolução

javolução

5.5.1

junte-se

junte-se

2.14.6

hora do dia

hora do dia

2.12.1

net.java.dev.jna

jna

5.8.0

net.razorvine

salmoura

1.3

net.sf.jpam

jpam

1.1

net.sf.opencsv

opencsv

2.3

net.sf.supercsv

supercsv

2.2.0

net.snowflake

SDK de ingestão de flocos de neve

0.9.6

net.sourceforge.f2j

arpack_combined_all

0,1

org.acplt.remotetea

chá remoto - oncrpc

1.1.2

org.antlr

ST4

4.0.4

org.antlr

antlr-runtime

3.5.2

org.antlr

antlr4-runtime

4.9.3

org.antlr

modelo de string

3.2.1

org.apache.ant

formiga

1.10.11

org.apache.ant

formiga

1.10.11

org.apache.ant

lançador de formigas

1.10.11

org.apache.arrow

formato de seta

15.0.0

org.apache.arrow

núcleo de memória de seta

15.0.0

org.apache.arrow

rede de memória de seta

15.0.0

org.apache.arrow

vetor de seta

15.0.0

org.apache.avro

AVRO

1.11.3

org.apache.avro

avro-ipc

1.11.3

org.apache.avro

mapeado automaticamente

1.11.3

org.apache.commons

commons-collections4

4.4

org.apache.commons

compressa comum

1,23,0

org.apache.commons

criptomoeda comum

1.1.0

org.apache.commons

commons-lang3

3.12.0

org.apache.commons

commons-math3

3.6.1

org.apache.commons

texto comum

1.10.0

org.apache.curator

curador-cliente

2.13.0

org.apache.curator

estrutura de curador

2.13.0

org.apache.curator

receitas de curadores

2.13.0

org.apache.datasketches

esboços de dados-java

3.1.0

org.apache.datasketches

memória de esboços de dados

2.0.0

org.apache.derby

derby

10.14.2.0

org.apache.hadoop

tempo de execução do cliente hadoop

3.3.6

org.apache.hive

hive-beeline

2.3.9

org.apache.hive

colmeia-CLI

2.3.9

org.apache.hive

hive-JDBC

2.3.9

org.apache.hive

hive-llap-client

2.3.9

org.apache.hive

hive-lap-common

2.3.9

org.apache.hive

colmeia

2.3.9

org.apache.hive

hive-shims

2.3.9

org.apache.hive

API de armazenamento em nuvem

2.8.1

org.apache.hive.shims

calços de colmeia - 0,23

2.3.9

org.apache.hive.shims

calços de colmeia comuns

2.3.9

org.apache.hive.shims

hive-shims-programador

2.3.9

org.apache.httpcomponents

cliente http

4.5.14

org.apache.httpcomponents

httpcore

4.4.16

org.apache.ivy

hera

2.5.2

org.apache.logging.log4j

log4j-1.2-api

2.22.1

org.apache.logging.log4j

log4j-api

2.22.1

org.apache.logging.log4j

log4j-core

2.22.1

org.apache.logging.log4j

log4j-disposição-padrão-JSON

2.22.1

org.apache.logging.log4j

log4j-slf4j2-impl

2.22.1

org.apache.orc

núcleo orc

Protobuf 1.9.2 sombreado

org.apache.orc

orc-mapreduce

Protobuf 1.9.2 sombreado

org.apache.orc

calços de orc

1.9.2

org.apache.thrift

libfb303

0.9.3

org.apache.thrift

libthrift

0.12.0

org.apache.ws.xmlschema

núcleo do esquema xml

2.3.0

org.apache.xbean

xbean-asm9-shaded

4,23

org.apache.yetus

audiência-anotação

0,13,0

org.apache.zookeeper

tratador

3.9.2

org.apache.zookeeper

tratador de zoológico - juta

3.9.2

org.checkerframework

xadrez igual

3,31,0

org.codehaus.jackson

jackson-core-asl

1.9.13

org.codehaus.jackson

jackson-mapper-asl

1.9.13

org.codehaus.janino

compilador common

3.0.16

org.codehaus.janino

janino

3.0.16

org.datanucleus

núcleo de dados-api-jdo

4.2.4

org.datanucleus

núcleo de dados

4.1.17

org.datanucleus

núcleo de dados-rdbms

4.1.19

org.datanucleus

javax.jdo

3,2,0-m3

org.Eclipse.collections

Eclipse-coleções

11.1.0

org.Eclipse.collections

Eclipse-collections-api

11.1.0

org.Eclipse.jetty

jetty-client

9.4.52.v20230823

org.Eclipse.jetty

continuação do cais

9.4.52.v20230823

org.Eclipse.jetty

jetty-http

9.4.52.v20230823

org.Eclipse.jetty

jetty-io

9.4.52.v20230823

org.Eclipse.jetty

jetty-jndi

9.4.52.v20230823

org.Eclipse.jetty

jetty-plus

9.4.52.v20230823

org.Eclipse.jetty

jetty-proxy

9.4.52.v20230823

org.Eclipse.jetty

segurança do cais

9.4.52.v20230823

org.Eclipse.jetty

servidor jetty-server

9.4.52.v20230823

org.Eclipse.jetty

jutty-servlet

9.4.52.v20230823

org.Eclipse.jetty

píer de servlets

9.4.52.v20230823

org.Eclipse.jetty

jetty-util

9.4.52.v20230823

org.Eclipse.jetty

jetty-util-ajax

9.4.52.v20230823

org.Eclipse.jetty

aplicativo web jetty-

9.4.52.v20230823

org.Eclipse.jetty

jetty-xml

9.4.52.v20230823

org.Eclipse.jetty.websocket

API de websoquete

9.4.52.v20230823

org.Eclipse.jetty.websocket

cliente websocket

9.4.52.v20230823

org.Eclipse.jetty.websocket

websocket-comum

9.4.52.v20230823

org.Eclipse.jetty.websocket

servidor websocket

9.4.52.v20230823

org.Eclipse.jetty.websocket

servlet websocket

9.4.52.v20230823

org.fusesource.leveldbjni

leveldbjni-tudo

1,8

org.glassfish.hk2

API hk2

2.6.1

org.glassfish.hk2

localizador hk2

2.6.1

org.glassfish.hk2

hk2-utils

2.6.1

org.glassfish.hk2

osgi-recurso-locator

1.0.3

org.glassfish.hk2.external

aopalliance - reembalado

2.6.1

org.glassfish.hk2.external

jakarta.inject

2.6.1

org.glassfish.jersey.containers

servlet de contêiner de camisa

2,40

org.glassfish.jersey.containers

jersey-container-servlet-core

2,40

org.glassfish.jersey.core

cliente de camisa

2,40

org.glassfish.jersey.core

camiseta comum

2,40

org.glassfish.jersey.core

servidor de camisa

2,40

org.glassfish.jersey.inject

camiseta-hk2

2,40

org.hibernate.validator

validador de hibernação

6.1.7. Final

org.ini4j

ini4j

0.5.4

org.javassist

javassist

3,29,2 HA

org.jboss.logging

registro de jboss-logging

3.3.2. Final

org.jdbi

jdbi

2.63,1

org.jetbrains

anotação

17.0.0

org.joda

conversor de joda

1.7

org.jodd

núcleo nodular

3.5.2

org.json4s

json4s-ast_2.12

3,7,0-M11

org.json4s

json4s-core_2.12

3,7,0-M11

org.json4s

json4s-jackson_2.12

3,7,0-M11

org.json4s

json4s-scalap_2.12

3,7,0-M11

org.lz4

lz4-java

1.8.0

org.mlflow

mlflow-spark_2.12

2.9.1

org.objenesis

objênese

2.5.1

org.postgresql

PostgreSQL

42,6.1

org.roaringbitmap

Mapa de bits estrondoso

0.9.45 - blocos de dados

org.roaringbitmap

calços

0.9.45 - blocos de dados

org.rocksdb

rocksdbjni

9.2.1

org.rosuda.rEngine

Motor

2.1.0

org.Scala-lang

Scala-compiler_2.12

2.12.15

org.Scala-lang

Scala-library_2.12

2.12.15

org.Scala-lang

Scala-reflect_2.12

2.12.15

org.Scala-lang.modules

Scala-collection-compat_2.12

2.11.0

org.Scala-lang.modules

Scala-java8-compat_2.12

0.9.1

org.Scala-lang.modules

Scala-parser-combinators_2.12

1.1.2

org.Scala-lang.modules

Scala-xml_2.12

1.2.0

org.Scala-sbt

interface de teste

1,0

org.scalacheck

scalacheck_2.12

1.14.2

org.scalactic

scalactic_2.12

3.2.16

org.scalanlp

breeze-macros_2.12

2.1.0

org.scalanlp

breeze_2.12

2.1.0

org.scalatest

compatível com scalatest

3.2.16

org.scalatest

scalatest-core_2.12

3.2.16

org.scalatest

diagramas de teste de escala_2.12

3.2.16

org.scalatest

scalatest-featurespec_2.12

3.2.16

org.scalatest

scalatest-flatspec_2.12

3.2.16

org.scalatest

scalatestfreespec_2.12

3.2.16

org.scalatest

scalatest-funspec_2.12

3.2.16

org.scalatest

scalatest-funsuite_2.12

3.2.16

org.scalatest

scalatest-matchers-core_2.12

3.2.16

org.scalatest

scalatest-mustmatchers_2.12

3.2.16

org.scalatest

scalatest-propspec_2.12

3.2.16

org.scalatest

scalatest-refspec_2.12

3.2.16

org.scalatest

scalatest - deve corresponders_2.12

3.2.16

org.scalatest

scalatest-wordspec_2.12

3.2.16

org.scalatest

scalatest_2.12

3.2.16

org.slf4j

jcl-over-slf4j

2.0.7

org.slf4j

jul-a-slf4j

2.0.7

org.slf4j

slf4j-api

2.0.7

org.slf4j

slf4j-simple

1,7,25

org.threeten

treze e mais

1.7.1

org.tukaani

xz

1,9

org.typelevel

álgebra_2.12

2.0.1

org.typelevel

cats-kernel_2.12

2.1.1

org.typelevel

spire-macros_2.12

0,17.0

org.typelevel

spire-platform_2.12

0,17.0

org.typelevel

spire-util_2.12

0,17.0

org.typelevel

spire_2.12

0,17.0

org.wildfly.openssl

wildfly-openssl

1.1.3. Final

org.xerial

sqlite-JDBC

3,42.0.0

org.xerial.snappy

snappy-java

1.1.10.3

org.yaml

snakeyaml

2,0

oro

oro

2.0.8

pt.edu.icm

Matrizes JLarge

1.5

software.Amazon.cryptools

Amazon Correcto Crypto Provider

1.6.2-linux-x86_64

stax

stax-api

1.0.1