Databricks Runtime 16,0 (EoS)
As notas a seguir sobre a versão fornecem informações sobre o site Databricks Runtime 16.0, alimentado por Apache Spark 3.5.0.
A Databricks lançou essa versão em novembro de 2024.
O suporte para essa versão do Databricks Runtime foi encerrado. Para saber a data do fim do suporte, consulte Histórico do fim do suporte. Para conhecer todas as versões compatíveis do site Databricks Runtime, consulte Databricks Runtime notas sobre versões e compatibilidade.
Essas notas sobre a versão podem incluir referências a recursos que não estão disponíveis no Google Cloud a partir desta versão.
Para ver notas sobre a versão das versões do site Databricks Runtime que chegaram ao fim do suporte (EoS), consulte Fim do suporte Databricks Runtime notas sobre a versão. As versões do EoS Databricks Runtime foram retiradas e podem não ser atualizadas.
Mudanças comportamentais
- Mudança radical : O JDK 17 agora é o default
- Mudança radical : O RStudio hospedado está no fim da vida útil
- Alteração importante: remoção do suporte para alterar os tipos
byte
,short
,int
elong
para tipos mais amplos - Análise correta de padrões regex com negação no agrupamento de caracteres aninhados
- Melhorar a detecção de correspondências duplicadas no Delta Lake
MERGE
- O método de instalação da biblioteca de agrupamento não pode mais ser substituído
- tempo limite padrão de duas horas para instalações de biblioteca com escopo de cluster
- A instalação da biblioteca a partir de DBFS e a configuração do spark conf
spark.databricks.driver.dbfsLibraryInstallationAllowed
estão desativadas - A funcionalidade do
addArtifact()
agora é consistente em todos os tipos de compute - Regra de acentos invertidos aplicada adequadamente para identificadores principais com caracteres especiais
Mudança radical : O JDK 17 agora é o default
Em Databricks Runtime 16.0 e acima, a versão do JDK de default é alterada de JDK 8 para JDK 17. Essa alteração é feita devido à descontinuação planejada e ao fim do suporte para o JDK 8. Isso afeta o seguinte:
- Java o código executado em Databricks compute deve ser compatível com Java 17.
- Scala O código executado no Notebook ou em Databricks compute deve ser compatível com Java 17.
- Java e Scala biblioteca instalada em compute devem ser compatíveis com Java 17.
- Versões do cliente Apache Hive metastore abaixo 2.x. Definir a configuração do Spark
spark.sql.hive.metastore.version
para uma versão inferior a 2.x causará problemas de compatibilidade com o Java 17 e falhas de conexão com o Hive metastore. A Databricks recomenda a atualização do Hive para uma versão acima de 2.0.0.
Se o senhor precisar reverter para Java 8, adicione o seguinte ao Spark variável de ambiente quando configurar seu Databricks compute:
JNAME=zulu8-ca-amd64
Se você estiver usando instâncias ARM, use o seguinte:
JNAME=zulu8-ca-arm64
Para saber mais sobre como especificar as versões do JDK com Databricks compute, consulte Criar um clustering que use o JDK 17.
Para obter ajuda para migrar seu código de Java 8, consulte o seguinte guia:
Mudança radical : O RStudio hospedado está no fim da vida útil
Com esta versão, o Databricks-hosted RStudio Server está no fim da vida útil e indisponível em qualquer Databricks workspace que esteja executando Databricks Runtime 16.0 e acima. Para saber mais e ver uma lista de alternativas ao RStudio, consulte Depreciação do Hosted RStudio Server.
Alteração importante: remoção do suporte para alterar os tipos byte
, short
, int
e long
para tipos mais amplos
Em Databricks Runtime 15.4.3 e acima, as seguintes alterações de tipo de dados não podem mais ser aplicadas a tabelas com o recurso de ampliação de tipo ativado:
byte
,short
,int
elong
adecimal
.byte
,short
eint
adouble
.
Essa alteração foi feita para garantir um comportamento consistente nas tabelas Delta e Iceberg. Para saber mais sobre ampliação de tipo, consulte Ampliação de tipo.
Análise correta de padrões regex com negação no agrupamento de caracteres aninhados
Esta versão inclui uma mudança para oferecer suporte à análise correta de padrões regex com negação no agrupamento de caracteres aninhados. Por exemplo, [^[abc]]
será analisado como “qualquer caractere que NÃO seja de 'abc'”.
Além disso, o comportamento do Photon era inconsistente com o Spark para classes de caracteres aninhados. Os padrões Regex que contêm classes de caracteres aninhadas não usarão mais o Photon e, em vez disso, usarão o Spark. Uma classe de caracteres aninhada é qualquer padrão contendo colchetes dentro de colchetes, como [[a-c][1-3]]
.
Melhorar a detecção de correspondências duplicadas no Delta Lake MERGE
No Databricks Runtime 15.4 LTS e abaixo, as operações MERGE
falham se mais de uma linha na tabela de origem corresponder à mesma linha na tabela de destino com base na condição MERGE
especificada na cláusula ON
. Em Databricks Runtime 16.0 e acima, MERGE
também considera as condições especificadas na cláusula WHEN MATCHED
. Consulte Upsert em uma tabela Delta Lake usando merge.
O método de instalação da biblioteca de agrupamento não pode mais ser substituído
As configurações Spark spark.databricks.libraries.enableSparkPyPI
, spark.databricks.libraries.enableMavenResolution
e spark.databricks.libraries.enableCRANResolutionnow
agora são default a true
e não podem ser substituídas.
tempo limite padrão de duas horas para instalações de biblioteca com escopo de cluster
Em Databricks Runtime 16.0 e acima, a instalação da biblioteca com escopo de cluster tem um tempo limite de default de duas horas. As instalações da biblioteca que demorarem mais do que esse tempo limite falharão e a instalação será encerrada. Ao configurar um clustering, o senhor pode alterar o período de tempo limite usando a configuração Spark spark.databricks.driver.clusterLibraryInstallationTimeoutSec
.
A instalação da biblioteca a partir de DBFS e a configuração do spark conf spark.databricks.driver.dbfsLibraryInstallationAllowed
estão desativadas
Em Databricks Runtime 16.0 e acima, a instalação da biblioteca a partir de DBFS está totalmente desativada. Essa alteração foi feita para melhorar a segurança da biblioteca em um Databricks workspace. Além disso, em Databricks Runtime 16.0 e acima, o senhor não pode mais usar a configuração Spark spark.databricks.driver.dbfsLibraryInstallationAllowed
.
A funcionalidade do addArtifact()
agora é consistente em todos os tipos de compute
Com esta versão, o arquivo é descompactado automaticamente quando o senhor usa o endereço addArtifact(archive = True)
para adicionar uma dependência ao arquivo compartilhado ou serverless Databricks compute. Essa alteração torna o comportamento do site addArtifact(archive = True)
nesses tipos de compute consistente com o site dedicado compute (antigo usuário único compute), que já oferece suporte à descompactação automática de arquivos.
Regra de acentos invertidos aplicada adequadamente para identificadores principais com caracteres especiais
Com essa versão, os identificadores principais com caracteres especiais nas instruções GRANT, DENY e REVOKE agora gerarão um erro se não estiverem entre aspas.
Novos recursos e melhorias
- Recarregamento mais confiável de módulos Python modificados com melhorias no
autoreload
- Suporte Avro para esquema recursivo
- funções to_avro e from_avro
- Suporte ampliado para o Confluent Schema Registry for Avro
- Forçar o reclustering em tabelas com clustering líquido
- As APIs Delta para Python e Scala agora suportam colunas de identidade
- O controle de acesso refinado em compute dedicado (anteriormente um único usuário compute) está geralmente disponível
- Criar tabelas com cluster líquido durante gravações de transmissão
- Suporte à cláusula OPTIMIZE FULL
- Suporte para especificação de opções WITH em INSERT e referência de tabela
- Novas funções SQL
- Habilitar a evolução automática do esquema ao mesclar dados em uma tabela Delta
Recarregamento mais confiável de módulos Python modificados com melhorias no autoreload
Em Databricks Runtime 16.0 e acima, as atualizações da extensão autoreload
melhoram a segurança e a confiabilidade do recarregamento de módulos Python modificados importados de arquivos workspace. Com essas mudanças, autoreload
, quando possível, recarrega somente a parte de um módulo que foi alterada em vez do módulo inteiro. Além disso, o Databricks agora sugere automaticamente o uso da extensão autoreload
se o módulo tiver sido alterado desde sua última importação. Consulte Autoreload para módulos Python.
Suporte Avro para esquema recursivo
Agora o senhor pode usar a opção recursiveFieldMaxDepth
com a função from_avro
e a fonte de dados avro
. Essa opção define a profundidade máxima para a recursão do esquema na Avro fonte de dados. Consulte Transmissão de leitura e gravação Avro data.
funções to_avro e from_avro
As funções to_avro e from_avro permitem a conversão de tipos SQL em dados binários Avro e vice-versa.
Suporte ampliado para o Confluent Schema Registry for Avro
O Databricks agora oferece suporte à referência de esquema Avro com o Confluent Schema Registry. Consulte Autenticar em um registro externo do Confluent Schema.
Forçar o reclustering em tabelas com clustering líquido
No Databricks Runtime 16.0 e no acima, é possível usar a sintaxe OPTIMIZE FULL
para forçar o reclustering de todos os registros em uma tabela com o clustering líquido ativado. Consulte Force reclustering para todos os registros.
As APIs Delta para Python e Scala agora suportam colunas de identidade
Agora o senhor pode usar as APIs Delta para Python e Scala para criar tabelas com colunas de identidade. Veja as colunas de identidade de uso em Delta Lake.
O controle de acesso refinado em compute dedicado (anteriormente um único usuário compute) está geralmente disponível
Em Databricks Runtime 16.0 e acima, o controle de acesso refinado em compute dedicado está geralmente disponível. No espaço de trabalho habilitado para serverless compute, se uma consulta for executada em compute compatível, como compute dedicado, e a consulta acessar qualquer um dos seguintes objetos, o recurso compute passará a consulta para serverless compute para executar a filtragem de dados:
- definida sobre tabelas nas quais o usuário não tem o privilégio
SELECT
. - Visualização dinâmica.
- Tabelas com filtros de linha ou máscaras de coluna aplicados.
- Visualização materializada e tabelas de transmissão
Criar tabelas com cluster líquido durante gravações de transmissão
Agora o senhor pode usar clusterBy
para ativar o clustering líquido ao criar novas tabelas com gravações de transmissão estruturada. Consulte Ativar clustering líquido.
Suporte à cláusula OPTIMIZE FULL
O Databricks Runtime 16.0 é compatível com a cláusula OPTIMIZE FULL. Essa cláusula otimiza todos os registros em uma tabela que usa clustering líquido, inclusive dados que podem ter sido clusterizados anteriormente.
Suporte para especificação de opções WITH em INSERT e referência de tabela
Databricks Runtime A versão 16.0 oferece suporte a uma especificação de opções para referências de tabela e nomes de tabela de uma declaração INSERT
que pode ser usada para controlar o comportamento da fonte de dados.
Novas funções SQL
As seguintes funções SQL foram adicionadas ao Databricks Runtime 16.0:
-
Essa função é uma versão tolerante a erros de url_decode. Essa função retorna
NULL
se a entrada não for uma cadeia de caracteres codificada por URL válida. -
Se a expressão de entrada para a função
zeroifnull()
forNULL
, a função retornará 0. Caso contrário, o valor da expressão de entrada será retornado. -
Retorna
NULL
se a entrada for 0 ou sua entrada se não for 0. Se a expressão de entrada para a funçãonullifzero()
for 0, a função retornaráNULL
. Se a expressão de entrada não for 0, o valor da expressão de entrada será retornado
Habilitar a evolução automática do esquema ao mesclar dados em uma tabela Delta
Esta versão adiciona suporte para o membro withSchemaEvolution()
da classe DeltaMergeBuilder
. Use withSchemaEvolution()
para ativar a evolução automática do esquema durante MERGE
operações. Por exemplo, mergeBuilder.whenMatched(...).withSchemaEvolution().execute()}}
.
Outras mudanças
O SparkR agora está obsoleto
Em Databricks Runtime 16.0 e acima, SparkR em Databricks está obsoleto em preparação para sua obsolecência na próxima versão Spark 4. Consulte o thread Apache Spark Deprecate SparkR.
Databricks recomenda o uso de Sparklyr em vez disso.
O Databricks Runtime 16.0 não é compatível com o PVC
O Databricks Runtime 16.0 não é compatível com o Databricks Private Virtual Cloud (PVC). O senhor deve usar o site Databricks Runtime 15.4 ou abaixo com todas as versões do PVC.
Correções de bugs
O Auto Loader agora recupera os tipos de registro Avro com esquemas vazios
Ao carregar um arquivo Avro em uma tabela Delta usando o Auto Loader, os tipos record
no arquivo que têm um esquema vazio agora são adicionados à coluna de dados resgatada. Como o senhor não pode ingerir tipos de dados complexos vazios em uma tabela Delta, isso resolve um problema com o carregamento de alguns arquivos Avro. Para saber mais sobre dados resgatados, consulte O que é a coluna de dados resgatados? .
Correção de erro ao gravar carimbos de data/hora com fusos horários contendo um segundo deslocamento.
Esta versão corrige um bug que afeta alguns registros de data e hora com fusos horários contendo um segundo deslocamento. Esse bug faz com que os segundos sejam omitidos ao gravar em JSON, XML ou CSV, levando a valores incorretos de registro de data e hora.
Para retornar ao comportamento anterior, use a opção a seguir ao gravar em um dos formatos afetados: .option("yyyy-MM-dd'T'HH:mm:ss[.SSS][XXX]")
.
Atualizações da biblioteca
-
Atualizado Python biblioteca:
- azure-core de 1.30.2 para 1.31.0
- azure-storage-blob de 12.19.1 para 12.23.0
- azure-storage-file-datalake de 12.14.0 para 12.17.0
- preto de 23.3.0 a 24.4.2
- pisca-pisca de 1.4 a 1.7.0
- boto3 de 1.34.39 a 1.34.69
- botocore de 1.34.39 a 1.34.69
- certificado de 2023.7.22 a 2024.6.2
- cffi de 1.15.1 a 1.16.0
- clique de 8.0.4 a 8.1.7
- comunicação de 0.1.2 para 0.2.1
- contorno de 1.0.5 a 1.2.0
- criptografia de 41.0.3 a 42.0.5
- Cython de 0.29.32 a 3.0.11
- databricks-sdk de 0.20.0 a 0.30.0
- dbus-Python de 1.2.18 para 1.3.2
- filelock de 3.13.4 a 3.15.4
- fonttools de 4.25.0 a 4.51.0
- GitPython a partir de 3.1.43 até 3.1.37
- google-api-core de 2.18.0 a 2.20.0
- google-auth de 2.31.0 a 2.35.0
- Google Cloud Storage da versão 2.17.0 para a 2.18.2
- google-crc32c de 1.5.0 a 1.6.0
- google-resumable-media de 2.7.1 a 2.7.2
- googleapis-common-protos de 1.63.2 a 1.65.0
- httplib2 de 0.20.2 a 0.20.4
- idna de 3,4 a 3,7
- ipykernel de 6.25.1 a 6.28.0
- ipython de 8.15.0 a 8.25.0
- jedi de 0.18.1 a 0.19.1
- jmespath de 0.10.0 a 1.0.1
- joblib de 1.2.0 a 1.4.2
- jupyter_client de 7.4.9 a 8.6.0
- jupyter_core de 5.3.0 a 5.7.2
- launchpadlib de 1.10.16 a 1.11.0
- lazr.restfulclient de 0.14.4 a 0.14.6
- matplotlib de 3.7.2 a 3.8.4
- mlflow-skinny de 2.11.4 a 2.15.1
- more-itertools de 8.10.0 a 10.3.0
- mypy-extensions de 0.4.3 a 1.0.0
- nest-asyncio de 1.5.6 a 1.6.0
- numpy de 1.23,5 a 1.26.4
- oauthlib de 3.2.0 a 3.2.2
- embalagem de 23,2 a 24,1
- bode expiatório de 0.5.3 a 0.5.6
- pip de 23.2.1 a 24.2
- plotly de 5.9.0 a 5.22.0
- prompt-toolkit de 3.0.36 a 3.0.43
- pyarrow de 14.0.1 a 15.0.2
- pydantic de 1.10.6 a 2.8.2
- PyGObject de 3.42.1 a 3.48.2
- PyJWT de 2.3.0 a 2.7.0
- pyodbc de 4.0.38 para 5.0.1
- Python-dateutil de 2.8.2 para 2.9.0.post0
- Python-lsp-jsonrpc de 1.1.1 para 1.1.2
- pytz de 2022.7 a 2024.1
- PyYAML de 6.0 a 6.0.1
- pyzmq de 23.2.0 a 25.1.2
- solicitações de 2.31.0 a 2.32.2
- scikit-learn de 1.3.0 para 1.4.2
- scipy de 1.11.1 a 1.13.1
- marítimo de 0.12.2 a 0.13.2
- ferramentas de configuração de 68.0.0 a 74.0.0
- smmap de 5.0.1 a 5.0.0
- sqlparse de 0.5.0 a 0.5.1
- modelos de estatísticas de 0.14.0 a 0.14.2
- tornado de 6.3.2 para 6.4.1
- tortas de 5.7.1 a 5.14.3
- typing_extensions de 4.10.0 a 4.11.0
- ujson de 5.4.0 a 5.10.0
- virtualenv de 20.24.2 a 20.26.2
- roda de 0,38,4 a 0,43,0
- zipp de 3.11.0 para 3.17.0
-
Biblioteca R atualizada:
- seta de 14.0.0.2 a 16.1.0
- backports de 1.4.1 a 1.5.0
- base de 4.3.2 a 4.4.0
- bitops de 1,0-7 a 1,0-8
- inicialize de 1,3-28 a 1,3-30
- brio a partir de 1.1.4 para 1.1.5
- vassoura de 1.0.5 a 1.0.6
- bslib de 0.6.1 a 0.8.0
- cachem de 1.0.8 a 1.1.0
- callr de 3.7.3 a 3.7.6
- CLI De 3.6.2 para 3.6.3
- relógio de 0.7.0 a 0.7.1
- agrupamento de 2.1.4 para 2.1.6
- ferramentas de código de 0,2-19 a 0,2-20
- espaço de cores de 2,1-0 a 2,1-1
- compilador de 4.3.2 a 4.4.0
- giz de cera de 1.5.2 a 1.5.3
- curl de 5.2.0 a 5.2.1
- data.table de 1.15.0 a 1.15.4
- conjunto de dados da versão 4.3.2 para a 4.4.0
- DBI de 1.2.1 a 1.2.3
- dbplyr de 2.4.0 a 2.5.0
- resumo de 0.6.34 a 0.6.36
- downlit de 0.4.3 para 0.4.4
- avaliar de 0,23 a 0,24,0
- farver de 2.1.1 a 2.1.2
- fastmap de 1.1.1 a 1.2.0
- estrangeiro de 0,8-85 a 0,8-86
- fs de 1.6.3 a 1.6.4
- futuro de 1.33.1 a 1.34.0
- future.apply de 1.11.1 a 1.11.2
- vá de 2.0.1 para 2.1.0
- ggplot2 de 3.4.4 a 3.5.1
- gh de 1.4.0 a 1.4.1
- globais de 0.16.2 a 0.16.3
- gráficos de 4.3.2 a 4.4.0
- GRDevices de 4.3.2 a 4.4.0
- grade de 4.3.2 a 4.4.0
- gt de 0.10.1 a 0.11.0
- tabela de 0.3.4 a 0.3.5
- hardhat de 1.3.1 a 1.4.0
- maior de 0,10 a 0,11
- htmltools de 0.5.7 a 0.5.8.1
- httpuv de 1.6.14 a 1.6.15
- httr2 de 1.0.0 a 1.0.2
- ipred de 0,9-14 a 0,9-15
- KernSmooth de 2.23-21 a 2.23-22
- knitr de 1,45 a 1,48
- rede de 0,21-8 a 0,22-5
- lava de 1.7.3 a 1.8.0
- markdown de 1,12 a 1,13
- MASS de 7,3-60 a 7,3-60,0.1
- Matriz de 1,5-4,1 a 1,6-5
- métodos de 4.3.2 a 4.4.0
- mgcv de 1,8-42 a 1,9-1
- mlflow de 2.10.0 a 2.14.1
- munsell de 0.5.0 a 0.5.1
- nome de 3,1-163 a 3,1-165
- openssl de 2.1.1 a 2.2.0
- paralelo de 4.3.2 a 4.4.0
- paralelamente de 1.36.0 a 1.38.0
- pkgbuild de 1.4.3 a 1.4.4
- pkgdown de 2.0.7 a 2.1.0
- pkgload de 1.3.4 a 1.4.0
- processos de 3.8.3 a 3.8.4
- prodlim de 2023.08.28 a 2024.06.25
- promessas de 1.2.1 a 1.3.0
- ps de 1.7.6 a 1.7.7
- ragg de 1.2.7 a 1.3.2
- Rcpp de 1.0.12 a 1.0.13
- RCPPeigen de 0.3.3.9.4 a 0.3.4.0.0
- ReactR de 0.5.0 a 0.6.0
- receitas de 1.0.9 a 1.1.0
- remotos de 2.4.2.1 a 2.5.0
- reprex de 2.1.0 para 2.1.1
- rlang a partir de 1.1.3 para 1.1.4
- rmarkdown de 2.25 para 2.27
- roxygen2 de 7.3.1 a 7.3.2
- a partir de 4.1.21 até 4.1.23
- RSQLite de 2.3.5 a 2.3.7
- rstudioapi de 0.15.0 a 0.16.0
- rvest de 1.0.3 a 1.0.4
- sass de 0.4.8 a 0.4.9
- forma de 1.4.6 a 1.4.6.1
- brilhante de 1.8.0 a 1.9.1
- Sparklyr da versão 1.8.4 para a 1.8.6
- espacial de 7,3-15 a 7,3-17
- splines de 4.3.2 a 4.4.0
- estatísticas de 4.3.2 a 4.4.0
- stats4 de 4.3.2 a 4.4.0
- stringi de 1.8.3 a 1.8.4
- sobrevivência de 3,5-5 a 3,6-4
- swagger de 3.33.1 a 5.17.14.1
- systemfonts de 1.0.5 a 1.1.0
- tcltk de 4.3.2 a 4.4.0
- testthat de 3.2.1 a 3.2.1.1
- modelagem de texto de 0.3.7 a 0.4.0
- tidyselect de 1.2.0 a 1.2.1
- tinytex de 0,49 a 0,52
- ferramentas de 4.3.2 a 4.4.0
- use isso de 2.2.2 a 3.0.0
- utilitários de 4.3.2 a 4.4.0
- uuid de 1,2-0 a 1,2-1
- V8 de 4.4.1 a 4.4.2
- com de 3.0.0 a 3.0.1
- xfun de 0,41 a 0,46
- xopen de 1.0.0 a 1.0.1
- yaml de 2.3.8 a 2.3.10
-
Atualizado Java biblioteca:
- com.amazonaws.aws-java-sdk-autoscale de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-cloudformation de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-cloudfront de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-cloudhsm de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-cloudsearch de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-cloudtrail de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-cloudwatch de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-cloudwatchmetrics de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-codedeploy de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-cognitoidentity de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-cognitosync de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-config de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-core de 1.12.610 a 1.12.638
- pipeline de dados com.amazonaws.aws-java-sdk- de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-directconnect de 1.12.610 a 1.12.638
- diretório com.amazonaws.aws-java-sdk de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-dynamodb de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-ec2 de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-ecs de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-efs de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-elasticache de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-elasticbeanstalk de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-elasticloadbalancing de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-elastictranscoder de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-emr de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-glacier de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-glue de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-iam de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-importexport de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-kinesis de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-kms de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-lambda de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-logs de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-machinelearning de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-opsworks de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-rds de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-redshift de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-route53 de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-s3 de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-ses de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-simpledb de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-fluxo de trabalho simples de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-sns de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-sqs de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-ssm de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-storage gateway de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-sts de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-support de 1.12.610 a 1.12.638
- com.amazonaws.aws-java-sdk-workspace de 1.12.610 a 1.12.638
- com.amazonaws.jmespath-java de 1.12.610 a 1.12.638
- com.google.protobuf.protobuf-java de 2.6.1 a 3.25.1
- io.airlift.compressor de ar de 0,25 a 0,27
- io.delta.delta-compartilhamento-client_2.12 de 1.1.3 para 1.2.0
- io.netty.netty-all de 4.1.96.Final a 4.1.108.Final
- io.netty.netty-buffer de 4.1.96.Final a 4.1.108.Final
- codec io.netty.netty de 4.1.96.Final a 4.1.108.Final
- io.netty.netty-codec-http de 4.1.96.Final a 4.1.108.Final
- io.netty.netty-codec-http2 de 4.1.96.Final a 4.1.108.Final
- io.netty.netty-codec-socks de 4.1.96.Final a 4.1.108.Final
- io.netty.netty-common de 4.1.96.Final a 4.1.108.Final
- io.netty.netty-handler de 4.1.96.Final a 4.1.108.Final
- io.netty.netty-handler-proxy de 4.1.96.Final a 4.1.108.Final
- io.netty.netty-resolver de 4.1.96.Final a 4.1.108.Final
- io.netty.netty-transport de 4.1.96.Final a 4.1.108.Final
- io.netty.netty-transport-classes-epoll de 4.1.96.Final a 4.1.108.Final
- io.netty.netty-transport-classes-kqueue de 4.1.96.Final a 4.1.108.Final
- io.netty.netty-transport-native-epoll de 4.1.96.final-linux-x86_64 a 4.1.108.final-linux-x86_64
- io.netty.netty-transport-native-kqueue de 4.1.96.final-OSX-x86_64 a 4.1.108.final-OSX-x86_64
- io.netty.netty-transport-native-unix-common de 4.1.96.Final a 4.1.108.Final
- org.apache.ivy.ivy de 2.5.1 a 2.5.2
- org.apache.zookeeper.zookeeper de 3.6.3 a 3.9.2
- org.apache.zookeeper.zookeeper-juta de 3.6.3 a 3.9.2
- org.rocksdb.rocksdbjni de 8.11.4 a 9.2.1
- org.scalactic.scalactic_2.12 de 3.2.15 a 3.2.16
- compatível com org.scalatest.scalatest de 3.2.15 a 3.2.16
- org.scalatest.scalatest-core_2.12 de 3.2.15 a 3.2.16
- org.scalatest.scalatest-diagrams_2.12 de 3.2.15 a 3.2.16
- org.scalatest.scalatest-featurespec_2.12 de 3.2.15 a 3.2.16
- org.scalatest.scalatest-flatspec_2.12 de 3.2.15 a 3.2.16
- org.scalatest.scalatest-freespec_2.12 de 3.2.15 a 3.2.16
- org.scalatest.scalatest-funspec_2.12 de 3.2.15 a 3.2.16
- org.scalatest.scalatest-funsuite_2.12 de 3.2.15 a 3.2.16
- org.scalatest.scalatest-matchers-core_2.12 de 3.2.15 a 3.2.16
- org.scalatest.scalatest-mustmatchers_2.12 de 3.2.15 a 3.2.16
- org.scalatest.scalatest-propspec_2.12 de 3.2.15 a 3.2.16
- org.scalatest.scalatest-refspec_2.12 de 3.2.15 a 3.2.16
- org.scalatest.scalatest-shouldmatchers_2.12 de 3.2.15 a 3.2.16
- org.scalatest.scalatest-wordspec_2.12 de 3.2.15 a 3.2.16
- org.scalatest.scalatest_2.12 de 3.2.15 a 3.2.16
Apache Spark
O Databricks Runtime 16.0 inclui o Apache Spark 3.5.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 15.4 LTS, bem como as seguintes correções de bugs e melhorias adicionais feitas no Spark:
- [SPARK-49093] [DBRRM-1371] Reverta “[SC-172958] [sql] AGRUPE BY com mapType nes...
- [SPARK-49898] [DBRRM-1282][sc-178410] Corrigir a documentação e default para o evento log tarefa métricas accumulator logging flag do SPARK-42204
- [SPARK-49743] [ES-1260022] [behave-157] [SC-177475] [sql] OptimizeCsvJsonExpr não deve alterar os campos do esquema ao remover getArrayStructFields
- [SPARK-49816] [SC-177896] [sql] Só deve atualizar o out-going-ref-count para a relação CTE externa referenciada
- [SPARK-48939] [SC-177022][sc-172766][AVRO] Suporte à leitura do Avro com referência de esquema recursivo
- [SPARK-49688] [SC-177468] [es-1242349] [CONNECT] Corrige uma corrida de dados entre interromper e executar o plano
- [SPARK-49771] [SC-177466][Python] Melhorar Pandas Scalar Iter UDF erro quando as linhas de saída excedem as linhas de entrada
- [SPARK-48866] [SC-170772] [sql] Corrige dicas de um conjunto de caracteres válido na mensagem de erro de INVALID_PARAMETER_VALUE.CHARSET
- [SPARK-48195] [FIXFORWARD][sc-177267][CORE] Salvar e reutilizar RDD/Broadcast criado pelo SparkPlan
- [SPARK-49585] [CONNECT] Substitua o mapa de execuções em SessionHolder pelo conjunto operationID
- [SPARK-49211] [SC-174257][sql] O V2 Catalog também pode suportar fontes de dados integradas
- [SPARK-49684] Minimize a vida útil do bloqueio de restauração da sessão
- [SPARK-48059] [SPARK-48145][spark-48134][SPARK-48182][spark-48209][SPARK-48291] Estrutura de log estruturada no lado java
- [SPARK-48857] [SC-170661] [sql] Restringir conjuntos de caracteres em opções CSV
- [SPARK-49152] [SC-173690] [sql] O V2SessionCatalog deve usar o comando V2
- [SPARK-42846] [SC-176588] [sql] Remover condição de erro _LEGACY_ERROR_TEMP_2011
- [SPARK-48195] [SC-177267][core] Salvar e reutilizar RDD/Broadcast criado pelo SparkPlan
- [SPARK-49630] [SC-177379][ss] Adicionar opção de achatamento para processar tipos de coleção com o leitor de fontes de dados de estado
- [SPARK-49699] [SC-177154][ss] Desabilitar PruneFilters para cargas de trabalho de transmissão
- [SPARK-48781] [SC-175282][sql] Adicionar APIs de catálogo para carregar procedimentos armazenados
- [SPARK-49667] [SC-177068] [sql] Proibir intercaladores CS_AI com expressões que usam StringSearch
- [SPARK-49737] [SC-177207] [sql] Desative o agrupamento em intervalos em colunas agrupadas em tipos complexos
- [SPARK-48712] [SC-169794] [sql] Melhoria de desempenho para codificação com valores vazios ou conjunto de caracteres UTF-8
- [SPARK-49038] [SC-173933] [sql] O SQLMetric deve relatar o valor bruto no evento de atualização do acumulador
- [SPARK-48541] [SC-169066][core] Adicionar um novo código de saída para o executor morto pelo TaskReaper
- [SPARK-48774] [SC-170138][sql] Use SparkSession em SQLImplicits
- [SPARK-49719] [SC-177139] [sql] Faça com que
UUID
eSHUFFLE
aceitem números inteirosseed
- [SPARK-49713] [SC-177135][Python][CONNECT] Fazer com que a função
count_min_sketch
aceite argumentos numéricos - [SPARK-47601] [SC-162499][graphx] Graphx: Migrar logs com variáveis para a estrutura de logs estruturados
- [SPARK-49738] [SC-177219] [sql] Termina com correção de bug
- [SPARK-48623] [SC-170822] [core] Migrações estruturadas de registro [Parte 3]
- [SPARK-49677] [SC-177148][ss] Certifique-se de que os arquivos changelog sejam gravados em commit e que o sinalizador forceSnapshot também seja redefinido
- [SPARK-49684] [SC-177040] [conectar] Remova bloqueios globais dos gerenciadores de sessão e execução
- [SPARK-48302] [SC-168814][Python] Preservar nulos em colunas de mapas em tabelas PyArrow
- [SPARK-48601] [SC-169025][sql] Fornecer uma mensagem de erro mais amigável ao definir um valor nulo para a opção JDBC
- [SPARK-48635] [SC-169263][sql] Atribuir classes a join erros de tipo e erro as-of join
- [SPARK-49673] [SC-177032] [conectar] Aumente CONNECT_GRPC_ARROW_MAX_BATCH_SIZE para 0,7 * CONNECT_GRPC_MAX_MESSAGE_SIZE
- [SPARK-49693] [SC-177071][Python][CONNECT] Refine a representação de strings do
timedelta
- [SPARK-49687] [SC-176901] [sql] Atrasar a classificação em
validateAndMaybeEvolveStateSchema
- [SPARK-49718] [SC-177112][ps] Mudar
Scatter
graficar para dados amostrados - [SPARK-48472] [SC-169044][sql] Habilitar expressões de reflexão com strings agrupadas
- [SPARK-48484] [SC-167484][sql] Correção: V2Write usa o mesmo TaskAttemptId para diferentes tentativas de tarefa
- [SPARK-48341] [SC-166560] [conectar] Permitir que plug-ins usem o QueryTest em seus testes
- [SPARK-42252] [SC-168723] [core] Adicione
spark.shuffle.localDisk.file.output.buffer
e descontinue-ospark.shuffle.unsafe.file.output.buffer
- [SPARK-48314] [SC-166565] [ss] Não duplique os arquivos de cache do FileStreamSource usando Trigger.availableNow
- [SPARK-49567] [SC-176241][Python] Usar
classic
em vez devanilla
a partir da base de código PySpark - [SPARK-48374] [SC-167596][Python] Suporte a tipos de colunas adicionais da tabela PyArrow
- [SPARK-48300] [SC-166481] [sql] Suporte do Codegen para
from_xml
- [SPARK-49412] [SC-177059][ps] computa todas as métricas de graficar caixa em um único trabalho
- [SPARK-49692] [SC-177031][Python][CONNECT] Refine a representação de strings de data literal e datetime
- [SPARK-49392] [ES-1130351][sc-176705][SQL] Erros de captura ao não conseguir gravar em uma fonte de dados externa
- [SPARK-48306] [SC-166241] [sql] Melhore o UDT na mensagem de erro
- [SPARK-44924] [SC-166379] [ss] Adicionar configuração para arquivos em cache do FileStreamSource
- [SPARK-48176] [SC-165644] [sql] Ajuste o nome da condição de erro FIELD_ALREADY_EXISTS
- [SPARK-49691] [SC-176988][Python][CONNECT] A função
substring
deve aceitar nomes de colunas - [SPARK-49502] [SC-176077] [core] Evite NPE em sparkenv.get.shufflemanager.unregistershuffle
- [SPARK-49244] [SC-176703] [sql] Outras melhorias de exceção para analisador/interpretador
- [SPARK-48355] [SC-176684] [sql] Suporte para declaração CASE
- [SPARK-49355] [SC-175121] [sql]
levenshtein
deve verificar se os valorescollation
de todos os tipos de parâmetros são os mesmos - [SPARK-49640] [SC-176953] [ps] Aplique amostragem de reservatório em
SampledPlotBase
- [SPARK-49678] [SC-176857] [core] Suporte
spark.test.master
emSparkSubmitArguments
- [SPARK-49680] [SC-176856][Python] Limitar o paralelismo de construção do
Sphinx
a 4 por default - [SPARK-49396] Reverter “[SC-176030] [sql] Modificar verificação de nulidade para a expressão CaseWhen”
- [SPARK-48419] [SC-167443] [sql] A propagação dobrável substitui a coluna dobrável deve...
- [SPARK-49556] [SC-176757][sql] Adicionar sintaxe de pipe SQL para o operador SELECT
- [SPARK-49438] [SC-175237] [sql] Corrija o nome bonito da expressão
FromAvro
&ToAvro
- [SPARK-49659] [SC-1229924] [sql] Adicione um bom erro voltado ao usuário para subconsultas escalares dentro da cláusula VALUES
- [SPARK-49646] [SC-176778][sql] corrige a decorrelação de subconsultas para operações union/set quando parentOuterReferences tem referências não cobertas em collectedChildOuterReferences
- [SPARK-49354] [SC-175034] [sql]
split_part
deve verificar se os valorescollation
de todos os tipos de parâmetros são os mesmos - [SPARK-49478] [SC-175914][connect] Manipular métricas nulas no ConnectProgressExecutionListener
- [SPARK-48358] [SC-176374] [sql] Suporte para instrução REPEAT
- [SPARK-49183] [SC-173680] [sql] v2SessionCatalog.createTable deve respeitar PROP_IS_MANAGED_LOCATION
- [SPARK-49611] [SC-176791][sql] Introduzir TVF
collations()
& remover o comandoSHOW COLLATIONS
- [SPARK-49261] [SC-176589] [sql] Não substitua literais em expressões agregadas por expressões agrupadas
- [SPARK-49099] [SC-173229] [sql] CatalogManager.setCurrentNamespace deve respeitar o catálogo de sessões personalizado
- [SPARK-49594] [SC-176569] [ss] Adicionando uma verificação sobre se ColumnFamilies foram adicionadas ou removidas para gravar o arquivo StateSchemaV3
- [SPARK-49578] [SC-176385] [sql] Remova a sugestão de configuração ANSI em CAST_INVALID_INPUT e CAST_OVERFLOW
- [SPARK-48882] [SC-174256][ss] Atribuir nomes às classes de erro relacionadas ao modo de saída de transmissão
- [SPARK-49155] [SC-176506] [sql] [SS] Use um tipo de parâmetro mais apropriado para construir
GenericArrayData
- [SPARK-49519] [SC-176388][sql] mesclar opções de tabela e relação ao construir o FileScanBuilder
- [SPARK-49591] [SC-176587] [sql] Adicionar coluna de tipo lógico ao readme da variante
- [SPARK-49596] [SC-176423][sql] Melhorar o desempenho do
FormatString
- [SPARK-49525] [SC-176044][ss][CONNECT] Pequenos aprimoramentos no site log para a transmissão de consultas do lado do servidor ListenerBus Listener
- [SPARK-49583] [SC-176272] [sql] Defina a subcondição de erro
SECONDS_FRACTION
para padrão de fração de segundos inválido - [SPARK-49536] [SC-176242] Erro de manuseio em Python transmissão fonte de dados record prefetching
- [SPARK-49443] [SC-176273][sql][Python] Implementar a expressão to_variant_object e fazer com que as expressões schema_of_variant imprimam OBJECT para objetos variantes
- [SPARK-49544] [SASP-3990] [sc-176557] [CONNECT] Substitua o bloqueio grosseiro no SparkConnectExecutionManager pelo ConcurrentMap
- [SPARK-49548] [SASP-3990] [sc-176556] [CONNECT] Substitua o bloqueio grosseiro no SparkConnectSessionManager pelo ConcurrentMap
- [SPARK-49551] [SC-176218][ss] Melhorar RocksDB log para replayChangelog
- [SPARK-49595] [SC-176396][connect][SQL] Corrigir
DataFrame.unpivot/melt
no cliente Spark Connect Scala - [SPARK-49006] [SC-176162] Implementar a limpeza dos arquivos OperatorStateMetadatav2 e StateSchemaV3
- [SPARK-49600] [SC-176426][Python] Remover a lógica relacionada a
Python 3.6 and older
dotry_simplify_traceback
- [SPARK-49303] [SC-176013][ss] Implementar TTL para ValueState na API transformWithStateInPandas
- [SPARK-49191] [SC-176243][ss] Adicionar suporte para leitura de variáveis de estado do mapa transformWithState com leitor de fonte de dados de estado
- [SPARK-49593] [SC-176371][ss] Lança uma exceção do RocksDB para o chamador no fechamento do banco de dados se for observado um erro
- [SPARK-49334] [SC-174803] [sql]
str_to_map
deve verificar se os valorescollation
de todos os tipos de parâmetros são os mesmos - [SPARK-42204] [SC-176126][core] Adicionar opção para desativar o registro redundante dos acumuladores internos do TaskMetrics no evento logs
- [SPARK-49575] [SC-176256] [ss] Adicione registro para liberação do bloqueio somente se AcquiredThreadInfo não for nulo
- [SPARK-49539] [SC-176250][ss] Atualizar o identificador interno de col families começar para um identificador diferente
- [SPARK-49205] [SC-173853] [sql] KeyGroupedPartitioning deve herdar HashPartitioningLike
- [SPARK-49396] [SC-176030] [sql] Modificar verificação de nulidade para a expressão CaseWhen
- [SPARK-49476] [SC-175700] [sql] Corrige a nulidade da função base64
- [SPARK-47262] [SC-174829] [sql] Atribuir nomes às condições de erro para conversões em Parquet
- [SPARK-47247] [SC-158349][sql] Use um tamanho de destino menor ao combinar partições com junção explosiva
- [SPARK-49501] [SC-176166] [sql] Corrige o escape duplo da localização da tabela
- [SPARK-49083] [SC-173214][connect] Permitir que from_xml e from_json trabalhem nativamente com os esquemas JSON
- [SPARK-49043] [SC-174673][sql] Corrigir o agrupamento do caminho de código interpretado por no mapa que contém strings agrupadas
- [SPARK-48986] [SC-172265][connect][SQL] Adicionar representação intermediária de ColumnNode
- [SPARK-49326] [SC-176016] [ss] Classificar classe de erro para erro de função de usuário do Foreach sink
- [SPARK-48348] [SC-175950][spark-48376][SQL] Introduzir as declarações
LEAVE
eITERATE
- [SPARK-49523] [SC-175949] [conectar] Aumente o tempo máximo de espera para que o servidor de conexão apareça para teste
- [SPARK-49000] [BEHAVE-105][es-1194747][SQL] Corrigir "select count(distinct 1) from t" where t is empty table by expanding RewriteDistinctAggregates - DBR versão 16.x
- [SPARK-49311] [SC-175038] [sql] Possibilita que valores grandes de 'intervalo de segundos' sejam convertidos em decimais
- [SPARK-49200] [SC-173699] [sql] Corrige exceção de ordenação não codegen de tipo nulo
- [SPARK-49467] [SC-176051][ss] Adicionar suporte para o estado do leitor de fonte de dados e estado da lista
- [SPARK-47307] [SC-170891][sql] Adicionar uma configuração para, opcionalmente, fragmentar strings base64
- [SPARK-49391] [SC-176032][ps] Box graficar selecionar outliers por distância das cercas
- [SPARK-49445] [SC-175845] [ui] Suporte mostra dica de ferramenta na barra de progresso da interface
- [SPARK-49451] [SC-175702] Permitir chave duplicada em parse_json.
- [SPARK-49275] [SC-175701] [sql] Corrige a nulidade do tipo de retorno da expressão xpath
- [SPARK-49021] [SC-175578][ss] Adicionar suporte para leitura de variáveis de estado de valor transformWithState com leitor de fonte de dados de estado
- [SPARK-49474] [BEHAVE-143] [sc-169253] [SC-175933] [ss] Classificar classe de erro para erro de função de usuário FlatmapGroupsWithState
- [SPARK-49408] [SC-175932] [sql] Use IndexedSeq na projeção de linha interna
- [SPARK-49509] [SC-175853] [core] Use
Platform.allocateDirectBuffer
em vez deByteBuffer.allocateDirect
- [SPARK-49382] [SC-175013][ps] Fazer com que o graficar da caixa de quadros renderize adequadamente os fliers/outliers
- [SPARK-49002] [SC-172846] [sql] Manipule consistentemente locais inválidos em WAREHOUSE/SCHEMA/TABLE/PARTITION/DIRECTORY
- [SPARK-49480] [SC-175699] [core] Corrigir NullPointerException de
SparkThrowableHelper.isInternalError
- [SPARK-49477] [SC-175828][Python] Melhorar Pandas udf mensagem de erro de tipo de retorno inválido
- [SPARK-48693] [SC-169492] [sql] Simplifique e unifique ToString of Invoke e StaticInvoke
- [SPARK-49441] [SC-175716][ml]
StringIndexer
classificar matrizes no executor - [SPARK-49347] [SC-175004][r] Depreciar o SparkR
- [SPARK-49357] [SC-175227][connect][Python] Truncar verticalmente a mensagem protobuf profundamente aninhada
- [SPARK-41982] [SC-120604][sql] As partições do tipo strings não devem ser tratadas como tipos numéricos
- [SPARK-48776] [SC-170452][behave-72] Corrigir a formatação do registro de data e hora para JSON, xml e csv
- [SPARK-49223] [SC-174800] [ml] Simplifique o StringIndexer.countByValue com funções integradas
- [SPARK-49016] Reverter "[SC-174663][sql] Restaurar o comportamento de que as consultas a partir de arquivos CSV brutos não são permitidas quando apenas incluem a coluna de registro corrompido e atribuem o nome a
_LEGACY_ERROR_TEMP_1285
" - [SPARK-49041] [SC-172392][Python][CONNECT] Raise proper error for
dropDuplicates
when wrongsubset
is given - [SPARK-49050] [SC-175235] Habilitando o operador DeleteIfExists no TWS com famílias de colunas virtuais
- [SPARK-49216] [SC-173919][core]Correção para não log contexto de mensagem com LogEntry explicitamente construído quando a configuração Structured Logging está desativada
- [SPARK-49252] [SC-175596] [core] Torne
TaskSetExcludeList
eHeathTracker
independentes - [SPARK-49352] [SC-174971] [sql] Evite a transformação redundante de matriz para expressão idêntica
- [SPARK-42307] [SC-173863] [sql] Atribuir nome ao erro _LEGACY_ERROR_TEMP_2232
- [SPARK-49197] [SC-173732] [core] Redija a saída
Spark Command
no módulolauncher
- [SPARK-48913] [SC-173934] [sql] Implemente indentingXmlStreamWriter
- [SPARK-49306] [SC-175363][Python][SQL] Criar aliases da função SQL para 'zeroifnull' e 'nullifzero'
- [SPARK-48344] [SQL] Execução de scripts SQL (incluindo Spark Connect)
- [SPARK-49402] [SC-175122][Python] Corrigir a integração do Binder na documentação do PySpark
- [SPARK-49017] [SC-174664] [sql] A instrução de inserção falha quando vários parâmetros estão sendo usados
- [SPARK-49318] [SC-174733][sql] Prevenir erro de baixa prioridade no LCA até o final da análise de verificação para melhorar a experiência de erro
- [SPARK-49016] [SC-174663][sql] Restaura o comportamento de que as consultas a partir de arquivos CSV brutos não são permitidas quando apenas incluem a coluna de registro corrompido e atribuem o nome a
_LEGACY_ERROR_TEMP_1285
- [SPARK-49387] [SC-175124][Python] Corrigir a dica de tipo para
accuracy
empercentile_approx
eapprox_percentile
- [SPARK-49131] [SC-174666] [ss] TransformWithState deve definir corretamente a chave de agrupamento implícita, mesmo com iteradores preguiçosos
- [SPARK-49301] [SC-174795][ss] Dados de seta de pedaço passados para Python worker
- [SPARK-49039] [SC-174651][ui] Reset caixa de seleção quando executor métricas são carregadas nas etapas tab
- [SPARK-48428] [SC-169806] [sql] : Corrija IllegalStateException em NestedColumnAliasing
- [SPARK-49353] [SC-174830] [sql] Atualize documentos relacionados à codificação/decodificação
UTF-32
- [SPJ : Suporte a embaralhamento automático de um lado + menos join chave do que a chave de partição
- [SPARK-47473] [SC-160450][behave-127][SQL] Corrige o problema de correção na conversão de carimbos de data/hora INFINITY do postgres
- [SPARK-49142] [SC-173658][connect][Python] Acompanhamento para reverter o custo de desempenho de proto para strings
- [SPARK-49300] [SC-175008][core] Corrigir vazamento de tokens de delegação do Hadoop quando tokenRenewalInterval não estiver definido.
- [SPARK-49367] [SC-175012] [ps] Paralelize a computação do KDE para várias colunas (backend de plotly)
- [SPARK-49365] [SC-175011][ps] Simplificar a agregação de baldes no histórico gráfico
- [SPARK-49372] [SC-175003] [ss] Certifique-se de que o LatestSnapshot esteja definido como nenhum no fechamento para evitar o uso posterior
- [SPARK-49341] [SC-174785] Remova
connector/docker
em favor deApache Spark Operator
- [SPARK-49344] [SC-174894][ps] Suporte
json_normalize
para a API do Pandas no Spark - [SPARK-49306] [SC-174794][sql] Criar novas funções SQL 'zeroifnull' e 'nullifzero'
- [SPARK-48796] [SC-174668] [ss] Carregue o ID da família de colunas do RocksDBCheckpointMetadata para VCF ao reiniciar
- [SPARK-49342] [SC-174899][sql] Tornar opcional o argumento 'jsonFormatSchema' da função SQL TO_AVRO
- [SPARK-48628] [SC-174695][core] Adicionar métricas de memória de heap de pico de tarefa on/off
- [SPARK-47407] [SC-159379][behave-126][SQL] Suporte ao mapa java.sql.Types.NULL para NullType
- [SPARK-48628] [SC-173407][core] Adicionar métricas de memória heap de pico de tarefa on/off
- [SPARK-49166] [SC-173987] [sql] Suporte OFFSET em subconsulta correlacionada
- [SPARK-49269] [SC-174676] [sql] Avalie ansiosamente a lista VALUES () no ASTBuilder
- [SPARK-49281] [SC-174782][sql] Otimizar Parquet binary getBytes com getBytesUnsafe para evitar o custo de cópia
- [SPARK-49113] [SC-174734] Não faça afirmações sobre erros de tradução - engula silenciosamente a exceção
- [SPARK-49098] [SC-173253] [sql] Adicionar opções de gravação para INSERT
- [SPARK-48638] [SC-174694] [follow] [CONNECT] Corrigir documentação para ExecutionInfo
- [SPARK-49250] [ES-1222826] [sql] Melhorar a mensagem de erro para expressão de janela não resolvida aninhada no CheckAnalysis
- [SPARK-48755] [SC-174258][ss][Python] transformWithState PySpark implementação básica e suporte a ValueState
- [SPARK-48966] [SC-174329] [sql] Melhore a mensagem de erro com referência de coluna não resolvida inválida na chamada UDTF
- [SPARK-46590] [SC-154115] [sql] Falha de correção de coalescência com índices de partição inesperados
- [SPARK-49235] [SC-174159] [sql] Refatore a regra ResolveInlineTables para que ela não percorra toda a árvore
- [SPARK-49060] [SC-173107] [conectar] Limpe as regras do Mima para verificações de compatibilidade binária do SQL-Connect
- [SPARK-48762] [SC-172525][sql] Introduzir a API clusterBy DataFrameWriter para Python
- [SPARK-49207] [SC-173852] [sql] Corrija o mapeamento de um para muitos casos em SplitPart e StringSplitSQL
- [SPARK-49204] [SC-173850] [sql] Corrige o tratamento de pares substitutos em StringInStr e StringLocate
- [SPARK-36680] [SC-170640][sql] Suporta opções de tabela dinâmica para Spark SQL
- [SPARK-49204] [SC-173849] [sql] Corrige o tratamento de pares substitutos no SubstringIndex
- [SPARK-49204] [SC-173848] [sql] Corrige o tratamento de pares substitutos no StringTrim
- [SPARK-48967] [SC-173993] Corrigir o teste SparkConfigOwnershipSuite para OPTIMIZE_INSERT_INTO_VALUES_PARSER
- [SPARK-49204] [SC-173851] [sql] Corrige o tratamento de pares substitutos no StringReplace
- [SPARK-48967] [SC-173993][sql][16.x] Melhore o desempenho e o consumo de memória das instruções "INSERT INTO ... VALUES
- [SPARK-49099] Reverter “[SC-173229] [sql] CatalogManager.setCurrent...
- [SPARK-48347] [SC-173812] [sql] Suporte para a instrução WHILE
- [SPARK-49128] [SC-173344][core] Suporte à história personalizada Título da interface do usuário do servidor
- [SPARK-49146] [SC-173825][ss] Mover erros de asserção relacionados à falta de marca d'água em consultas de transmissão no modo append para a estrutura de erros
- [SPARK-45787] [SC-172197][sql] Suporte a Catalog.listColumns para colunas clustering
- [SPARK-49099] [SC-173229] [sql] CatalogManager.setCurrentNamespace deve respeitar o catálogo de sessões personalizado
- [SPARK-49138] [SC-173483] [sql] Corrige collationTypeCasts de várias expressões
- [SPARK-49163] [SC-173666][sql] Tentativa de criar uma tabela com base em dados de partição quebrados Parquet Os resultados devem retornar um erro para o usuário
- [SPARK-49201] [SC-173793][ps][Python][connect] Reimplementar o gráfico
hist
com Spark SQL - [SPARK-49188] [SC-173682][sql] Erro interno em concat_ws chamado em array de arrays de strings
- [SPARK-49137] [SC-173677][sql] Quando a condição Boolean no
if statement
é inválida, deve ser lançada uma exceção - [SPARK-49193] [SC-173672][sql] Melhorar o desempenho de RowSetUtils.toColumnBasedSet
- [SPARK-49078] [SC-173078] [sql] Suporte para mostrar sintaxe de colunas na tabela v2
- [SPARK-49141] [SC-173388] [sql] Marcar variante como tipo de dados incompatível com colmeia
- [SPARK-49059] [Escolha a dedo] [15.x] [SC-172528] [conectar] Mover
SessionHolder.forTesting(...)
para o pacote de teste - [SPARK-49111] [SC-173661] [sql] Mover withProjectAndFilter para o objeto complementar de DataSourceV2Strategy
- [SPARK-49185] [SC-173688][ps][Python][connect] Reimplementar o gráfico
kde
com Spark SQL - [SPARK-49178] [SC-173673][sql] Otimizar o desempenho de
Row#getSeq
para corresponder ao desempenho ao usar Spark 3.5 com Scala 2.12 - [SPARK-49093] [SC-172958] [sql] GROUP BY com mapType aninhado dentro de um tipo complexo
- [SPARK-49142] [SC-173469][connect][Python] Lower Spark Conectar o cliente log level to debug
- [SPARK-48761] [SC-172048][sql] Introduzir a API clusterBy DataFrameWriter para Scala
- [SPARK-48346] [SC-173083][sql] Suporte para instruções IF ELSE em scripts SQL
- [SPARK-48338] [SC-173112] [sql] Melhore as exceções lançadas pelo analisador/interpretador
- [SPARK-48658] [SC-169474] [sql] As funções de codificação/decodificação relatam erros de codificação em vez de mojibake para caracteres não mapeáveis
- [SPARK-49071] [SC-172954] [sql] Remover a característica ArraySortLike
- [SPARK-49107] Reverter “Reverter “[SC-173103] [sql]
ROUTINE_ALREADY_EXISTS
suporta o tipo de rotina”” - [SPARK-49070] [SC-172907][ss][SQL] TransformWithStateExec.initialState é reescrito incorretamente para produzir um plano de consulta inválido
- [SPARK-49114] [SC-173217] Sub-categorize cannot load armazenamento do estado errors
- [SPARK-49107] Reverter “[SC-173103] [sql]
ROUTINE_ALREADY_EXISTS
suporta o tipo de rotina” - [SPARK-49048] [SC-173223][ss] Adicionar suporte para leitura de metadados relevantes do operador em um determinado lote id
- [SPARK-49094] [SC-173049] [sql] Corrige ignoreCorruptFiles que não funcionava para hive orc impl com mergeSchema desativado
- [SPARK-49108] [SC-173102][example] Adicionar exemplo da API REST do
submit_pi.sh
- [SPARK-49107] [SC-173103] [sql]
ROUTINE_ALREADY_EXISTS
suporta o tipo de rotina - [SPARK-48997] [SC-172484][ss] Implementar descargas individuais para falhas de thread do pool de threads de manutenção
- [SPARK-49063] [SC-173094] [sql] Corrigir entre com subconsultas escalares
- [SPARK-45891] [SC-172305][sql][Python][variant] Adicionar suporte para tipos de intervalo na especificação de variante
- [SPARK-49074] [BEHAVE-110][sc-172815][SQL] Corrigir variante com
df.cache()
- [SPARK-49003] [SC-172613] [sql] Corrija o hash do caminho do código interpretado para reconhecer o agrupamento
- [SPARK-48740] [SC-172430] [sql] Detecte o erro de especificação da janela ausente com antecedência
- [SPARK-48999] [SC-172245] [ss] Divida o Python Streaming DataSource Simple Suite
- [SPARK-49031] [SC-172602] Implemente a validação para o operador transformWithStateExec usando operatorStateMetadatav2
- [SPARK-49053] [SC-172494][Python][ML] Fazer com que as funções auxiliares de salvar/carregar modelos aceitem a sessão spark
- [SPARK-49032] [Porta traseira] [15.x] [SS] Adicione o caminho do esquema na entrada da tabela de metadados, verifique a versão esperada e adicione o teste relacionado aos metadados do operador para o formato de metadados do operador v2
- [SPARK-49034] [SC-172306][core] Suporte à substituição de
sparkProperties
no lado do servidor na API de envio REST - [SPARK-48931] [SC-171895][ss] Reduzir a lista do Cloud Store API custo para armazenamento do estado tarefa de manutenção
- [SPARK-48849] [SC-172068] [ss] Crie operatorStateMetadatav2 para o operador transformWithStateExec
- [SPARK-49013] [SC-172322] Alterar key em collationsMap para os tipos Map e Array em Scala
- [SPARK-48414] [SC-171884][Python] Corrigir a alteração de ruptura em Python's
fromJson
- [SPARK-48910] [SC-171001] [sql] Use Hashset/HashMap para evitar pesquisas lineares em PreprocessTableCreation
- [SPARK-49007] [SC-172204] [core] Melhore o
MasterPage
para oferecer suporte a títulos personalizados - [SPARK-49009] [SC-172263][sql][Python] Fazer com que a coluna APIs e as funções aceitem Enums
- [SPARK-49033] [SC-172303][core] Suporte à substituição de
environmentVariables
no lado do servidor na API de envio REST - [SPARK-48363] [SC-166470] [sql] Limpe alguns códigos redundantes em
from_xml
- [SPARK-46743] [SC-170867] [sql] [BEHAVE-84] Conte o bug após o ScalarSubQery ser dobrado se tiver uma relação vazia
- [SPARK-49040] [SC-172351] [sql] Corrigir documento
sql-ref-syntax-aux-exec-imm.md
- [SPARK-48998] [SC-172212][ml] Meta algoritmos salvam/carregam modelo com SparkSession
- [SPARK-48959] [SC-171708] [sql] Faça com que
NoSuchNamespaceException
estendaNoSuchDatabaseException
para restaurar o tratamento de exceções - [SPARK-48996] [SC-172130][sql][Python] Permitir literais simples para and and or of Column
- [SPARK-48990] [SC-171936] Acompanhamento de #101759 - correção de teste
- [SPARK-48338] [SC-171912] [sql] Verifique as declarações de variáveis
- [SPARK-48990] [SC-171936] [sql] Palavras-chave de sintaxe SQL relacionadas a variáveis unificadas
- [SPARK-48988] [SC-171915] [ml] Faça com que
DefaultParamsReader/Writer
manipule metadados com a sessão Spark - [SPARK-48974] [SC-171978][sql][SS][ml][MLlib] Use
SparkSession.implicits
em vez deSQLContext.implicits
- [SPARK-48760] [SC-170870] [sql] Corrigir Catalogv2util.applyClusterByChanges
- [SPARK-48928] [SC-171956] Aviso de registro para chamar .unpersist() em RDDs com ponto de verificação local
- [SPARK-48760] [SC-170139][sql] Introduzir ALTER TABLE... clustering BY SQL sintaxe para alterar as colunas de clustering
- [SPARK-48844] Reverta “[SC-170669] [sql] USE INVALID_EMPTY_LOCATION em vez de UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY quando o caminho estiver vazio”
- [SPARK-48833] [SC-171914] [sql] [VARIANT] Variante de suporte em
InMemoryTableScan
- [SPARK-48975] [SC-171894] [protobuf] Remova a definição
ScalaReflectionLock
desnecessária deprotobuf
- [SPARK-48970] [SC-171800][Python][ML] Evite usar SparkSession.getActiveSession no leitor/gravador spark ML
- [SPARK-48844] [SC-170669] [sql] USE INVALID_EMPTY_LOCATION em vez de UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY quando o caminho estiver vazio
- [SPARK-48714] [SC-170136] Corrigir falha nos testes df.mergeInto no PySpark e UC
- [SPARK-48957] [SC-171797][ss] Retorna classe de erro subclassificada no carregamento do armazenamento do estado para o provedor HDFS e rocksdb
- [SPARK-48891] [Backport] [15x] [SC-171677] [ss] Refatore StateSchemaCompatibilityChecker para unificar todos os formatos de esquema de estado
- [SPARK-48972] [SC-171795][Python] Unificar o tratamento de strings literais em funções
- [SPARK-48388] [SC-171337][sql] Corrigir o comportamento da instrução SET para scripts SQL
- [SPARK-48743] [SC-170552] [sql] [SS] MergingSessionIterator deve lidar melhor quando getStruct retorna nulo
- [SPARK-48623] [15.x] [sc-171322 ] [NÚCLEO] Migrar o FileAppender logs para o registro estruturado
- [SPARK-36680] [DBRRM-1123] Reverter "[SC-170640][sql] Suporta opções de tabela dinâmica para Spark SQL"
- [SPARK-48841] [SC-170868][behave-83][SQL] Incluir
collationName
parasql()
deCollate
- [SPARK-48941] [SC-171703][Python][ML] Substituir a invocação RDD read / write API por Dataframe read / write API
- [SPARK-48938] [SC-171577][Python] Melhorar as mensagens de erro ao registrar Python UDTFs
- [SPARK-48350] [SC-171040] [sql] Introdução de exceções personalizadas para scripts SQL
- [SPARK-48907] [SC-171158] [sql] Corrija o valor
explicitTypes
emCOLLATION_MISMATCH.EXPLICIT
- [SPARK-48945] [SC-171658][Python] Simplifique as funções regex com
lit
- [SPARK-48944] [SC-171576][connect] Unificar o tratamento do esquema de formato JSON no Connect Server
- [SPARK-48836] [SC-171569] Integrar o esquema SQL com o esquema/metadados de estado
- [SPARK-48946] [SC-171504] [sql] NPE no método de redação quando a sessão é nula
- [SPARK-48921] [SC-171412] [sql] Os codificadores scalaDF na subconsulta devem ser resolvidos para mergeInto
- [SPARK-45155] [SC-171048][connect] Adicionar documentos de API para o cliente Spark Connect JVM/Scala
- [SPARK-48900] [SC-171319] Adicione o campo
reason
paracancelJobGroup
ecancelJobsWithTag
- [SPARK-48865] [SC-171154] [sql] Adicionar a função try_url_decode
- [SPARK-48851] [SC-170767] [sql] Altere o valor de
SCHEMA_NOT_FOUND
denamespace
paracatalog.namespace
- [SPARK-48510] [SC-170893][2/2] Suporte a UDAF
toColumn
API no Spark Connect - [SPARK-45190] [SC-171055][spark-48897][Python][connect] Make
from_xml
support StructType schema - [SPARK-48930] [SC-171304] [core] Redija
awsAccessKeyId
incluindo o padrãoaccesskey
- [SPARK-48909] [SC-171080][ml][MLlib] Usa SparkSession sobre SparkContext ao gravar metadados
- [SPARK-48883] [SC-171133][ml][R] Substituir a invocação da API de leitura/gravação do RDD pela API de leitura/gravação do Dataframe
- [SPARK-48924] [SC-171313] [ps] Adicione uma função auxiliar
make_interval
semelhante a um panda - [SPARK-48884] [SC-171051][Python] Remover função auxiliar não utilizada
PythonSQLUtils.makeInterval
- [SPARK-48817] [SC-170636][sql] Executar ansiosamente a união multi-comando em conjunto
- [SPARK-48896] [SC-171079][ml][MLlib] Evite a repartição ao gravar os metadados
- [SPARK-48892] [SC-171127] [ml] Evite a leitura de parâmetros por linha
Tokenizer
- [SPARK-48927] [SC-171227] [core] Mostrar o número de RDDs em cache em
StoragePage
- [SPARK-48886] [15.x] [porta traseira] [SC-171039] [ss] Adicione informações de versão ao changelog v2 para facilitar a evolução
- [SPARK-48903] [SC-171136][ss] Defina a versão do último Snapshot do RocksDB corretamente no carregamento remoto
- [SPARK-48742] [SC-170538][ss] Família de colunas virtuais para RocksDB
- [SPARK-48726] [15,x] [sc-170753 ] [SS] Crie o formato de arquivo StateSchemaV3 e escreva-o para o operador transformWithStateExec
- [SPARK-48794] [SC-170882][connect][15.x] Suporte a df.mergeInto para Spark Connect (Scala e Python)
- [SPARK-48714] [SC-170136][Python] Implementar
DataFrame.mergeInto
em PySpark - [SPARK-48772] [SC-170642][ss][SQL] Fonte de dados do estado Alterar o leitor de feeds Mode
- [SPARK-48666] [SC-170887] [sql] Não empurre o filtro para baixo se ele contiver PythonUDFS
- [SPARK-48845] [SC-170889] [sql] GenericUDF captura exceções de crianças
- [SPARK-48880] [SC-170974] [core] Evite lançar NullPointerException se o plug-in do driver falhar na inicialização
- [SPARK-48888] [Backport][15x][SC-170973][ss] Remover a criação de instantâneos com base no tamanho das operações do changelog
- [SPARK-48871] [SC-170876] Corrige a validação INVALID_NON_DETERMINISTIC_EXPRESSIONS em...
- [SPARK-48883] [SC-170894][ml][R] Substituir a invocação da API de leitura/gravação do RDD pela API de leitura/gravação do Dataframe
- [SPARK-36680] [SC-170640][sql] Suporta opções de tabela dinâmica para Spark SQL
- [SPARK-48804] [SC-170558] [sql] Adicionar ClassLoadable & OutputCommitter.isAssignableFrom verifique as configurações da classe do commit de saída
- [SPARK-46738] [SC-170791][Python] Reativar um grupo de testes
- [SPARK-48858] [SC-170756][Python] Remover a chamada do método
setDaemon
obsoleto deThread
emlog_communication.py
- [SPARK-48639] [SC-169801][connect][Python] Adicionar origem a RelationCommon
- [SPARK-48863] [SC-170770][es-1133940][SQL] Corrigir ClassCastException ao analisar JSON com "spark.sql.JSON.enablePartialResults" permitido
- [SPARK-48343] [SC-170450][sql] Introdução do interpretador de scripts SQL
- [SPARK-48529] [SC-170755][sql] Introdução do rótulo em SQL Scripting
- [SPARK-45292] Reverter "[SC-151609][sql][HIVE] Remover o Guava das classes compartilhadas do IsolatedClientLoader".
- [SPARK-48037] [SC-165330][core][3.5] A correção do SortShuffleWriter carece de métricas relacionadas à gravação aleatória, resultando em dados potencialmente imprecisos
- [SPARK-48720] [SC-170551][sql] Alinhar o comando
ALTER TABLE ... UNSET TBLPROPERTIES ...
em v1 e v2 - [SPARK-48485] [SC-167825][connect][SS] Suporte a interruptTag e interruptAll em consultas de transmissão
- [SPARK-45292] [SC-151609][sql][HIVE] Remover o Guava das classes compartilhadas do IsolatedClientLoader
- [SPARK-48668] [SC-169815] [sql] Suporta ALTER NAMESPACE... UNSET PROPERTIES na v2
- [SPARK-47914] [SC-165313] [sql] Não exibir o parâmetro splits em Range
- [SPARK-48807] [SC-170643][sql] Suporte binário para fonte de dados CSV
- [SPARK-48220] [SC-167592][Python][15.X] Permitir a passagem da tabela PyArrow para createDataFrame()
- [SPARK-48545] [SC-169543][sql] Criar funções SQL to_avro e from_avro para corresponder aos equivalentes do DataFrame
- [SPARK-47577] [SC-168875][spark-47579] Corrigir o uso enganoso de log key TASK_ID
Suporte ao driver ODBC/JDBC da Databricks
A Databricks é compatível com drivers ODBC/JDBC lançados nos últimos 2 anos. Faça o download dos drivers lançados recentemente e da atualização do site (download ODBC, download JDBC).
Ambiente do sistema
- Sistema operacional : Ubuntu 24.04.1 LTS
- Java : Zulu17.50+19-CA
- Scala : 2.12.15
- Python : 3.12.3
- R : 4.4.0
- Delta Lake : 3.2.1
Instalado Python biblioteca
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
tipos de anotações | 0.7.0 | asttokens | 2.0.5 | atunparse | 1.6.3 |
comando automático | 2.2.2 | núcleo do azure | 1,31,0 | azure-storage-blob | 12,23,0 |
azure-storage-file-datalake | 12,17.0 | arquivo backports.tar | 1.2.0 | preto | 24.4.2 |
pisca-pisca | 1.7.0 | boto3 | 1,34,69 | botocore | 1,34,69 |
ferramentas de cache | 5.3.3 | certifi | 2024.6.2 | caffi | 1,16.0 |
chardet | 4.0.0 | normalizador de conjuntos de caracteres | 2.0.4 | clique | 8.1.7 |
salmoura | 2.2.1 | comunicações | 0.2.1 | contornar | 1.2.0 |
criptografia | 42,0.5 | ciclador | 0.11.0 | Cython | 3.0.11 |
databricks-sdk | 0,30,0 | dbus-Python | 1.3.2 | depurar | 1.6.7 |
decorador | 5.1.1 | Descontinuado | 1.2.14 | distlib | 0.3.8 |
docstring-to-markdown | 0,11 | pontos de entrada | 0,4 | execução | 0,8.3 |
visão geral das facetas | 1.1.1 | bloqueio de arquivo | 3.15.4 | ferramentas de fonte | 4,51,0 |
gitdb | 4.0.11 | GitPython | 3.1.37 | google-api-core | 2.20.0 |
autenticação do Google | 2.35,0 | google-cloud-core | 2.4.1 | Google Cloud Storage | 2.18.2 |
google-crc32c | 1.6.0 | mídia retomável do Google | 2.7.2 | googleapis-common-protos | 1,65,0 |
grócio | 1,60,0 | status de grpcio | 1,60,0 | httplib2 | 0,20,4 |
Índia | 3.7 | importlib-metadados | 6.0.0 | importar lib_resources | 6.4.0 |
inflexão | 7.3.1 | núcleo ipyflow | 0,0.198 | ipykernel | 6,28,0 |
ipython | 8,25,0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
isodato | 0.6.1 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
jaraco.text | 3.12.1 | jedi | 0.19.1 | jmespath | 1.0.1 |
joblib | 1.4.2 | jupyter_client | 8.6.0 | jupyter_core | 5.7.2 |
solucionador de kiwi | 1.4.4 | launchpadlib | 1.11.0 | lazr.restfulclient | 0,14.6 |
lazr.uri | 1.0.6 | Matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 |
mccabe | 0.7.0 | malflow-skinny | 2.15.1 | mais ferramentas de iteração | 10.3.0 |
mypy | 1.10.0 | extensões mypy | 1.0.0 | nest-assíncio | 1.6.0 |
nodeenv | 1.9.1 | entorpecido | 1.26.4 | oauthlib | 3.2.2 |
API de telemetria aberta | 1.27.0 | SDK de telemetria aberta | 1.27.0 | convenções semânticas de telemetria aberta | 0,48b0 |
fazendo às malas | 24,1 | Pandas | 1.5.3 | parso | 0,8.3 |
especificação do caminho | 0.10.3 | bode expiatório | 0.5.6 | esperar | 4.8.0 |
travesseiro | 10.3.0 | pip | 24,2 | platformdirs | 3.10.0 |
Plotly | 5,22,0 | plugado | 1.0.0 | kit de ferramentas de aviso | 3,0,43 |
proto-plus | 1.24.0 | protobuf | 4.24.1 | pistila | 5.9.0 |
psycopg2 | 2.9.3 | processo pty | 0.7.0 | avaliação pura | 0.2.2 |
flecha | 15,0.2 | pyasn1 | 0.4.8 | módulos pyasn1 | 0.2.8 |
piccolo | 0,0,52 | pycparser | 2,21 | pidântico | 2.8.2 |
núcleo pirântico | 2.20.1 | flocos | 3.2.0 | Pigmentos | 2.15.1 |
Objeto PYG | 3,48,2 | PyJWT | 2.7.0 | pyodbc | 5.0.1 |
análise de pipa | 3.0.9 | direito autoral | 1,1,294 | Python-dateutil | 2.9.0.post0 |
Python-lsp-jsonrpc | 1.1.2 | Python-lsp-server | 1.10.0 | pytoolconfig | 1.2.6 |
pytz | 2024,1 | PyYAML | 6.0.1 | pizma | 25.1.2 |
pedidos | 2.32.2 | corda | 1.12.0 | rsa | 4,9 |
transferência s3 | 0.10.2 | scikit-learn | 1.4.2 | pegajoso | 1.13.1 |
marítimo | 0,13.2 | ferramentas de configuração | 74,0,0 | seis | 1,16.0 |
tapa | 5.0.0 | sqlparse | 0.5.1 | ID de importação ssh | 5,11 |
dados de pilha | 0.2.0 | modelos de estatísticas | 0,14.2 | tenacidade | 8.2.2 |
threadpool ctl | 2.2.0 | tokenizar-rt | 4.2.1 | tomli | 2.0.1 |
tornado | 6.4.1 | almôndegas | 5.14.3 | tipografia | 4.3.0 |
tipos-protobuf | 3.20.3 | tipos - psutil | 5.9.0 | tipos-pytz | 2023.3.1.1 |
Tipos - PyYAML | 6.0.0 | tipos de solicitações | 2.31.0.0 | ferramentas de configuração de tipos | 68.0.0.0 |
tipos seis | 1,16.0 | tipos - urllib3 | 1.26.25.14 | extensões_de digitação | 4.11.0 |
junhão | 5.10.0 | atualizações autônomas | 0,1 | urllib3 | 1,26,16 |
ambiente virtual | 20.26.2 | wadlib | 1.3.6 | largura do wc | 0.2.5 |
qual é o patch | 1.0.2 | Python wheel | 0,43,0 | embrulhar | 1.14.1 |
yapf | 0,33,0 | zíper | 3.17.0 |
Instalada a R biblioteca
As bibliotecas R são instaladas a partir do Posit pacote Manager CRAN Snapshot em 2024-08-04: https://packagemanager.posit.co/cran/2024-08-04/
.
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
flecha | 16.1.0 | askpass | 1.2.0 | afirme que | 0.2.1 |
portas traseiras | 1.5.0 | base | 4.4.0 | base64enc | 0,1-3 |
Grande D | 0.2.0 | pouco | 4.0.5 | bit64 | 4.0.5 |
bitops | 1,0-8 | bolha | 1.2.4 | inicialização | 1,3-30 |
fermentar | 1,0-10 | brio | 1.1.5 | vassoura | 1.0.6 |
babião | 0,8.0 | cachem | 1.1.0 | chamador | 3.7.6 |
cursor | 6,0-94 | guarda de celas | 1.1.0 | crono | 2,3-61 |
Aula | 7,3-22 | CLIPE | 3.6.3 | clipe | 0,8.0 |
relógio | 0.7.1 | Cluster | 2.1.6 | ferramentas de código | 0,2-20 |
espaço de cores | 2,1-1 | marca comum | 1.9.1 | compilador | 4.4.0 |
configuração | 0.3.2 | em conflito | 1.2.0 | cpp11 | 0.4.7 |
giz de cera | 1.5.3 | Credenciais | 2.0.1 | cacho | 5.2.1 |
data.tabela | 1,15.4 | conjunto de dados | 4.4.0 | DBI | 1.2.3 |
dbplyr | 2.5.0 | desc | 1.4.3 | ferramentas de desenvolvimento | 2.4.5 |
diagrama | 1.6.5 | diff | 0.3.5 | digerir | 0,6,36 |
iluminado | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
e1071 | 1,7-14 | reticências | 0.3.2 | avalie | 0,24,0 |
fansi | 1.0.6 | colorista | 2.1.2 | mapa rápido | 1.2.0 |
fontawesome | 0.5.2 | para gatos | 1.0.0 | para cada um | 1.5.2 |
Externo | 0,8-86 | forjar | 0.2.0 | fs | 1.6.4 |
futuro | 1,34,0 | futuro.aplique | 1.11.2 | gargarejar | 1.5.2 |
genéricas | 0.1.3 | obter | 2.1.0 | ggplot2 | 3.5.1 |
gh | 1.4.1 | git2r | 0,33,0 | gitcreds | 0.1.2 |
glmnet | 4,1-8 | globais | 0,16.3 | cola | 1.7.0 |
google drive | 2.1.1 | planilhas do Google 4 | 1.1.1 | goleiro | 1.0.1 |
gráficos | 4.4.0 | Dispositivos GR | 4.4.0 | grade | 4.4.0 |
Grid Extra | 2.3 | gsubfn | 0,7 | gt | 0.11.0 |
mesa | 0.3.5 | capacete | 1.4.0 | refúgio | 2.5.4 |
mais alto | 0,11 | HMS | 1.1.3 | ferramentas html | 0.5.8.1 |
widgets html | 1.6.4 | http.uv | 1,6.15 | httr | 1.4.7 |
httr2 | 1.0.2 | IDs | 1.0.1 | mini | 0.3.1 |
ipred | 0,9-15 | isóbanda | 0.2.7 | iteradores | 1,0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.8 | suco suculento | 0.1.0 |
Kern Smooth | 2,23-22 | tricotar | 1,48 | rótulo | 0.4.3 |
posteriormente | 1.3.2 | treliça | 0,22-5 | lava | 1.8.0 |
ciclo de vida | 1.0.4 | ouvindo | 0.9.1 | lubrificar | 1.9.3 |
magritter | 2.0.3 | Markdown | 1,13 | MASSA | 7,3-60,0.1 |
Matriz | 1,6-5 | memoise | 2.0.1 | métodos | 4.4.0 |
mgcv | 1,9-1 | mímica | 0,12 | Mini UI | 0.1.1.1 |
MLflow | 2.14.1 | Métricas do modelo | 1.2.2.2 | modelar | 0.1.11 |
munsell | 0.5.1 | nome | 3,1-165 | net | 7,3-19 |
Número Deriv | 2016,8-1,1 | openssl | 2.2.0 | paralelo | 4.4.0 |
paralelamente | 1.38,0 | pilar | 1.9.0 | pkgbuild | 1.4.4 |
pkgconfig | 2.0.3 | pkgdown | 2.1.0 | carregamento de pacotes | 1.4.0 |
plogr | 0.2.0 | plyr | 1.8.9 | elogio | 1.0.0 |
unidades bonitas | 1.2.0 | ProC | 1,18.5 | processa | 3.8.4 |
prodlim | 2024,06,25 | profvis | 0.3.8 | progresso | 1.2.3 |
progressista | 0.14.0 | promessas | 1.3.0 | proto | 1.0.0 |
proxy | 0,4-27 | ps | 1.7.7 | ronronar | 1.0.2 |
R6 | 2.5.1 | trapo | 1.3.2 | Floresta aleatória | 4,7-1,1 |
corredeiras | 0.3.3 | rcmdcheck | 1.4.0 | Cervejaria RColor | 1,1-3 |
Rcpp | 1,0.13 | RCP Pegen | 0.3.4.0.0 | reagível | 0.4.4 |
Reator R | 0.6.0 | leitor | 2.1.5 | readxl | 1.4.3 |
receitas | 1.1.0 | revanche | 2.0.0 | revanche 2 | 2.1.2 |
controles remotos | 2.5.0 | reprex | 2.1.1 | remodelar 2 | 1.4.4 |
rlang | 1.1.4 | rmarkdown | 2,27 | RODBC | 1,3-23 |
roxigênio2 | 7.3.2 | rpartem | 4,1,23 | rprojroot | 2.0.4 |
Reservar | 1,8-13 | RSQLite | 2.3.7 | API do estúdio | 0,16.0 |
reversões | 2.1.2 | colete | 1.0.4 | atrevimento | 0.4.9 |
escala | 1.3.0 | seletor | 0,4-2 | informações da sessão | 1.2.2 |
forma | 1.4.6.1 | brilhante | 1.9.1 | ferramentas de origem | 0,1,7-1 |
Sparklyr | 1.8.6 | SparkR | 3.5.0 | espacial | 7,3-17 |
splines | 4.4.0 | sqldf | 0,4-1 | QUADRADO | 2021,1 |
estatísticas | 4.4.0 | estatísticas4 | 4.4.0 | stringi | 1.8.4 |
longarina | 1.5.1 | sobrevivência | 3,6-4 | arrogância | 5.17.14.1 |
diz | 3.4.2 | fontes do sistema | 1.1.0 | tcltk | 4.4.0 |
teste isso | 3.2.1.1 | modelagem de texto | 0.4.0 | petiscar | 3.2.1 |
arrumado | 1.3.1 | seleção arrumada | 1.2.1 | tidyverso | 2.0.0 |
mudança de horário | 0.3.0 | Hora/Data | 4032,109 | tinytex | 0,52 |
Ferramentas | 4.4.0 | tzdb | 0.4.0 | verificador de URL | 1.0.1 |
use isso | 3.0.0 | utf 8 | 1.2.4 | utilidades | 4.4.0 |
uuid | 1,2-1 | V8 | 4.4.2 | vctrs | 0.6.5 |
Viridis Lite | 0.4.2 | vadouro | 1.6.5 | waldo | 0.5.2 |
bigode | 0.4.1 | murchar | 3.0.1 | diversão | 0,46 |
xml2 | 1.3.6 | xopen | 1.0.1 | x estável | 1,8-4 |
yaml | 2.3.10 | fanático | 0.1.0 | compactar | 2.3.1 |
Instalei Java e Scala biblioteca (versão de clusteringScala 2.12)
ID do grupo | ID do artefato | Versão |
---|---|---|
chifre | chifre | 2.7.7 |
com.amazonaws | Amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscale | 1,12.638 |
com.amazonaws | formação de nuvem aws-java-sdk | 1,12.638 |
com.amazonaws | aws-java-sdk-cloudfront | 1,12.638 |
com.amazonaws | aws-java-sdk-cloudhsm | 1,12.638 |
com.amazonaws | aws-java-sdk-cloudsearch | 1,12.638 |
com.amazonaws | aws-java-sdk-cloudtrail | 1,12.638 |
com.amazonaws | aws-java-sdk-cloudwatch | 1,12.638 |
com.amazonaws | métricas aws-java-sdk-cloudwatch | 1,12.638 |
com.amazonaws | aws-java-sdk-codedeploy | 1,12.638 |
com.amazonaws | identidade cognitiva aws-java-sdk | 1,12.638 |
com.amazonaws | aws-java-sdk-cognitosync | 1,12.638 |
com.amazonaws | aws-java-sdk-config | 1,12.638 |
com.amazonaws | aws-java-sdk-core | 1,12.638 |
com.amazonaws | pipeline de dados aws-java-sdk | 1,12.638 |
com.amazonaws | aws-java-sdk-conexão direta | 1,12.638 |
com.amazonaws | diretório aws-java-sdk | 1,12.638 |
com.amazonaws | aws-java-sdk-dynamodb | 1,12.638 |
com.amazonaws | aws-java-sdk-ec2 | 1,12.638 |
com.amazonaws | aws-java-sdk-ecs | 1,12.638 |
com.amazonaws | aws-java-sdk-efs | 1,12.638 |
com.amazonaws | aws-java-sdk-elasticache | 1,12.638 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1,12.638 |
com.amazonaws | balanceamento de carga elástico aws-java-sdk | 1,12.638 |
com.amazonaws | transcodificador elástico aws-java-sdk- | 1,12.638 |
com.amazonaws | aws-java-sdk-emr | 1,12.638 |
com.amazonaws | aws-java-sdk-glacier | 1,12.638 |
com.amazonaws | aws-java-sdk-glue | 1,12.638 |
com.amazonaws | aws-java-sdk-iam | 1,12.638 |
com.amazonaws | aws-java-sdk-importação/exportação | 1,12.638 |
com.amazonaws | aws-java-sdk-kinesis | 1,12.638 |
com.amazonaws | aws-java-sdk-kms | 1,12.638 |
com.amazonaws | aws-java-sdk-lambda | 1,12.638 |
com.amazonaws | aws-java-sdk-logs | 1,12.638 |
com.amazonaws | aws-java-sdk - aprendizado de máquina | 1,12.638 |
com.amazonaws | aws-java-sdk-opsworks | 1,12.638 |
com.amazonaws | aws-java-sdk-rds | 1,12.638 |
com.amazonaws | aws-java-sdk-redshift | 1,12.638 |
com.amazonaws | aws-java-sdk-route53 | 1,12.638 |
com.amazonaws | aws-java-sdk-s3 | 1,12.638 |
com.amazonaws | aws-java-sdk-ses | 1,12.638 |
com.amazonaws | aws-java-sdk-simpledb | 1,12.638 |
com.amazonaws | aws-java-sdk - fluxo de trabalho simples | 1,12.638 |
com.amazonaws | aws-java-sdk-sns | 1,12.638 |
com.amazonaws | aws-java-sdk-sqs | 1,12.638 |
com.amazonaws | aws-java-sdk-ssm | 1,12.638 |
com.amazonaws | gateway de armazenamento aws-java-sdk | 1,12.638 |
com.amazonaws | aws-java-sdk-sts | 1,12.638 |
com.amazonaws | suporte aws-java-sdk | 1,12.638 |
com.amazonaws | aws-java-sdk-swf-biblioteca | 1.11.22 |
com.amazonaws | aws-java-sdk-workspace | 1,12.638 |
com.amazonaws | jmespath-java | 1,12.638 |
com.clearspring.analítica | transmissão | 2.9.6 |
com.databricks | Reservar | 1,8-3 |
com.databricks | databricks-sdk-java | 0,27.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0,4,15-10 |
com.esotérico software | crio-sombreado | 4.0.2 |
com.esotérico software | minlog | 1.3.0 |
com.fasterxml | colega de classe | 1.3.4 |
com.fasterxml.jackson.core | jackson-anotação | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | vinculação de dados jackson | 2.15.2 |
formato de dados com.fasterxml.jackson. | formato de dados jackson-cbor | 2.15.2 |
formato de dados com.fasterxml.jackson. | formato de dados jackson-yaml | 2.15.2 |
com.fasterxml.jackson.tipo de dados | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.tipo de dados | jackson-datatype-jsr310 | 2.16.0 |
com.fasterxml.jackson.module | parâmetro do módulo jackson | 2.15.2 |
com.fasterxml.jackson.module | módulo jackson scala_2.12 | 2.15.2 |
com.github.ben-manes.cafeína | cafeína | 2.9.3 |
com.github.fommil | descarregador | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 - nativos |
com.github.fommil.netlib | sistema_nativo-java | 1.1 |
com.github.fommil.netlib | sistema_nativo-java | 1.1 - nativos |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1 - nativos |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1 - nativos |
com.github.luben | zstd-jni | 1,5,5-4 |
com.github.wendykierp | JTransforma | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | eu acho | 1.9.0 |
com.google.propenso a erros | anotações propensas a erros | 2.10.0 |
com.google.flatbuffers | tampões planos-java | 23,5,26 |
com.google.goiaba | goiaba | 15,0 |
com.google.protobuf | protobuf-java | 3.25.1 |
com.helger | perfilador | 1.1.1 |
com.ibm.icu | icu4j | 75,1 |
com.jcraft | jsch | 0,1,55 |
com.jolbox | bonecp | VERSÃO 0.8.0. |
com.lihaoyi | código-fonte_2.12 | 0.1.9 |
com.microsoft.azure | azure-data lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-JDBC | 11.2.2. jre8 |
comendo | comprimir-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.trunning | JSON | 1,8 |
com.thoughtworks.paranamer | paranâmero | 2.8 |
com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
com.Twitter | chill-java | 0.10.0 |
com.Twitter | chill_2.12 | 0.10.0 |
com.Twitter | util-app_2.12 | 7.1.0 |
com.Twitter | util-core_2.12 | 7.1.0 |
com.Twitter | função-útil_2.12 | 7.1.0 |
com.Twitter | util-jvm_2.12 | 7.1.0 |
com.Twitter | util-lint_2.12 | 7.1.0 |
com.Twitter | util-registry_2.12 | 7.1.0 |
com.Twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | configuração | 1.4.3 |
com.typesafe.Scala-logging | Scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocidade | analisadores de univocidade | 2.9.1 |
com.zaxxer | HikaricP | 4.0.3 |
comum-CLI | comum-CLI | 1.5.0 |
codec comum | codec comum | 1,16.0 |
coleções comuns | coleções comuns | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
upload de arquivo commons | upload de arquivo commons | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
linguagem comum | linguagem comum | 2.6 |
registro de bens comuns | registro de bens comuns | 1.1.3 |
comum-pool | comum-pool | 1.5.4 |
dev.ludovic.netlib | mochila | 3.0.3 |
dev.ludovic.netlib | blás | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io. airlift | compressor de ar | 0,27 |
io.delta | delta-compartilhamento-client_2.12 | 1.2.0 |
io.dropwizard.métricas | anotação de métricas | 4.2.19 |
io.dropwizard.métricas | núcleo de métricas | 4.2.19 |
io.dropwizard.métricas | métricas-grafite | 4.2.19 |
io.dropwizard.métricas | métricas-healthchecks | 4.2.19 |
io.dropwizard.métricas | métricas-jetty9 | 4.2.19 |
io.dropwizard.métricas | métricas-jmx | 4.2.19 |
io.dropwizard.métricas | métricas-JSON | 4.2.19 |
io.dropwizard.métricas | métricas-JVM | 4.2.19 |
io.dropwizard.métricas | métricas-servlets | 4.2.19 |
io.netty | tudo | 4.1.108. Final |
io.netty | netty-buffer | 4.1.108. Final |
io.netty | codec netty | 4.1.108. Final |
io.netty | netty-codec-http | 4.1.108. Final |
io.netty | netty-codec-http2 | 4.1.108. Final |
io.netty | netty-codec-socks | 4.1.108. Final |
io.netty | netty-common | 4.1.108. Final |
io.netty | manipulador de limpeza | 4.1.108. Final |
io.netty | proxy netty-handler | 4.1.108. Final |
io.netty | resolvedor de rede | 4.1.108. Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61. Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61. final-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61. Final-Linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61. Final-OSX-AARCH_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61. Final-OSX-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
io.netty | classes netty-tcnative | 2.0.61. Final |
io.netty | transporte de urtigas | 4.1.108. Final |
io.netty | netty-transport-classes-epoll | 4.1.108. Final |
io.netty | netty-transport-classes-kqueue | 4.1.108. Final |
io.netty | netty-transport-native-epoll | 4.1.108. Final |
io.netty | netty-transport-native-epoll | 4.1.108. final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.108. Final-Linux-RISCv64 |
io.netty | netty-transport-native-epoll | 4.1.108. Final-Linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.108. Final-OSX-AARCH_64 |
io.netty | netty-transport-native-kqueue | 4.1.108. Final-OSX-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.108. Final |
io. prometheus | cliente simples | 0.7.0 |
io. prometheus | simpleclient_common | 0.7.0 |
io. prometheus | simpleclient_dropwizard | 0.7.0 |
io. prometheus | gateway client_push simples | 0.7.0 |
io. prometheus | client_servlet simples | 0.7.0 |
io.prometheus.jmx | coletor | 0.12.0 |
jakarta.anotação | jakarta.anotação-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validação | jakarta.validação-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.ativação | ativação | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | API de transação | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolução | javolução | 5.5.1 |
junte-se | junte-se | 2.14.6 |
hora do dia | hora do dia | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | salmoura | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | supercsv | 2.2.0 |
net.snowflake | SDK de ingestão de flocos de neve | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | chá remoto - oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | modelo de string | 3.2.1 |
org.apache.ant | formiga | 1.10.11 |
org.apache.ant | formiga | 1.10.11 |
org.apache.ant | lançador de formigas | 1.10.11 |
org.apache.arrow | formato de seta | 15.0.0 |
org.apache.arrow | núcleo de memória de seta | 15.0.0 |
org.apache.arrow | rede de memória de seta | 15.0.0 |
org.apache.arrow | vetor de seta | 15.0.0 |
org.apache.avro | AVRO | 1.11.3 |
org.apache.avro | avro-ipc | 1.11.3 |
org.apache.avro | mapeado automaticamente | 1.11.3 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | compressa comum | 1,23,0 |
org.apache.commons | criptomoeda comum | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | texto comum | 1.10.0 |
org.apache.curator | curador-cliente | 2.13.0 |
org.apache.curator | estrutura de curador | 2.13.0 |
org.apache.curator | receitas de curadores | 2.13.0 |
org.apache.datasketches | esboços de dados-java | 3.1.0 |
org.apache.datasketches | memória de esboços de dados | 2.0.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | tempo de execução do cliente hadoop | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | colmeia-CLI | 2.3.9 |
org.apache.hive | hive-JDBC | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-lap-common | 2.3.9 |
org.apache.hive | colmeia | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | API de armazenamento em nuvem | 2.8.1 |
org.apache.hive.shims | calços de colmeia - 0,23 | 2.3.9 |
org.apache.hive.shims | calços de colmeia comuns | 2.3.9 |
org.apache.hive.shims | hive-shims-programador | 2.3.9 |
org.apache.httpcomponents | cliente http | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | hera | 2.5.2 |
org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
org.apache.logging.log4j | log4j-api | 2.22.1 |
org.apache.logging.log4j | log4j-core | 2.22.1 |
org.apache.logging.log4j | log4j-disposição-padrão-JSON | 2.22.1 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
org.apache.orc | núcleo orc | Protobuf 1.9.2 sombreado |
org.apache.orc | orc-mapreduce | Protobuf 1.9.2 sombreado |
org.apache.orc | calços de orc | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | núcleo do esquema xml | 2.3.0 |
org.apache.xbean | xbean-asm9-shaded | 4,23 |
org.apache.yetus | audiência-anotação | 0,13,0 |
org.apache.zookeeper | tratador | 3.9.2 |
org.apache.zookeeper | tratador de zoológico - juta | 3.9.2 |
org.checkerframework | xadrez igual | 3,31,0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | compilador common | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | núcleo de dados-api-jdo | 4.2.4 |
org.datanucleus | núcleo de dados | 4.1.17 |
org.datanucleus | núcleo de dados-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3,2,0-m3 |
org.Eclipse.collections | Eclipse-coleções | 11.1.0 |
org.Eclipse.collections | Eclipse-collections-api | 11.1.0 |
org.Eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.Eclipse.jetty | continuação do cais | 9.4.52.v20230823 |
org.Eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.Eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.Eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.Eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.Eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.Eclipse.jetty | segurança do cais | 9.4.52.v20230823 |
org.Eclipse.jetty | servidor jetty-server | 9.4.52.v20230823 |
org.Eclipse.jetty | jutty-servlet | 9.4.52.v20230823 |
org.Eclipse.jetty | píer de servlets | 9.4.52.v20230823 |
org.Eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.Eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.Eclipse.jetty | aplicativo web jetty- | 9.4.52.v20230823 |
org.Eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.Eclipse.jetty.websocket | API de websoquete | 9.4.52.v20230823 |
org.Eclipse.jetty.websocket | cliente websocket | 9.4.52.v20230823 |
org.Eclipse.jetty.websocket | websocket-comum | 9.4.52.v20230823 |
org.Eclipse.jetty.websocket | servidor websocket | 9.4.52.v20230823 |
org.Eclipse.jetty.websocket | servlet websocket | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-tudo | 1,8 |
org.glassfish.hk2 | API hk2 | 2.6.1 |
org.glassfish.hk2 | localizador hk2 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-recurso-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance - reembalado | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | servlet de contêiner de camisa | 2,40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2,40 |
org.glassfish.jersey.core | cliente de camisa | 2,40 |
org.glassfish.jersey.core | camiseta comum | 2,40 |
org.glassfish.jersey.core | servidor de camisa | 2,40 |
org.glassfish.jersey.inject | camiseta-hk2 | 2,40 |
org.hibernate.validator | validador de hibernação | 6.1.7. Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3,29,2 HA |
org.jboss.logging | registro de jboss-logging | 3.3.2. Final |
org.jdbi | jdbi | 2.63,1 |
org.jetbrains | anotação | 17.0.0 |
org.joda | conversor de joda | 1.7 |
org.jodd | núcleo nodular | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3,7,0-M11 |
org.json4s | json4s-core_2.12 | 3,7,0-M11 |
org.json4s | json4s-jackson_2.12 | 3,7,0-M11 |
org.json4s | json4s-scalap_2.12 | 3,7,0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | objênese | 2.5.1 |
org.postgresql | PostgreSQL | 42,6.1 |
org.roaringbitmap | Mapa de bits estrondoso | 0.9.45 - blocos de dados |
org.roaringbitmap | calços | 0.9.45 - blocos de dados |
org.rocksdb | rocksdbjni | 9.2.1 |
org.rosuda.rEngine | Motor | 2.1.0 |
org.Scala-lang | Scala-compiler_2.12 | 2.12.15 |
org.Scala-lang | Scala-library_2.12 | 2.12.15 |
org.Scala-lang | Scala-reflect_2.12 | 2.12.15 |
org.Scala-lang.modules | Scala-collection-compat_2.12 | 2.11.0 |
org.Scala-lang.modules | Scala-java8-compat_2.12 | 0.9.1 |
org.Scala-lang.modules | Scala-parser-combinators_2.12 | 1.1.2 |
org.Scala-lang.modules | Scala-xml_2.12 | 1.2.0 |
org.Scala-sbt | interface de teste | 1,0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.16 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | compatível com scalatest | 3.2.16 |
org.scalatest | scalatest-core_2.12 | 3.2.16 |
org.scalatest | diagramas de teste de escala_2.12 | 3.2.16 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
org.scalatest | scalatestfreespec_2.12 | 3.2.16 |
org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
org.scalatest | scalatest - deve corresponders_2.12 | 3.2.16 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
org.scalatest | scalatest_2.12 | 3.2.16 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-a-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1,7,25 |
org.threeten | treze e mais | 1.7.1 |
org.tukaani | xz | 1,9 |
org.typelevel | álgebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0,17.0 |
org.typelevel | spire-platform_2.12 | 0,17.0 |
org.typelevel | spire-util_2.12 | 0,17.0 |
org.typelevel | spire_2.12 | 0,17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3. Final |
org.xerial | sqlite-JDBC | 3,42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2,0 |
oro | oro | 2.0.8 |
pt.edu.icm | Matrizes JLarge | 1.5 |
software.Amazon.cryptools | Amazon Correcto Crypto Provider | 1.6.2-linux-x86_64 |
stax | stax-api | 1.0.1 |