Databricks Runtime 15,2 (EoS)
O suporte para essa versão do Databricks Runtime foi encerrado. Para saber a data do fim do suporte, consulte Histórico do fim do suporte. Para conhecer todas as versões compatíveis do site Databricks Runtime, consulte Databricks Runtime notas sobre versões e compatibilidade.
As notas a seguir sobre a versão fornecem informações sobre o site Databricks Runtime 15.2, alimentado por Apache Spark 3.5.0.
A Databricks lançou essa versão em maio de 2024.
Para ver as notas sobre a versão das versões do site Databricks Runtime que chegaram ao fim do suporte (EoS), consulte Fim do suporte Databricks Runtime notas sobre a versão. As versões do EoS Databricks Runtime foram retiradas e podem não ser atualizadas.
Mudanças comportamentais
vacuum Limpa os arquivos de metadados do site COPY INTO
Executar vacuum em uma tabela escrita com COPY INTO
agora limpa os metadados não referenciados associados ao acompanhamento de arquivos ingeridos. Não há impacto na semântica operacional do COPY INTO
.
a lakehouse Federation está geralmente disponível (GA)
No site Databricks Runtime 15.2 e posteriores, os conectores da Lakehouse Federation nos seguintes tipos de banco de dados estão geralmente disponíveis (GA):
- MySQL
- PostgreSQL
- Amazon Redshift
- Snowflake
- Microsoft SQL Server
- Azure Synapse (SQL Data Warehouse)
- Databricks
Esta versão também apresenta as seguintes melhorias:
-
Suporte para autenticação de logon único (SSO) nos conectores Snowflake e Microsoft SQL Server.
-
Suporte estável ao IP de saída em ambientes serverless compute . Consulte a Etapa 1: Crie uma configuração de conectividade de rede e copie os IPs estáveis.
-
Suporte a pushdowns adicionais (strings, matemática e funções diversas).
-
Taxa de sucesso de pushdown aprimorada em diferentes formas de consulta.
-
Recursos adicionais de depuração pushdown:
- A saída
EXPLAIN FORMATTED
exibe o texto da consulta pressionado. - A interface do usuário do perfil de consulta exibe o texto da consulta transferida, os identificadores de nós federados e os tempos de execução da consulta JDBC (no modo detalhado). Consulte visualizar consultas federadas geradas pelo sistema.
- A saída
BY POSITION
para mapeamento de colunas usando COPY INTO
com arquivos CSV sem cabeçalho
Em Databricks Runtime 15.2 e posteriores, o senhor pode usar as palavras BY POSITION
key (ou a sintaxe alternativa ( col_name [ , <col_name> ... ] )
) com COPY INTO
para arquivos CSV sem cabeçalho para simplificar o mapeamento da coluna de origem para a coluna da tabela de destino. Consulte Parâmetros.
Reduzir o consumo de memória quando a tarefa Spark falhar com um erro Resubmitted
Em Databricks Runtime 15.2 e posteriores, o valor de retorno do método Spark TaskInfo.accumulables()
fica vazio quando a tarefa falha com um erro Resubmitted
. Anteriormente, o método retornava os valores de uma tentativa anterior de tarefa bem-sucedida. Essa mudança de comportamento afeta os seguintes consumidores:
- Spark tarefa que usa a classe
EventLoggingListener
. - Ouvintes personalizados do Spark.
Para restaurar o comportamento anterior, defina spark.scheduler.dropTaskInfoAccumulablesOnTaskCompletion.enabled
como false
.
A visualização de versões adaptáveis do plano de execução de consultas está desativada
Para reduzir o consumo de memória, as versões do plano de execução de consulta adaptável (AQE) agora são desativadas pelo site default no site Spark UI. Para ativar a visualização das versões do plano AQE no site Spark UI, defina spark.databricks.sql.aqe.showPlanChangesInUI.enabled
como true
.
O limite de consultas retidas foi reduzido para diminuir o uso da memória do site Spark UI
Em Databricks Runtime 15.2 e posteriores, para reduzir a memória consumida pelo Spark UI em Databricks compute, o limite do número de consultas visíveis na UI foi reduzido de 1000 para 100. Para alterar o limite, defina um novo valor usando a configuração spark.sql.ui.retainedExecutions
Spark.
DESCRIBE HISTORY
agora mostra colunas de clustering para tabelas que usam clustering líquido
Quando o senhor executa uma consulta DESCRIBE HISTORY
, a coluna operationParameters
mostra um campo clusterBy
por default para as operações CREATE OR REPLACE
e OPTIMIZE
. Para uma tabela Delta que usa clustering líquido, o campo clusterBy
é preenchido com as colunas de clustering da tabela. Se a tabela não usar o clustering líquido, o campo estará vazio.
Novos recursos e melhorias
O suporte para chaves primárias e estrangeiras é GA
O suporte para chaves primárias e estrangeiras em Databricks Runtime está disponível de modo geral. A versão GA inclui as seguintes alterações nos privilégios necessários para usar chaves primárias e estrangeiras:
- Para definir um key estrangeiro, o senhor deve ter o privilégio
SELECT
na tabela com o key primário ao qual o key estrangeiro se refere. O senhor não precisa ser proprietário da tabela com o endereço primário key, o que era necessário anteriormente. - A eliminação de uma chave primária key usando a cláusula
CASCADE
não requer privilégios nas tabelas que definem a chave estrangeira que faz referência à chave primária key. Anteriormente, você precisava possuir as tabelas de referência. - A eliminação de uma tabela que inclui restrições agora exige os mesmos privilégios que a eliminação de tabelas que não incluem restrições.
Para saber como usar chaves primárias e estrangeiras com tabelas ou visualizações, consulte a cláusula CONSTRAINT, a cláusula ADD CONSTRAINT e a cláusula DROP CONSTRAINT.
Liquid clustering é GA
O suporte para o líquido clustering agora está disponível de forma geral usando o Databricks Runtime 15.2 e o acima. Consulte Usar clustering líquido para tabelas.
A ampliação de texto está na pré-visualização pública
Agora o senhor pode ativar a ampliação de tipos em tabelas apoiadas pelo Delta Lake. Tabelas com ampliação de tipo ativada permitem alterar o tipo de colunas para um tipo de dados mais amplo sem reescrever os arquivos de dados subjacentes. Consulte Ampliação de tipos.
A cláusula evolução do esquema foi adicionada ao site SQL merge syntax
Agora o senhor pode adicionar a cláusula WITH SCHEMA EVOLUTION
a uma declaração SQL merge para permitir a evolução do esquema para as operações. Consulte a sintaxe da evolução do esquema para merge.
PySpark fontes de dados personalizadas estão disponíveis em Public Preview
Um DataSource PySpark pode ser criado usando o DataSource Python (PySpark) API, que permite a leitura de fontes de dados personalizadas e a gravação em coletores de dados personalizados em Apache Spark usando Python. Consulte PySpark fonte de dados personalizada
As funções definidas pelo usuário (UDFs) agora estão disponíveis para instâncias do Graviton habilitadas para o Unity Catalog
Agora o senhor pode usar UDFs em instâncias do Graviton habilitadas para o Unity Catalog para salvar e reutilizar a lógica personalizada em Python e SQL. Consulte Funções definidas pelo usuário (UDFs) no Unity Catalog.
applyInPandas e mapInPandas agora disponíveis em Unity Catalog compute com modo de acesso compartilhado
Como parte de uma versão de manutenção Databricks Runtime 14.3 LTS, os tipos applyInPandas
e mapInPandas
UDF agora são compatíveis com o modo de acesso compartilhado compute executando Databricks Runtime 14.3 e acima.
Use dbutils.widgets.getAll () para obter todos os widgets em um Notebook
Use dbutils.widgets.getAll()
para obter todos os valores de widget em um Notebook. Isso é especialmente útil ao passar vários valores de widgets para uma consulta Spark SQL.
vacuum suporte de estoque
Agora o senhor pode especificar um inventário de arquivos a serem considerados ao executar o comando VACUUM
em uma tabela Delta. Consulte os documentos do OSS Delta.
Suporte para funções de compressão Zstandard
Agora você pode usar as funções zst_compress, zstd_decompress e try_zstd_decompress para compactar e descompactar BINARY
dados.
Correções de bugs
Os planos de consulta na interface do usuário do SQL agora são exibidos corretamente PhotonWriteStage
Quando exibido na UI SQL, o comando write
nos planos de consulta mostrava incorretamente PhotonWriteStage
como um operador. Com esta versão, a interface do usuário é atualizada para mostrar PhotonWriteStage
como um palco. Essa é apenas uma alteração na interface do usuário e não afeta a forma como as consultas são executadas.
O Ray foi atualizado para corrigir problemas com a inicialização do Ray clustering
Este lançamento inclui uma versão corrigida do Ray que corrige uma alteração que impede que o clustering do Ray seja iniciado com o Databricks Runtime for Machine Learning. Essa alteração garante que a funcionalidade do Ray seja idêntica às versões do Databricks Runtime anteriores à 15.2.
Classe de erro corrigida para as funções DataFrame.sort()
e DataFrame.sortWithinPartitions()
Esta versão inclui uma atualização das funções PySpark DataFrame.sort()
e DataFrame.sortWithinPartitions()
para garantir que a classe de erro ZERO_INDEX
seja lançada quando 0
for passado como argumento de índice. Anteriormente, a classe de erro INDEX_NOT_POSITIVE
era lançada.
ipywidgets foi rebaixado de 8.0.4 para 7.7.2
Para corrigir erros introduzidos por uma atualização do ipywidgets para a versão 8.0.4 no Databricks Runtime 15.0, o ipywidgets foi rebaixado para a versão 7.7.2 no Databricks Runtime 15.2. Essa é a mesma versão incluída nas versões anteriores do Databricks Runtime.
Atualizações da biblioteca
-
Atualizado Python biblioteca:
- GitPython a partir de 3.1.42 até 3.1.43
- google-api-core de 2.17.1 a 2.18.0
- google-auth de 2.28.1 a 2.29.0
- Google Cloud Storage De 2.15.0 para 2.16.0
- googleapis-common-protos de 1.62.0 a 1.63.0
- ipywidgets de 8.0.4 a 7.7.2
- mlflow-skinny de 2.11.1 a 2.11.3
- s3transfer de 0.10.0 para 0.10.1
- sqlparse de 0.4.4 a 0.5.0
- typing_extensions de 4.7.1 a 4.10.0
-
Biblioteca R atualizada:
-
Atualizado Java biblioteca:
- com.amazonaws.aws-java-sdk-autoscale de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-cloudformation de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-cloudfront de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-cloudhsm de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-cloudsearch de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-cloudtrail de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-cloudwatch de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-cloudwatchmetrics de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-codedeploy de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-cognitoidentity de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-cognitosync de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-config de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-core de 1.12.390 a 1.12.610
- pipeline de dados com.amazonaws.aws-java-sdk- de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-directconnect de 1.12.390 a 1.12.610
- diretório com.amazonaws.aws-java-sdk de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-dynamodb de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-ec2 de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-ecs de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-efs de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-elasticache de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-elasticbeanstalk de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-elasticloadbalancing de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-elastictranscoder de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-emr de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-glacier de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-glue de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-iam de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-importexport de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-kinesis de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-kms de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-lambda de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-logs de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-machinelearning de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-opsworks de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-rds de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-redshift de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-route53 de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-s3 de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-ses de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-simpledb de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-fluxo de trabalho simples de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-sns de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-sqs de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-ssm de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-storage gateway de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-sts de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-support de 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-workspace de 1.12.390 a 1.12.610
- com.amazonaws.jmespath-java de 1.12.390 a 1.12.610
Apache Spark
O Databricks Runtime 15.2 inclui o Apache Spark 3.5.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 15.1 (EoS), bem como as seguintes correções de bugs e melhorias adicionais feitas no Spark:
- [SPARK-47941] [SC-163568] [SS] [Conectar] Propagar erros de inicialização do ForeachBatch worker aos usuários para PySpark
- [SPARK-47412] [SC-163455] [sql] Adicionar suporte de agrupamento para LPad/RPad.
- [SPARK-47907] [SC-163408] [sql] Coloque bang sob uma configuração
- [SPARK-46820] [SC-157093][Python] Corrigir a regressão da mensagem de erro ao restaurar
new_msg
- [SPARK-47602] [SPARK-47577][spark-47598][SPARK-47577]Core/MLlib/recurso managers: structured logging migration
- [SPARK-47890] [SC-163324][connect][Python] Adicionar funções variantes a Scala e Python.
- [SPARK-47894] [SC-163086] [core] [WEBUI] Adicionar página
Environment
à interface principal - [SPARK-47805] [SC-163459] [ss] Implementando TTL para MapState
- [SPARK-47900] [SC-163326] Corrige a verificação do agrupamento implícito (UTF8_BINARY)
- [SPARK-47902] [SC-163316][sql]Tornar as expressões compute Current Time* dobráveis
- [SPARK-47845] [SC-163315][sql][Python][connect] Suporte ao tipo de coluna na função de divisão para Scala e Python
- [SPARK-47754] [SC-162144] [sql] Postgres: suporte à leitura de matrizes multidimensionais
- [SPARK-47416] [SC-163001] [sql] Adicionar novas funções ao CollationBenchmark #90339
- [SPARK-47839] [SC-163075] [sql] Corrige bug agregado em RewriteWithExpression
- [SPARK-47821] [SC-162967] [sql] Implemente a expressão is_variant_null
- [SPARK-47883] [SC-163184] [sql] Torne
CollectTailExec.doExecute
preguiçoso com RowQueue - [SPARK-47390] [SC-163306] [sql] O PostgresDialect distingue TIMESTAMP de TIMESTAMP_TZ
- [SPARK-47924] [SC-163282][core] Adicionar um DEBUG log ao
DiskStore.moveFileToBlock
- [SPARK-47897] [SC-163183] [sql] [3,5] Corrigir a regressão de desempenho do ExpressionSet em Scala 2.12
- [SPARK-47565] [SC-161786][Python] PySpark worker pool crash resilience
- [SPARK-47885] [SC-162989][Python][CONNECT] Tornar PySpark.recurso compatível com PySpark-connect
- [SPARK-47887] [SC-163122] [conectar] Remova a importação não utilizada
spark/connect/common.proto
despark/connect/relations.proto
- [SPARK-47751] [SC-161991][Python][CONNECT] Make PySpark.worker compatível com PySpark-connect
- [SPARK-47691] [SC-161760] [sql] Postgres: Suporte a matriz multidimensional no lado da gravação
- [SPARK-47617] [SC-162513] [sql] Adicionar infraestrutura de teste TPC-DS para agrupamentos
- [SPARK-47356] [SC-162858] [sql] Adicionar suporte para ConcatWS & Elt (todos os agrupamentos)
- [SPARK-47543] [SC-161234][connect][Python] Inferindo
dict
comoMapType
de Pandas DataFrame para permitir a criação de DataFrame - [SPARK-47863] [SC-162974] [sql] A correção começa com & termina com a implementação com reconhecimento de agrupamento para ICU
- [SPARK-47867] [SC-162966][sql] Variante de suporte na varredura JSON.
- [SPARK-47366] [SC-162475][sql][Python] Adicionar VariantVal para PySpark
- [SPARK-47803] [SC-162726] [sql] Suporta conversão para variante.
- [SPARK-47769] [SC-162841] [sql] Adicione a expressão schema_of_variant_agg.
- [SPARK-47420] [SC-162842] [sql] Corrigir saída de teste
- [SPARK-47430] [SC-161178] [sql] Suporte GROUP BY para MapType
- [SPARK-47357] [SC-162751] [sql] Adicionar suporte para Upper, Lower, InitCap (todos os agrupamentos)
- [SPARK-47788] [SC-162729][ss] Garantir o mesmo particionamento de hash para operações com estado de transmissão
- [SPARK-47776] [SC-162291][ss] Não permitir que o agrupamento de desigualdade binária seja usado no esquema key do operador com estado
- [SPARK-47673] [SC-162824] [ss] Implementando TTL para ListState
- [SPARK-47818] [SC-162845][connect] Introduzir o cache de planos no SparkConnectPlanner para melhorar o desempenho das solicitações do Analyze
- [SPARK-47694] [SC-162783] [conectar] Tornar o tamanho máximo da mensagem configurável no lado do cliente
- [SPARK-47274] Reverter "[SC-162479][Python][SQL] Fornecer mais informações úteis...
- [SPARK-47616] [SC-161193][sql] Adicionar documento do usuário para mapear tipos de dados Spark SQL do MySQL
- [SPARK-47862] [SC-162837][Python][CONNECT]Corrigir a geração de arquivos proto
- [SPARK-47849] [SC-162724][Python][CONNECT] Altere o script de liberação para liberar PySpark-connect
- [SPARK-47410] [SC-162518] [sql] Refatore UTF8String e CollationFactory
- [SPARK-47807] [SC-162505][Python][ML] Tornar PySpark.ml compatível com PySpark-connect
- [SPARK-47707] [SC-161768][sql] Tratamento especial do tipo JSON para o MySQL Connector/J 5.x
- [SPARK-47765] Reverter "[SC-162636][sql] Adicionar SET COLLATION a pars...
- [SPARK-47081] [SC-162151] [conectar] [FOLLOW] Melhorando a usabilidade do Progress Handler
- [SPARK-47289] [SC-161877][sql] Permitir que as extensões log informações estendidas no plano de explicação
- [SPARK-47274] [SC-162479][Python][SQL] Fornecer um contexto mais útil para os erros PySpark DataFrame API
- [SPARK-47765] [SC-162636][sql] Adicionar SET COLLATION às regras do analisador
- [SPARK-47828] [SC-162722][connect][Python]
DataFrameWriterV2.overwrite
fails with invalid plan - [SPARK-47812] [SC-162696][connect] Suporte à serialização de SparkSession para ForEachBatch worker
- [SPARK-47253] [SC-162698] [core] Permitir que o LiveEventBus pare sem esgotar completamente a fila de eventos
- [SPARK-47827] [SC-162625][Python] Avisos ausentes para recurso obsoleto
- [SPARK-47733] [SC-162628][ss] Adicionar métricas personalizadas para a parte do operador transformWithState do progresso da consulta
- [SPARK-47784] [SC-162623][ss] mesclar TTLMode e TimeoutMode em um único TimeMode.
- [SPARK-47775] [SC-162319] [sql] Ofereça suporte aos tipos escalares restantes na especificação da variante.
- [SPARK-47736] [SC-162503] [sql] Adicionar suporte para AbstractArrayType
- [SPARK-47081] [SC-161758] [connect] Progresso da execução da consulta de suporte
- [SPARK-47682] [SC-162138] [sql] Suporta transmissão a partir da variante.
- [SPARK-47802] [SC-162478] [sql] Reverter () do significado struct ( ) de volta ao significado *
- [SPARK-47680] [SC-162318] [sql] Adicione a expressão variant_explode.
- [SPARK-47809] [SC-162511] [sql]
checkExceptionInExpression
deve verificar o erro em cada modo codegen - [SPARK-41811] [SC-162470][Python][CONNECT] Implementar
SQLStringFormatter
comWithRelations
- [SPARK-47693] [SC-162326] [sql] Adicionar otimização para comparação em minúsculas de UTF8String usada no agrupamento UTF8_BINARY_LCASE
- [SPARK-47541] [SC-162006][sql] Collated strings in complex types supporting operations reverse, array_join, concat, map
- [SPARK-46812] [SC-161535][connect][Python] Fazer com que o mapInPandas / mapInArrow suporte o ResourceProfile
- [SPARK-47727] [SC-161982][Python] Tornar o SparkConf em nível de raiz para SparkSession e SparkContext
- [SPARK-47406] [SC-159376] [sql] Manipule TIMESTAMP e DATETIME no MySQLDialect
- [SPARK-47081] Reverter “[SC-161758] [conectar] Suporte à execução de consultas...
- [SPARK-47681] [SC-162043] [sql] Adicione a expressão schema_of_variant.
- [SPARK-47783] [SC-162222] Adicione alguns SQLStates ausentes e limpe o YY000 para usar...
- [SPARK-47634] [SC-161558][sql] Adicionar suporte legado para desativar o mapa key normalization
- [SPARK-47746] [SC-162022] Implemente a codificação de intervalo baseada em ordinais no RocksDBStateEncoder
- [SPARK-47285] [SC-158340] [sql] AdaptiveSparkPlanExec deve sempre usar o context.session
- [SPARK-47643] [SC-161534][ss][Python] Adicionar teste PySpark para a fonte de transmissão Python
- [SPARK-47582] [SC-161943][sql] Migrar o Catalyst logInfo com variáveis para a estrutura de registro estruturado
- [SPARK-47558] [SC-162007] [ss] Suporte TTL estadual para ValueState
- [SPARK-47358] [SC-160912] [sql] [COLLATION] Melhore o suporte à repetição de expressões para retornar o tipo de dados correto
- [SPARK-47504] [SC-162044] [sql] Resolver AbstractDataType SimpleStrings para StringTypeCollated
- [SPARK-47719] Reverter “[SC-161909] [sql] Altere spark.sql.legacy.t...
- [SPARK-47657] [SC-162010] [sql] Implemente o suporte push down do filtro de agrupamento por fonte de arquivo
- [SPARK-47081] [SC-161758] [connect] Progresso da execução da consulta de suporte
- [SPARK-47744] [SC-161999] Adicionar suporte para bytes com valor negativo no codificador de intervalo
- [SPARK-47713] [SC-162009][sql][CONNECT] Corrigir uma falha no autojoin
- [SPARK-47310] [SC-161930][ss] Adicionar micro-benchmark para merge operações para vários valores na parte de valor do armazenamento do estado
- [SPARK-47700] [SC-161774] [sql] Corrija a formatação de mensagens de erro com o TreeNode
- [SPARK-47752] [SC-161993][ps][CONNECT] Tornar PySpark.pandas compatível com PySpark-connect
- [SPARK-47575] [SC-161402][spark-47576][SPARK-47654] Implementar a API logWarning/logInfo na estrutura de registro estruturado
- [SPARK-47107] [SC-161201][ss][Python] Implementar leitor de partição para Python transmissão fonte de dados
- [SPARK-47553] [SC-161772][ss] Adicionar suporte Java para APIs do operador transformWithState
- [SPARK-47719] [SC-161909] [sql] Alterar spark.sql.legacy.TimeParserPolicy default para CORRECTED
- [SPARK-47655] [SC-161761] [ss] Integre o temporizador com o tratamento inicial do estado para state-v2
- [SPARK-47665] [SC-161550] [sql] Use SMALLINT para gravar ShortType no MYSQL
- [SPARK-47210] [SC-161777] [sql] Adição de conversão implícita sem suporte indeterminado
- [SPARK-47653] [SC-161767][ss] Adicionar suporte para tipos numéricos negativos e codificador de varredura de intervalo key
- [SPARK-46743] [SC-160777] [sql] Contar erro após dobramento constante
- [SPARK-47525] [SC-154568] [sql] Suporta junção de correlação de subconsultas em atributos do mapa
- [SPARK-46366] [SC-151277] [sql] Use a expressão WITH em BETWEEN para evitar expressões duplicadas
- [SPARK-47563] [SC-161183] [sql] Adicionar normalização de mapa na criação
- [SPARK-42040] [SC-161171][sql] SPJ: Introduzir uma nova API para a partição de entrada V2 para relatar as estatísticas da partição
- [SPARK-47679] [SC-161549][sql] Use
HiveConf.getConfVars
ou nomes de conf. do Hive diretamente - [SPARK-47685] [SC-161566] [sql] Restaure o suporte para o tipo
Stream
Dataset#groupBy
- [SPARK-47646] [SC-161352] [sql] Faça try_to_number retornar NULL para entrada malformada
- [SPARK-47366] [SC-161324][Python] Adicionar aliases PySpark e dataframe parse_json
- [SPARK-47491] [SC-161176] [core] Adicione
slf4j-api
jar ao caminho da classe primeiro antes dos outros do diretóriojars
- [SPARK-47270] [SC-158741][sql] dataset.isEmpty projeta CommandResults localmente
- [SPARK-47364] [SC-158927] [core] Faça
PluginEndpoint
avisar quando os plug-ins responderem a uma mensagem unidirecional - [SPARK-47280] [SC-158350] [sql] Remova a limitação de fuso horário para ORACLE TIMESTAMP WITH TIMEZONE
- [SPARK-47551] [SC-161542] [sql] Adicione a expressão variant_get.
- [SPARK-47559] [SC-161255] [sql] Suporte Codegen para variante
parse_json
- [SPARK-47572] [SC-161351] [sql] O Enforce Window PartitionSpec pode ser solicitado.
- [SPARK-47546] [SC-161241][sql] Melhorar a validação ao ler a variante do Parquet
- [SPARK-47543] [SC-161234][connect][Python] Inferindo
dict
comoMapType
de Pandas DataFrame para permitir a criação de DataFrame - [SPARK-47485] [SC-161194][sql][Python][connect] Criar coluna com collations em dataframe API
- [SPARK-47641] [SC-161376][sql] Melhorar o desempenho para
UnaryMinus
eAbs
- [SPARK-47631] [SC-161325] [sql] Remova o método
SQLConf.parquetOutputCommitterClass
não utilizado - [SPARK-47674] [SC-161504][core] Enable
spark.metrics.appStatusSource.enabled
by default - [SPARK-47273] [SC-161162][ss][Python] implementa a interface de gravação de transmissão de dados Python.
- [SPARK-47637] [SC-161408] [sql] Use ErrorCapturingIdentifier em mais lugares
- [SPARK-47497] Revert "Revert "[SC-160724][sql] Make to_csv support the output of array/struct/map/binary as pretty strings""
- [SPARK-47492] [SC-161316] [sql] Ampliar regras de espaço em branco no lexer
- [SPARK-47664] [SC-161475][Python][CONNECT] Validar o nome da coluna com o esquema em cache
- [SPARK-47638] [SC-161339] [ps] [CONNECT] Ignorar validação do nome da coluna no PS
- [SPARK-47363] [SC-161247][ss] Estado inicial sem implementação de leitor de estado para a API de estado v2.
- [SPARK-47447] [SC-160448][sql] Permitir a leitura do Parquet TimestampLTZ como TimestampNTZ
- [SPARK-47497] Revert "[SC-160724][sql] Make
to_csv
support the output ofarray/struct/map/binary
as pretty strings" - [SPARK-47434] [SC-160122] [webui] Corrige o link
statistics
emStreamingQueryPage
- [SPARK-46761] [SC-159045][sql] O site strings citado em um caminho JSON deve suportar caracteres ?
- [SPARK-46915] [SC-155729] [sql] Simplifique
UnaryMinus
Abs
e alinhe a classe de erro - [SPARK-47431] [SC-160919][sql] Adicionar nível de sessão default Collation
- [SPARK-47620] [SC-161242][Python][CONNECT] Adicionar uma função auxiliar para classificar colunas
- [SPARK-47570] [SC-161165] [ss] Integre as alterações do codificador de varredura de alcance com a implementação do cronômetro
- [SPARK-47497] [SC-160724][sql] Fazer com que
to_csv
suporte a saída dearray/struct/map/binary
como pretty strings - [SPARK-47562] [SC-161166] [conectar] Fator de manipulação literal a partir de
plan.py
- [SPARK-47509] [SC-160902] [sql] Bloquear expressões de subconsulta em funções lambda e de ordem superior
- [SPARK-47539] [SC-160750] [sql] Faça com que o valor de retorno do método
castToString
sejaAny => UTF8String
- [SPARK-47372] [SC-160905][ss] Adicionar suporte para codificador de estado baseado em varredura de alcance key para uso com o provedor de armazenamento do estado
- [SPARK-47517] [SC-160642][core][SQL] Preferir Utils.bytesToString para exibição do tamanho
- [SPARK-47243] [SC-158059][ss] Corrija o nome do pacote de
StateMetadataSource.scala
- [SPARK-47367] [SC-160913][Python][CONNECT] Suporte a Python fonte de dados com Spark Connect
- [SPARK-47521] [SC-160666] [core] Use
Utils.tryWithResource
durante a leitura aleatória de dados do armazenamento externo - [SPARK-47474] [SC-160522] [core] Reverta o SPARK-47461 e adicione alguns comentários
- [SPARK-47560] [SC-160914][Python][CONNECT] Evitar RPC para validar o nome da coluna com o esquema em cache
- [SPARK-47451] [SC-160749] [sql] Suporte to_json (variante).
- [SPARK-47528] [SC-160727] [sql] Adicionar suporte UserDefinedType ao DataTypeUtils.canWrite
- [SPARK-44708] Revert "[SC-160734][Python] Migrate test_reset_index assert_eq to use assertDataFrameEqual"
- [SPARK-47506] [SC-160740] [sql] Adicione suporte a todos os formatos de fonte de arquivo para tipos de dados agrupados
- [SPARK-47256] [SC-160784] [sql] Atribuir nomes às classes de erro _LEGACY_ERROR_TEMP_102 [4-7]
- [SPARK-47495] [SC-160720][core] Corrigir o jar de recurso primário adicionado ao spark.jars duas vezes no modo de clustering k8s
- [SPARK-47398] [SC-160572] [sql] Extraia uma característica para InMemoryTablesScanExec para permitir a extensão da funcionalidade
- [SPARK-47479] [SC-160623][sql] Otimizar não pode gravar dados em relações com erro de vários caminhos log
- [SPARK-47483] [SC-160629][sql] Adicionar suporte para agregação e join operações em arrays de collated strings
- [SPARK-47458] [SC-160237][core] Corrigir o problema com o cálculo da tarefa concorrente máxima para o estágio de barreira
- [SPARK-47534] [SC-160737] [sql] Mova
o.a.s.variant
parao.a.s.types.variant
- [SPARK-47396] [SC-159312] [sql] Adicione um mapeamento geral para TIME WITHOUT TIME ZONE ao TimestampNtzType
- [SPARK-44708] [SC-160734][Python] Migrar test_reset_index assert_eq para usar assertDataFrameEqual
- [SPARK-47309] [SC-157733][sc-160398][SQL] XML: Adicionar testes de inferência de esquema para tags de valor
- [SPARK-47007] [SC-160630] [sql] Adicione a expressão
MapSort
- [SPARK-47523] [SC-160645] [sql] Substitua o obsoleto
JsonParser#getCurrentName
porJsonParser#currentName
- [SPARK-47440] [SC-160635] [sql] Corrige o envio de sintaxe não suportada para o MSSQLServer
- [SPARK-47512] [SC-160617][ss] Tipo de tag operações usada com RocksDB armazenamento do estado instance lock acquisition/release
- [SPARK-47346] [SC-159425][Python] Tornar o modo daemon configurável ao criar o trabalhador do planejador Python
- [SPARK-47446] [SC-160163] [core] Faça
BlockManager
avisar antesremoveBlockInternal
- [SPARK-46526] [SC-156099] [sql] Suporta LIMIT em subconsultas correlacionadas em que os predicados fazem referência apenas à tabela externa
- [SPARK-47461] [SC-160297] [core] Remova a função privada
totalRunningTasksPerResourceProfile
deExecutorAllocationManager
- [SPARK-47422] [SC-160219][sql] Suporte a strings agrupadas em operações de matriz
- [SPARK-47500] [SC-160627][Python][CONNECT] Tratamento do nome da coluna do fator fora do
plan.py
- [SPARK-47383] [SC-160144] [core] Suporta a configuração
spark.shutdown.timeout
- [SPARK-47342] [SC-159049]Reverter "[SQL] Support TimestampNTZ for DB2 TIMESTAMP WITH TIME ZONE"
- [SPARK-47486] [SC-160491] [conectar] Remova o método
ArrowDeserializers.getString
privado não utilizado - [SPARK-47233] [SC-154486][connect][SS][2/2] Cliente & Lógica do servidor para o ouvinte de consulta de transmissão do lado do cliente
- [SPARK-47487] [SC-160534] [sql] Simplifique o código em uma coerção de tipo
- [SPARK-47443] [SC-160459] [sql] Suporte agregado de janelas para agrupamentos
- [SPARK-47296] [SC-160457] [sql] [AGRUPAMENTO] Falha em funções não suportadas para agrupamentos não binários
- [SPARK-47380] [SC-160164][connect] Certifique-se, no lado do servidor, de que a SparkSession é a mesma
- [SPARK-47327] [SC-160069][sql] Mover o teste de simultaneidade da chave de classificação para o CollationFactorySuite
- [SPARK-47494] [SC-160495][doc] Adicionar documento de migração para a mudança de comportamento da inferência de timestamp do Parquet desde o Spark 3.3
- [SPARK-47449] [SC-160372] [ss] Testes de refatoração e divisão de lista/temporizador
- [SPARK-46473] [SC-155663] [sql] Reutilize o método
getPartitionedFile
- [SPARK-47423] [SC-160068][sql] Collations - Definir suporte de operações para strings com collations
- [SPARK-47439] [SC-160115][Python] Documento Python fonte de dados API em API página de referência
- [SPARK-47457] [SC-160234][sql] Corrigir
IsolatedClientLoader.supportsHadoopShadedClient
para lidar com o Hadoop 3.4+ - [SPARK-47366] [SC-159348] [sql] Implemente parse_json.
- [SPARK-46331] [SC-152982] [sql] Removendo CodeGenFallback do subconjunto de expressões DateTime e expressão version ()
- [SPARK-47395] [SC-159404] Adicionar collate e collation a outras APIs
- [SPARK-47437] [SC-160117][Python][CONNECT] Corrija a classe de erro para
DataFrame.sort*
- [SPARK-47174] [SC-154483][connect][SS][1/2] SparkConnectListenerBusListener do lado do servidor para o ouvinte de consulta de transmissão do lado do cliente
- [SPARK-47324] [SC-158720][sql] Adicionar conversão de carimbo de data/hora ausente para tipos aninhados JDBC
- [SPARK-46962] [SC-158834][ss][Python] Adicionar interface para Python transmissão fonte de dados API e implementar Python worker para execução Python transmissão fonte de dados
- [SPARK-45827] [SC-158498] [sql] Mover verificações de tipo de dados para CreatableRelationProvider
- [SPARK-47342] [SC-158874] [sql] Suporte TimestampNTZ para DB2 TIMESTAMP COM FUSO HORÁRIO
- [SPARK-47399] [SC-159378] [sql] Desativar colunas geradas em expressões com agrupamentos
- [SPARK-47146] [SC-158247][core] Possível vazamento de thread ao fazer a classificação merge join
- [SPARK-46913] [SC-159149] [ss] Adicione suporte para temporizadores baseados em tempo de processamento/evento com o operador transformWithState
- [SPARK-47375] [SC-159063] [sql] Adicionar diretrizes para mapeamento de timestamp em
JdbcDialect#getCatalystType
- [SPARK-47394] [SC-159282] [sql] Suporte TIMESTAMP COM FUSO HORÁRIO para H2Dialect
- [SPARK-45827] Reverter “[SC-158498] [sql] Mova as verificações de tipo de dados para...
- [SPARK-47208] [SC-159279] [core] Permitir a substituição da memória de sobrecarga básica
- [SPARK-42627] [SC-158021][spark-26494][SQL] Suporte ao Oracle TIMESTAMP COM FUSO HORÁRIO LOCAL
- [SPARK-47055] [SC-156916][Python] Atualizar o MyPy 1.8.0
- [SPARK-46906] [SC-157205][ss] Adicionar uma verificação de mudança de operador com estado para transmissão
- [SPARK-47391] [SC-159283] [sql] Remova a solução alternativa do caso de teste para o JDK 8
- [SPARK-47272] [SC-158960][ss] Adicionar implementação do MapState para a API de estado v2.
- [SPARK-47375] [SC-159278][doc][FollowUp] Corrigir um erro na opção preferTimestampNTZ do JDBC doc
- [SPARK-42328] [SC-157363] [sql] Remova _LEGACY_ERROR_TEMP_1175 das classes de erro
- [SPARK-47375] [SC-159261][doc][FollowUp] Corrigir a descrição da opção preferTimestampNTZ no documento JDBC
- [SPARK-47344] [SC-159146] Estenda o erro INVALID_IDENTIFIER além de capturar '-' em um identificador sem aspas e corrija “IS! NULL” et al.
- [SPARK-47340] [SC-159039] [sql] Altere “agrupar” no nome do tipo StringType para minúsculas
- [SPARK-47087] [SC-157077][sql] Levantar a exceção do Spark com uma classe de erro na verificação do valor de configuração
- [SPARK-47327] [SC-158824] [sql] Corrija o problema de segurança de threads no ICU Collator
- [SPARK-47082] [SC-157058] [sql] Corrige condição de erro fora dos limites
- [SPARK-47331] [SC-158719][ss] Serialização usando classes de caso/primitivos/POJO com base no codificador SQL para a API de estado arbitrário v2.
- [SPARK-47250] [SC-158840][ss] Adicionar validações adicionais e alterações NERF para o provedor de estado RocksDB e uso de famílias de colunas
- [SPARK-47328] [SC-158745] [sql] Renomeie o agrupamento UCS_BASIC para UTF8_BINARY
- [SPARK-47207] [SC-157845] [core] Suporte
spark.driver.timeout
eDriverTimeoutPlugin
- [SPARK-47370] [SC-158956][doc] Adicionar documento de migração: Inferência de tipo TimestampNTZ em arquivos Parquet
- [SPARK-47309] [SC-158827] [sql] [XML] Adicionar testes de unidade de inferência de esquema
- [SPARK-47295] [SC-158850] [sql] Foi adicionado o ICU StringSearch para as funções
startsWith
eendsWith
- [SPARK-47343] [SC-158851][sql] Corrigir NPE quando o valor da variável
sqlString
é uma cadeia de caracteres nula na execução imediata - [SPARK-46293] [SC-150117][connect][Python] Usar dependência transitiva
protobuf
- [SPARK-46795] [SC-154143] [sql] Substitua
UnsupportedOperationException
porSparkUnsupportedOperationException
emsql/core
- [SPARK-46087] [SC-149023][Python] Sincronizar dependências de PySpark em documentos e requisitos de desenvolvimento
- [SPARK-47169] [SC-158848] [sql] Desativar o agrupamento em colunas agrupadas
- [SPARK-42332] [SC-153996] [sql] Alterando o requisito para um SparkException em ComplexTypeMergingExpression
- [SPARK-45827] [SC-158498] [sql] Mover verificações de tipo de dados para CreatableRelationProvider
- [SPARK-47341] [SC-158825][connect] Substituir comando por relações em alguns testes no SparkConnectClientSuite
- [SPARK-43255] [SC-158026] [sql] Substitua a classe de erro _LEGACY_ERROR_TEMP_2020 por um erro interno
- [SPARK-47248] [SC-158494][sql][COLLATION] Suporte aprimorado à função de cadeias de caracteres: contains
- [SPARK-47334] [SC-158716] [sql] Faça com que
withColumnRenamed
reutilize a implementação dowithColumnsRenamed
- [SPARK-46442] [SC-153168] [sql] O DS V2 suporta push down PERCENTILE_CONT e PERCENTILE_DISC
- [SPARK-47313] [SC-158747][sql] Adicionado Scala.MatchError manipulação dentro de QueryExecution.toInternalError
- [SPARK-45827] [SC-158732][sql] Adicionar tipo de variante de singleton para Java
- [SPARK-47337] [SC-158743][sql][Docker] Atualize a versão do DB2 Docker Image para 11.5.8.0
- [SPARK-47302] [SC-158609] [sql] Coletar palavra-chave como identificador
- [SPARK-46817] [SC-154196][core] Corrija o uso do
spark-daemon.sh
adicionando o comandodecommission
- [SPARK-46739] [SC-153553] [sql] Adicionar a classe de erro
UNSUPPORTED_CALL
- [SPARK-47102] [SC-158253] [sql] Adicione o sinalizador de configuração
COLLATION_ENABLED
- [SPARK-46774] [SC-153925][sql][AVRO] Usar mapreduce.output.fileoutputformat.compress em vez do obsoleto mapred.output.compress no trabalho de gravação Avro
- [SPARK-45245] [SC-146961][Python][CONNECT] PythonWorkerFactory: Tempo limite se worker não se conectar novamente.
- [SPARK-46835] [SC-158355][sql][Colocações] suporte de junção para colocações não binárias
- [SPARK-47131] [SC-158154][sql][COLLATION] suporte à função de cadeias de caracteres: contains, startswith, endswith
- [SPARK-46077] [SC-157839] [sql] Considere o tipo gerado pelo TimestampNtzConverter em jdbcDialect.compileValue.
- [SPARK-47311] [SC-158465][sql][Python] Suprimir exceções de Python quando PySpark não estiver no caminho Python
- [SPARK-47319] [SC-158599] [sql] Melhore o cálculo de entradas ausentes
- [SPARK-47316] [SC-158606] [sql] Corrigir timestampNTZ na matriz Postgres
- [SPARK-47268] [SC-158158] [sql] [Agrupamentos] Suporte para repartição com agrupamentos
- [SPARK-47191] [SC-157831][sql] Evite a pesquisa de relação desnecessária ao liberar a tabela/view
- [SPARK-47168] [SC-158257][sql] Desativar o pushdown do filtro Parquet ao trabalhar com o default não agrupado strings
- [SPARK-47236] [SC-158015] [core] Corrija
deleteRecursivelyUsingJavaIO
para ignorar a entrada de arquivo não existente - [SPARK-47238] [SC-158466][sql] Reduzir o uso de memória do executor tornando o código gerado no WSCG uma variável de transmissão
- [SPARK-47249] [SC-158133] [connect] Corrige bug em que todas as execuções de conexão são consideradas abandonadas, independentemente de seu status real
- [SPARK-47202] [SC-157828][Python] Corrigir erro de digitação ao quebrar datetimes com tzinfo
- [SPARK-46834] [SC-158139] [sql] [Agrupamentos] Suporte para agregados
- [SPARK-47277] [SC-158351] [3,5] PySpark A função util assertDataFrameEqual não deve suportar a transmissão DF
- [SPARK-47155] [SC-158473][Python] Corrigir problema de classe de erro
- [SPARK-47245] [SC-158163] [sql] Melhore o código de erro para INVALID_PARTITION_COLUMN_DATA_TYPE
- [SPARK-39771] [SC-158425] [core] Adicione uma mensagem de aviso em
Dependency
quando um número muito grande de blocos aleatórios precisar ser criado. - [SPARK-47277] [SC-158329] PySpark A função util assertDataFrameEqual não deve suportar a transmissão DF
- [SPARK-47293] [SC-158356] [core] Crie batchSchema com SparkSchema em vez de anexar um por um
- [SPARK-46732] [SC-153517] [connect] Faça o thread de subconsulta/transmissão funcionar com o gerenciamento de artefatos do Connect
- [SPARK-44746] [SC-158332][Python] Adicionar mais documentação Python UDTF para funções que aceitam tabelas de entrada
- [SPARK-47120] [SC-157517][sql] O filtro de dados push down de comparação nula da subconsulta produz NPE no filtro Parquet
- [SPARK-47251] [SC-158291][Python] Bloquear tipos inválidos do argumento
args
para o comandosql
- [SPARK-47251] Reverter "[SC-158121][Python] Bloquear tipos inválidos do argumento
args
parasql
comando". - [SPARK-47015] [SC-157900] [sql] Desativar o particionamento em colunas agrupadas
- [SPARK-46846] [SC-154308] [core] Faça com que
WorkerResourceInfo
estendaSerializable
explicitamente - [SPARK-46641] [SC-156314][ss] Adicionar limite maxBytesPerTrigger
- [SPARK-47244] [SC-158122] [connect]
SparkConnectPlanner
torna as funções internas privadas - [SPARK-47266] [SC-158146] [conectar] Faça com que
ProtoUtils.abbreviate
retorne o mesmo tipo da entrada - [SPARK-46961] [SC-158183] [ss] Usando ProcessorContext para armazenar e recuperar o identificador
- [SPARK-46862] [SC-154548][sql] Desativar a poda de coluna CSV no modo multilinha
- [SPARK-46950] [SC-155803][core][SQL] Alinhar
not available codec
classe de erro - [SPARK-46368] [SC-153236][core] Suporte
readyz
na API de envio REST - [SPARK-46806] [SC-154108][Python] Melhorar a mensagem de erro para spark.table quando o tipo de argumento estiver errado
- [SPARK-47211] [SC-158008][connect][Python] Corrigir o agrupamento ignorado das strings do PySpark Connect
- [SPARK-46552] [SC-151366] [sql] Substitua
UnsupportedOperationException
porSparkUnsupportedOperationException
emcatalyst
- [SPARK-47147] [SC-157842][Python][SQL] Corrigir o erro de conversão de strings agrupadas do PySpark
- [SPARK-47144] [SC-157826][connect][SQL][Python] Corrija o erro de agrupamento do Spark Connect adicionando o campo collateId protobuf
- [SPARK-46575] [SC-153200] [sql] [HIVE] Faça hiveThriftServer 2. StartWithContext Desenvolva uma API recuperável e corrija a fragilidade do ThriftServer com SparkContext no HttpSuite
- [SPARK-46696] [SC-153832] [core] No ResourceProfileManager, as chamadas de função devem ocorrer após as declarações de variáveis
- [SPARK-47214] [SC-157862][Python] Criar UDTF API para o método 'analyze' para diferenciar argumentos NULL constantes e outros tipos de argumentos
- [SPARK-46766] [SC-153909][sql][AVRO] Suporte ao Buffer pool do ZSTD para a fonte de dados AVRO
- [SPARK-47192] [SC-157819] Converta alguns erros _LEGACY_ERROR_TEMP_0035
- [SPARK-46928] [SC-157341][ss] Adicionar suporte para ListState na API de estado arbitrário v2.
- [SPARK-46881] [SC-154612] [core] Suporte
spark.deploy.workerSelectionPolicy
- [SPARK-46800] [SC-154107] [core] Suporte
spark.deploy.spreadOutDrivers
- [SPARK-45484] [SC-146014][sql] Corrigir o bug que usa o codec de compactação Parquet incorreto lz4raw
- [SPARK-46791] [SC-154018][sql] Suporte a Java Set em JavaTypeInference
- [SPARK-46332] [SC-150224] [sql] Migrar
CatalogNotFoundException
para a classe de erroCATALOG_NOT_FOUND
- [SPARK-47164] [SC-157616][sql] Fazer com que o valor padrão do tipo mais amplo e literal estreito da v2 se comporte da mesma forma que a v1
- [SPARK-46664] [SC-153181][core] Melhorar
Master
para se recuperar rapidamente em caso de zero worker e aplicativos - [SPARK-46759] [SC-153839][sql][AVRO] Codec xz e zstandard suportam nível de compressão para arquivos avro
Suporte ao driver ODBC/JDBC da Databricks
A Databricks oferece suporte a drivers ODBC/JDBC lançados nos últimos 2 anos. Faça o download dos drivers lançados recentemente e da atualização do site (download ODBC, download JDBC).
Consulte as atualizações de manutenção do Databricks Runtime 15.2.
Ambiente do sistema
- Sistema operacional : Ubuntu 22.04.4 LTS
- Java : Zulu 8.74.0.17-CA-linux64
- Scala : 2.12.15
- Python : 3.11.0
- R : 4.3.2
- Delta Lake : 3.2.0
Instalado Python biblioteca
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
asttokens | 2.0.5 | atunparse | 1.6.3 | núcleo do azure | 1.30,1 |
azure-storage-blob | 12.19.1 | azure-storage-file-datalake | 12,14.0 | chamada de volta | 0.2.0 |
preto | 23,3,0 | pisca-pisca | 1.4 | boto3 | 1,34,39 |
botocore | 1,34,39 | ferramentas de cache | 5.3.3 | certifi | 2023,7,22 |
caffi | 1.15.1 | chardet | 4.0.0 | normalizador de conjuntos de caracteres | 2.0.4 |
clique | 8.0.4 | salmoura | 2.2.1 | comunicações | 0.1.2 |
contornar | 1.0.5 | criptografia | 41,0.3 | ciclador | 0.11.0 |
Cython | 0,29,32 | databricks-sdk | 0,20,0 | dbus-Python | 1.2.18 |
depurar | 1.6.7 | decorador | 5.1.1 | distlib | 0.3.8 |
pontos de entrada | 0,4 | execução | 0,8.3 | visão geral das facetas | 1.1.1 |
bloqueio de arquivo | 3.13.1 | ferramentas de fonte | 4,25.0 | gitdb | 4.0.11 |
GitPython | 3.1.43 | google-api-core | 2.18.0 | autenticação do Google | 2.29.0 |
google-cloud-core | 2.4.1 | Google Cloud Storage | 2.16.0 | google-crc32c | 1.5.0 |
mídia retomável do Google | 2.7.0 | googleapis-common-protos | 1,63,0 | grócio | 1,60,0 |
status de grpcio | 1,60,0 | httplib2 | 0,20.2 | Índia | 3.4 |
importlib-metadados | 6.0.0 | núcleo ipyflow | 0,0.198 | ipykernel | 6.25.1 |
ipython | 8.15.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
isodato | 0.6.1 | jedi | 0,18.1 | jeepney | 0.7.1 |
jmespath | 0.10.0 | joblib | 1.2.0 | jupyter_client | 7.4.9 |
jupyter_core | 5.3.0 | chaveiro | 23,5,0 | solucionador de kiwi | 1.4.4 |
launchpadlib | 1,10,16 | lazr.restfulclient | 0,14.4 | lazr.uri | 1.0.6 |
Matplotlib | 3.7.2 | matplotlib-inline | 0.1.6 | malflow-skinny | 2.11.3 |
mais ferramentas de iteração | 8.10.0 | extensões mypy | 0.4.3 | nest-assíncio | 1.5.6 |
entorpecido | 1,23,5 | oauthlib | 3.2.0 | fazendo às malas | 23,2 |
Pandas | 1.5.3 | parso | 0,8.3 | especificação do caminho | 0.10.3 |
bode expiatório | 0.5.3 | esperar | 4.8.0 | picles | 0.7.5 |
Travesseiro | 9.4.0 | pip | 23.2.1 | platformdirs | 3.10.0 |
Plotly | 5.9.0 | kit de ferramentas de aviso | 3,0,36 | proto-plus | 1,23,0 |
protobuf | 4.24.1 | pistila | 5.9.0 | psycopg2 | 2.9.3 |
processo pty | 0.7.0 | avaliação pura | 0.2.2 | flecha | 14,0.1 |
pyasn1 | 0.4.8 | módulos pyasn1 | 0.2.8 | piccolo | 0,0,52 |
pycparser | 2,21 | pidântico | 1.10.6 | Pigmentos | 2.15.1 |
Objeto PYG | 3,42,1 | PyJWT | 2.3.0 | pyodbc | 4,0,38 |
análise de pipa | 3.0.9 | Python-dateutil | 2.8.2 | Python-lsp-jsonrpc | 1.1.1 |
pytz | 2022,7 | PyYAML | 6,0 | pizma | 23.2,0 |
pedidos | 2,31,0 | rsa | 4,9 | transferência s3 | 0.10.1 |
scikit-learn | 1.3.0 | pegajoso | 1.11.1 | marítimo | 0.12.2 |
Armazenamento secreto | 3.3.1 | ferramentas de configuração | 68,0,0 | seis | 1,16.0 |
tapa | 5.0.1 | sqlparse | 0.5.0 | ID de importação ssh | 5,11 |
dados de pilha | 0.2.0 | modelos de estatísticas | 0.14.0 | tenacidade | 8.2.2 |
threadpool ctl | 2.2.0 | tokenizar-rt | 4.2.1 | tornado | 6.3.2 |
almôndegas | 5.7.1 | extensões_de digitação | 4.10.0 | tzdata | 2022,1 |
junhão | 5.4.0 | atualizações autônomas | 0,1 | urllib3 | 1,26,16 |
ambiente virtual | 20.24.2 | wadlib | 1.3.6 | largura do wc | 0.2.5 |
Python wheel | 0,38,4 | zíper | 3.11.0 |
Instalada a R biblioteca
As bibliotecas R são instaladas a partir do pacote Posit Manager CRAN Snapshot.
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
flecha | 14.0.0.2 | askpass | 1.2.0 | afirme que | 0.2.1 |
portas traseiras | 1.4.1 | base | 4.3.2 | base64enc | 0,1-3 |
Grande D | 0.2.0 | pouco | 4.0.5 | bit64 | 4.0.5 |
bitops | 1,0-7 | bolha | 1.2.4 | inicialização | 1,3-28 |
fermentar | 1,0-10 | brio | 1.1.4 | vassoura | 1.0.5 |
babião | 0.6.1 | cachem | 1,0.8 | chamador | 3.7.3 |
cursor | 6,0-94 | guarda de celas | 1.1.0 | crono | 2,3-61 |
Aula | 7,3-22 | CLIPE | 3.6.2 | clipe | 0,8.0 |
relógio | 0.7.0 | Cluster | 2.1.4 | ferramentas de código | 0,2-19 |
espaço de cores | 2,1-0 | marca comum | 1.9.1 | compilador | 4.3.2 |
configuração | 0.3.2 | em conflito | 1.2.0 | cpp11 | 0.4.7 |
giz de cera | 1.5.2 | Credenciais | 2.0.1 | cacho | 5.2.0 |
data.tabela | 1,15.0 | conjunto de dados | 4.3.2 | DBI | 1.2.1 |
dbplyr | 2.4.0 | desc | 1.4.3 | ferramentas de desenvolvimento | 2.4.5 |
diagrama | 1.6.5 | diff | 0.3.5 | digerir | 0,6,34 |
iluminado | 0.4.3 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
e1071 | 1,7-14 | reticências | 0.3.2 | avalie | 0,23 |
fansi | 1.0.6 | colorista | 2.1.1 | mapa rápido | 1.1.1 |
fontawesome | 0.5.2 | para gatos | 1.0.0 | para cada um | 1.5.2 |
estrangeira | 0,8-85 | forjar | 0.2.0 | fs | 1.6.3 |
futuro | 1.33.1 | futuro.aplique | 1.11.1 | gargarejar | 1.5.2 |
genéricas | 0.1.3 | obter | 2.0.1 | ggplot2 | 3.4.4 |
gh | 1.4.0 | git2r | 0,33,0 | gitcreds | 0.1.2 |
glmnet | 4,1-8 | globais | 0,16.2 | cola | 1.7.0 |
google drive | 2.1.1 | planilhas do Google 4 | 1.1.1 | goleiro | 1.0.1 |
gráficos | 4.3.2 | Dispositivos GR | 4.3.2 | grade | 4.3.2 |
Grid Extra | 2.3 | gsubfn | 0,7 | gt | 0.10.1 |
mesa | 0.3.4 | capacete | 1.3.1 | refúgio | 2.5.4 |
mais alto | 0,10 | HMS | 1.1.3 | ferramentas html | 0.5.7 |
widgets html | 1.6.4 | http.uv | 1.6.14 | httr | 1.4.7 |
httr2 | 1.0.0 | IDs | 1.0.1 | mini | 0.3.1 |
ipred | 0,9-14 | isóbanda | 0.2.7 | iteradores | 1,0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.8 | suco suculento | 0.1.0 |
Kern Smooth | 2,23-21 | tricotar | 1,45 | rótulo | 0.4.3 |
posteriormente | 1.3.2 | treliça | 0,21-8 | lava | 1.7.3 |
ciclo de vida | 1.0.4 | ouvindo | 0.9.1 | lubrificar | 1.9.3 |
magritter | 2.0.3 | Markdown | 1,12 | MASSA | 7,3-60 |
Matriz | 1,5-4,1 | memoise | 2.0.1 | métodos | 4.3.2 |
mgcv | 1,8-42 | mímica | 0,12 | Mini UI | 0.1.1.1 |
MLflow | 2.10.0 | Métricas do modelo | 1.2.2.2 | modelar | 0.1.11 |
munsell | 0.5.0 | nome | 3,1-163 | net | 7,3-19 |
Número Deriv | 2016,8-1,1 | openssl | 2.1.1 | paralelo | 4.3.2 |
paralelamente | 1,36,0 | pilar | 1.9.0 | pkgbuild | 1.4.3 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | carregamento de pacotes | 1.3.4 |
plogr | 0.2.0 | plyr | 1.8.9 | elogio | 1.0.0 |
unidades bonitas | 1.2.0 | ProC | 1,18.5 | processa | 3.8.3 |
prodlim | 2023,08,28 | profvis | 0.3.8 | progresso | 1.2.3 |
progressista | 0.14.0 | promessas | 1.2.1 | proto | 1.0.0 |
proxy | 0,4-27 | ps | 1.7.6 | ronronar | 1.0.2 |
R6 | 2.5.1 | trapo | 1.2.7 | Floresta aleatória | 4,7-1,1 |
corredeiras | 0.3.3 | rcmdcheck | 1.4.0 | Cervejaria RColor | 1,1-3 |
Rcpp | 1.0.12 | RCP Pegen | 0.3.3.9.4 | reagível | 0.4.4 |
Reator R | 0.5.0 | leitor | 2.1.5 | readxl | 1.4.3 |
receitas | 1.0.9 | revanche | 2.0.0 | revanche 2 | 2.1.2 |
controles remotos | 2.4.2.1 | reprex | 2.1.0 | remodelar 2 | 1.4.4 |
rlang | 1.1.3 | rmarkdown | 2,25 | RODBC | 1,3-23 |
roxigênio2 | 7.3.1 | rpartem | 4.1.21 | rprojroot | 2.0.4 |
Reservar | 1,8-13 | RSQLite | 2.3.5 | API do estúdio | 0,15.0 |
reversões | 2.1.2 | colete | 1.0.3 | atrevimento | 0.4.8 |
escala | 1.3.0 | seletor | 0,4-2 | informações da sessão | 1.2.2 |
forma | 1.4.6 | brilhante | 1.8.0 | ferramentas de origem | 0,1,7-1 |
Sparklyr | 1.8.4 | espacial | 7,3-15 | splines | 4.3.2 |
sqldf | 0,4-11 | QUADRADO | 2021,1 | estatísticas | 4.3.2 |
estatísticas4 | 4.3.2 | stringi | 1.8.3 | longarina | 1.5.1 |
sobrevivência | 3,5-5 | arrogância | 3.33.1 | diz | 3.4.2 |
fontes do sistema | 1.0.5 | tcltk | 4.3.2 | teste isso | 3.2.1 |
modelagem de texto | 0.3.7 | petiscar | 3.2.1 | arrumado | 1.3.1 |
seleção arrumada | 1.2.0 | tidyverso | 2.0.0 | mudança de horário | 0.3.0 |
Hora/Data | 4032,109 | tinytex | 0,49 | Ferramentas | 4.3.2 |
tzdb | 0.4.0 | verificador de URL | 1.0.1 | use isso | 2.2.2 |
utf 8 | 1.2.4 | utilidades | 4.3.2 | uuid | 1,2-0 |
V8 | 4.4.1 | vctrs | 0.6.5 | Viridis Lite | 0.4.2 |
vadouro | 1.6.5 | waldo | 0.5.2 | bigode | 0.4.1 |
murchar | 3.0.0 | diversão | 0,41 | xml2 | 1.3.6 |
xopen | 1.0.0 | x estável | 1,8-4 | yaml | 2.3.8 |
fanático | 0.1.0 | compactar | 2.3.1 |
Instalei Java e Scala biblioteca (versão de clusteringScala 2.12)
ID do grupo | ID do artefato | Versão |
---|---|---|
chifre | chifre | 2.7.7 |
com.amazonaws | Amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscale | 1,12.610 |
com.amazonaws | formação de nuvem aws-java-sdk | 1,12.610 |
com.amazonaws | aws-java-sdk-cloudfront | 1,12.610 |
com.amazonaws | aws-java-sdk-cloudhsm | 1,12.610 |
com.amazonaws | aws-java-sdk-cloudsearch | 1,12.610 |
com.amazonaws | aws-java-sdk-cloudtrail | 1,12.610 |
com.amazonaws | aws-java-sdk-cloudwatch | 1,12.610 |
com.amazonaws | métricas aws-java-sdk-cloudwatch | 1,12.610 |
com.amazonaws | aws-java-sdk-codedeploy | 1,12.610 |
com.amazonaws | identidade cognitiva aws-java-sdk | 1,12.610 |
com.amazonaws | aws-java-sdk-cognitosync | 1,12.610 |
com.amazonaws | aws-java-sdk-config | 1,12.610 |
com.amazonaws | aws-java-sdk-core | 1,12.610 |
com.amazonaws | pipeline de dados aws-java-sdk | 1,12.610 |
com.amazonaws | aws-java-sdk-conexão direta | 1,12.610 |
com.amazonaws | diretório aws-java-sdk | 1,12.610 |
com.amazonaws | aws-java-sdk-dynamodb | 1,12.610 |
com.amazonaws | aws-java-sdk-ec2 | 1,12.610 |
com.amazonaws | aws-java-sdk-ecs | 1,12.610 |
com.amazonaws | aws-java-sdk-efs | 1,12.610 |
com.amazonaws | aws-java-sdk-elasticache | 1,12.610 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1,12.610 |
com.amazonaws | balanceamento de carga elástico aws-java-sdk | 1,12.610 |
com.amazonaws | transcodificador elástico aws-java-sdk- | 1,12.610 |
com.amazonaws | aws-java-sdk-emr | 1,12.610 |
com.amazonaws | aws-java-sdk-glacier | 1,12.610 |
com.amazonaws | aws-java-sdk-glue | 1,12.610 |
com.amazonaws | aws-java-sdk-iam | 1,12.610 |
com.amazonaws | aws-java-sdk-importação/exportação | 1,12.610 |
com.amazonaws | aws-java-sdk-kinesis | 1,12.610 |
com.amazonaws | aws-java-sdk-kms | 1,12.610 |
com.amazonaws | aws-java-sdk-lambda | 1,12.610 |
com.amazonaws | aws-java-sdk-logs | 1,12.610 |
com.amazonaws | aws-java-sdk - aprendizado de máquina | 1,12.610 |
com.amazonaws | aws-java-sdk-opsworks | 1,12.610 |
com.amazonaws | aws-java-sdk-rds | 1,12.610 |
com.amazonaws | aws-java-sdk-redshift | 1,12.610 |
com.amazonaws | aws-java-sdk-route53 | 1,12.610 |
com.amazonaws | aws-java-sdk-s3 | 1,12.610 |
com.amazonaws | aws-java-sdk-ses | 1,12.610 |
com.amazonaws | aws-java-sdk-simpledb | 1,12.610 |
com.amazonaws | aws-java-sdk - fluxo de trabalho simples | 1,12.610 |
com.amazonaws | aws-java-sdk-sns | 1,12.610 |
com.amazonaws | aws-java-sdk-sqs | 1,12.610 |
com.amazonaws | aws-java-sdk-ssm | 1,12.610 |
com.amazonaws | gateway de armazenamento aws-java-sdk | 1,12.610 |
com.amazonaws | aws-java-sdk-sts | 1,12.610 |
com.amazonaws | suporte aws-java-sdk | 1,12.610 |
com.amazonaws | aws-java-sdk-swf-biblioteca | 1.11.22 |
com.amazonaws | aws-java-sdk-workspace | 1,12.610 |
com.amazonaws | jmespath-java | 1,12.610 |
com.clearspring.analítica | transmissão | 2.9.6 |
com.databricks | Reservar | 1,8-3 |
com.databricks | databricks-sdk-java | 0,17.1 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | plugin_2.12 do compilador | 0,4,15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0,4,15-10 |
com.esotérico software | crio-sombreado | 4.0.2 |
com.esotérico software | minlog | 1.3.0 |
com.fasterxml | colega de classe | 1.3.4 |
com.fasterxml.jackson.core | jackson-anotação | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | vinculação de dados jackson | 2.15.2 |
formato de dados com.fasterxml.jackson. | formato de dados jackson-cbor | 2.15.2 |
formato de dados com.fasterxml.jackson. | formato de dados jackson-yaml | 2.15.2 |
com.fasterxml.jackson.tipo de dados | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.tipo de dados | jackson-datatype-jsr310 | 2.16.0 |
com.fasterxml.jackson.module | parâmetro do módulo jackson | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-Scala.12 | 2.15.2 |
com.github.ben-manes.cafeína | cafeína | 2.9.3 |
com.github.fommil | descarregador | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 - nativos |
com.github.fommil.netlib | sistema_nativo-java | 1.1 |
com.github.fommil.netlib | sistema_nativo-java | 1.1 - nativos |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1 - nativos |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1 - nativos |
com.github.luben | zstd-jni | 1,5,5-4 |
com.github.wendykierp | JTransforma | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | eu acho | 1.9.0 |
com.google.propenso a erros | anotações propensas a erros | 2.10.0 |
com.google.flatbuffers | tampões planos-java | 23,5,26 |
com.google.goiaba | goiaba | 15,0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.helger | perfilador | 1.1.1 |
com.ibm.icu | icu4j | 72,1 |
com.jcraft | jsch | 0,1,55 |
com.jolbox | bonecp | VERSÃO 0.8.0. |
com.lihaoyi | código-fonte_2.12 | 0.1.9 |
com.microsoft.azure | azure-data lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-JDBC | 11.2.2. jre8 |
comendo | comprimir-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.trunning | JSON | 1,8 |
com.thoughtworks.paranamer | paranâmero | 2.8 |
com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
com.Twitter | chill-java | 0.10.0 |
com.Twitter | chill_2.12 | 0.10.0 |
com.Twitter | util-app_2.12 | 7.1.0 |
com.Twitter | util-core_2.12 | 7.1.0 |
com.Twitter | função-útil_2.12 | 7.1.0 |
com.Twitter | util-jvm_2.12 | 7.1.0 |
com.Twitter | util-lint_2.12 | 7.1.0 |
com.Twitter | util-registry_2.12 | 7.1.0 |
com.Twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | configuração | 1.4.3 |
com.typesafe.Scala-logging | Scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocidade | analisadores de univocidade | 2.9.1 |
com.zaxxer | HikaricP | 4.0.3 |
comum-CLI | comum-CLI | 1.5.0 |
codec comum | codec comum | 1,16.0 |
coleções comuns | coleções comuns | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
upload de arquivo commons | upload de arquivo commons | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
linguagem comum | linguagem comum | 2.6 |
registro de bens comuns | registro de bens comuns | 1.1.3 |
comum-pool | comum-pool | 1.5.4 |
dev.ludovic.netlib | mochila | 3.0.3 |
dev.ludovic.netlib | blás | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io. airlift | compressor de ar | 0,25 |
io.delta | delta-compartilhamento-client_2.12 | 1.0.5 |
io.dropwizard.métricas | anotação de métricas | 4.2.19 |
io.dropwizard.métricas | núcleo de métricas | 4.2.19 |
io.dropwizard.métricas | métricas-grafite | 4.2.19 |
io.dropwizard.métricas | métricas-healthchecks | 4.2.19 |
io.dropwizard.métricas | métricas-jetty9 | 4.2.19 |
io.dropwizard.métricas | métricas-jmx | 4.2.19 |
io.dropwizard.métricas | métricas-JSON | 4.2.19 |
io.dropwizard.métricas | métricas-JVM | 4.2.19 |
io.dropwizard.métricas | métricas-servlets | 4.2.19 |
io.netty | tudo | 4.1.96. Final |
io.netty | netty-buffer | 4.1.96. Final |
io.netty | codec netty | 4.1.96. Final |
io.netty | netty-codec-http | 4.1.96. Final |
io.netty | netty-codec-http2 | 4.1.96. Final |
io.netty | netty-codec-socks | 4.1.96. Final |
io.netty | netty-common | 4.1.96. Final |
io.netty | manipulador de limpeza | 4.1.96. Final |
io.netty | proxy netty-handler | 4.1.96. Final |
io.netty | resolvedor de rede | 4.1.96. Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61. final-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61. Final-Linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61. Final-OSX-AARCH_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61. Final-OSX-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
io.netty | classes netty-tcnative | 2.0.61. Final |
io.netty | transporte de urtigas | 4.1.96. Final |
io.netty | netty-transport-classes-epoll | 4.1.96. Final |
io.netty | netty-transport-classes-kqueue | 4.1.96. Final |
io.netty | netty-transport-native-epoll | 4.1.96. Final |
io.netty | netty-transport-native-epoll | 4.1.96. Final-Linux-AARCH_64 |
io.netty | netty-transport-native-epoll | 4.1.96. Final-Linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.96. Final-OSX-AARCH_64 |
io.netty | netty-transport-native-kqueue | 4.1.96. Final-OSX-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.96. Final |
io. prometheus | cliente simples | 0.7.0 |
io. prometheus | simpleclient_common | 0.7.0 |
io. prometheus | simpleclient_dropwizard | 0.7.0 |
io. prometheus | gateway client_push simples | 0.7.0 |
io. prometheus | client_servlet simples | 0.7.0 |
io.prometheus.jmx | coletor | 0.12.0 |
jakarta.anotação | jakarta.anotação-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validação | jakarta.validação-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.ativação | ativação | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | API de transação | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolução | javolução | 5.5.1 |
junte-se | junte-se | 2.14.6 |
hora do dia | hora do dia | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | salmoura | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | supercsv | 2.2.0 |
net.snowflake | SDK de ingestão de flocos de neve | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | chá remoto - oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | modelo de string | 3.2.1 |
org.apache.ant | formiga | 1.10.11 |
org.apache.ant | formiga | 1.10.11 |
org.apache.ant | lançador de formigas | 1.10.11 |
org.apache.arrow | formato de seta | 15.0.0 |
org.apache.arrow | núcleo de memória de seta | 15.0.0 |
org.apache.arrow | rede de memória de seta | 15.0.0 |
org.apache.arrow | vetor de seta | 15.0.0 |
org.apache.avro | AVRO | 1.11.3 |
org.apache.avro | avro-ipc | 1.11.3 |
org.apache.avro | mapeado automaticamente | 1.11.3 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | compressa comum | 1,23,0 |
org.apache.commons | criptomoeda comum | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | texto comum | 1.10.0 |
org.apache.curator | curador-cliente | 2.13.0 |
org.apache.curator | estrutura de curador | 2.13.0 |
org.apache.curator | receitas de curadores | 2.13.0 |
org.apache.datasketches | esboços de dados-java | 3.1.0 |
org.apache.datasketches | memória de esboços de dados | 2.0.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | tempo de execução do cliente hadoop | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | colmeia-CLI | 2.3.9 |
org.apache.hive | hive-JDBC | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-lap-common | 2.3.9 |
org.apache.hive | colmeia | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | API de armazenamento em nuvem | 2.8.1 |
org.apache.hive.shims | calços de colmeia - 0,23 | 2.3.9 |
org.apache.hive.shims | calços de colmeia comuns | 2.3.9 |
org.apache.hive.shims | hive-shims-programador | 2.3.9 |
org.apache.httpcomponents | cliente http | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | hera | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
org.apache.logging.log4j | log4j-api | 2.22.1 |
org.apache.logging.log4j | log4j-core | 2.22.1 |
org.apache.logging.log4j | log4j-disposição-padrão-JSON | 2.22.1 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
org.apache.orc | núcleo orc | Protobuf 1.9.2 sombreado |
org.apache.orc | orc-mapreduce | Protobuf 1.9.2 sombreado |
org.apache.orc | calços de orc | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | núcleo do esquema xml | 2.3.0 |
org.apache.xbean | xbean-asm9-shaded | 4,23 |
org.apache.yetus | audiência-anotação | 0,13,0 |
org.apache.zookeeper | tratador | 3.6.3 |
org.apache.zookeeper | tratador de zoológico - juta | 3.6.3 |
org.checkerframework | xadrez igual | 3,31,0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | compilador common | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | núcleo de dados-api-jdo | 4.2.4 |
org.datanucleus | núcleo de dados | 4.1.17 |
org.datanucleus | núcleo de dados-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3,2,0-m3 |
org.Eclipse.collections | Eclipse-coleções | 11.1.0 |
org.Eclipse.collections | Eclipse-collections-api | 11.1.0 |
org.Eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.Eclipse.jetty | continuação do cais | 9.4.52.v20230823 |
org.Eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.Eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.Eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.Eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.Eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.Eclipse.jetty | segurança do cais | 9.4.52.v20230823 |
org.Eclipse.jetty | servidor jetty-server | 9.4.52.v20230823 |
org.Eclipse.jetty | jutty-servlet | 9.4.52.v20230823 |
org.Eclipse.jetty | píer de servlets | 9.4.52.v20230823 |
org.Eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.Eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.Eclipse.jetty | aplicativo web jetty- | 9.4.52.v20230823 |
org.Eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.Eclipse.jetty.websocket | API de websoquete | 9.4.52.v20230823 |
org.Eclipse.jetty.websocket | cliente websocket | 9.4.52.v20230823 |
org.Eclipse.jetty.websocket | websocket-comum | 9.4.52.v20230823 |
org.Eclipse.jetty.websocket | servidor websocket | 9.4.52.v20230823 |
org.Eclipse.jetty.websocket | servlet websocket | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-tudo | 1,8 |
org.glassfish.hk2 | API hk2 | 2.6.1 |
org.glassfish.hk2 | localizador hk2 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-recurso-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance - reembalado | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | servlet de contêiner de camisa | 2,40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2,40 |
org.glassfish.jersey.core | cliente de camisa | 2,40 |
org.glassfish.jersey.core | camiseta comum | 2,40 |
org.glassfish.jersey.core | servidor de camisa | 2,40 |
org.glassfish.jersey.inject | camiseta-hk2 | 2,40 |
org.hibernate.validator | validador de hibernação | 6.1.7. Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3,29,2 HA |
org.jboss.logging | registro de jboss-logging | 3.3.2. Final |
org.jdbi | jdbi | 2.63,1 |
org.jetbrains | anotação | 17.0.0 |
org.joda | conversor de joda | 1.7 |
org.jodd | núcleo nodular | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3,7,0-M11 |
org.json4s | json4s-core_2.12 | 3,7,0-M11 |
org.json4s | json4s-jackson_2.12 | 3,7,0-M11 |
org.json4s | json4s-scalap_2.12 | 3,7,0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | objênese | 2.5.1 |
org.postgresql | PostgreSQL | 42,6.1 |
org.roaringbitmap | Mapa de bits estrondoso | 0.9.45 - blocos de dados |
org.roaringbitmap | calços | 0.9.45 - blocos de dados |
org.rocksdb | rocksdbjni | 8.3.2 |
org.rosuda.rEngine | Motor | 2.1.0 |
org.Scala-lang | Scala-compiler_2.12 | 2.12.15 |
org.Scala-lang | Scala-biblioteca.12 | 2.12.15 |
org.Scala-lang | Scala-reflect_2.12 | 2.12.15 |
org.Scala-lang.modules | Scala-collection-compat_2.12 | 2.11.0 |
org.Scala-lang.modules | Scala-parser-combinators_2.12 | 1.1.2 |
org.Scala-lang.modules | Scala-xml_2.12 | 1.2.0 |
org.Scala-sbt | interface de teste | 1,0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | compatível com scalatest | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | diagramas de teste de escala_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatestfreespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest - deve corresponders_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-a-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1,7,25 |
org.threeten | treze e mais | 1.7.1 |
org.tukaani | xz | 1,9 |
org.typelevel | álgebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0,17.0 |
org.typelevel | spire-platform_2.12 | 0,17.0 |
org.typelevel | spire-util_2.12 | 0,17.0 |
org.typelevel | spire_2.12 | 0,17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3. Final |
org.xerial | sqlite-JDBC | 3,42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2,0 |
oro | oro | 2.0.8 |
pt.edu.icm | Matrizes JLarge | 1.5 |
software.Amazon.cryptools | Amazon Correcto Crypto Provider | 1.6.1-linux-x86_64 |
software.Amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |