Databricks Runtime 7.3 (EoS) LTS
O suporte para essa versão do Databricks Runtime foi encerrado. Para saber a data do fim do suporte, consulte Histórico do fim do suporte. Para conhecer todas as versões compatíveis do site Databricks Runtime, consulte Databricks Runtime notas sobre as versões e a compatibilidade.
A Databricks lançou essa versão em setembro de 2020. Ele foi declarado Long Term Support (LTS) em outubro de 2020.
As notas a seguir sobre a versão fornecem informações sobre Databricks Runtime 7.3 LTS, alimentado por Apache Spark 3.0.
Para obter ajuda com a migração do Databricks Runtime 6.x, consulte o guia de migração do Databricks Runtime 7.x (EoS).
Novo recurso
Delta Lake recurso e melhorias
Esta versão oferece os seguintes Delta Lake recursos e melhorias:
Nesta seção
- As otimizações de desempenho do Delta Lake reduzem significativamente a sobrecarga
- Clone métricas agora disponíveis
- Delta Lake
MERGE INTO
melhorias - Especifique a posição inicial para Delta Lake transmissão estructurada source
- Gravações de agrupamento múltiplo do trabalho
spark-submit
As otimizações de desempenho do Delta Lake reduzem significativamente a sobrecarga
Esta versão permite uma coleção de otimizações que reduzem a sobrecarga das operações do Delta Lake de segundos para dezenas de milissegundos. Para habilitar essas otimizações, você deve atualizar todos os seus clusters que gravam e leem sua tabela Delta para Databricks Runtime 7.3 LTS ouacima.
Clone métricas agora disponíveis
As operações métricas clonadas agora são gravadas e podem ser visualizadas quando o senhor executa DESCRIBE HISTORY
. Para obter detalhes, consulte Review Delta Lake table details with describe detail.
Delta Lake MERGE INTO
melhorias
- merge agora é compatível com qualquer número de cláusulas
MATCHED
eNOT MATCHED
. - As consultas de mesclagem que excluem incondicionalmente as linhas correspondentes não geram mais erros em várias correspondências.
Especifique a posição inicial para Delta Lake transmissão estructurada source
O conector Delta Lake transmissão estructurada agora suporta as opções startingVersion
e startingTimestamp
para especificar o ponto inicial da consulta de transmissão sem processar a tabela inteira. Para obter detalhes, consulte Especificar a posição inicial.
Gravações de agrupamento múltiplo do trabalho spark-submit
Agora, o senhor pode gravar em uma tabela Delta a partir do trabalho concorrente spark-submit
em execução em vários clusters com garantia total de ACID.
O conector S3 atualizado está disponível para todos
O conector S3 atualizado é baseado no Hadoop 3.1.3 e contém muitas melhorias de estabilidade (consulte os épicos de estabilidade do Hadoop 2, 3 e 4), incluindo otimizações na LIST que podem levar a uma redução significativa do custo da LIST, dependendo da profundidade e do fôlego da estrutura do diretório S3. Para obter detalhes, consulte Conectar-se ao Amazon S3.
Execução adaptável de consultas
A execução adaptativa de consultas (AQE) é uma estrutura de reotimização de consultas que ajusta dinamicamente os planos de consulta durante a execução com base nas estatísticas de tempo de execução coletadas. O AQE é ativado por default em Databricks Runtime 7.3 LTS. Agora o senhor pode experimentar todos os recursos do AQE. Para obter detalhes, consulte Execução adaptável de consultas.
Melhorias
Auto Loader
- Agora suporta o Azure Data Lake Storage Gen1 no modo de listagem de diretórios
- Se o formato do arquivo for
text
oubinaryFile
, você não precisará mais fornecer o esquema. Como os dois formatos de arquivo têm um esquema fixo, o Auto Loader pode usar automaticamente um esquema fixo.
Novo controle de comprimento de coluna do conector do Azure Synapse Analytics
Agora você pode usar um novo parâmetro maxbinlength
para controlar o comprimento da coluna de BinaryType
colunas. Esse parâmetro é traduzido como VARBINARY(maxbinlength)
.
O default anterior (não configurável) era VARBINARY(MAX)
, o que causava problemas ao criar tabelas com colunas binárias e o esquema de indexação default. Especificamente, a criação da tabela falharia, pois o índice default columnstore não suporta MAX
nas colunas de strings e binárias.
Comportamento de dbutils.credentials.showRoles
dbutils.credentials.showRoles()
agora mostra sua função atual no default, se o senhor tiver uma, em vez de mostrar uma lista vazia. Para a passagem com a federação SAML 2.0, sua função default é a primeira função de todas as suas funções em ordem alfabética. Para a passagem com Databricks SCIM, o senhor tem uma função default somente se tiver uma função no total.RuntimeException: Credential Passthrough
agora é lançado quando os usuários tentam usardbutils.credentials
sem a passagem de credenciais ativada.
Kinesis posição inicial para transmissão usando at_timestamp
O conector Kinesis agora é compatível com uma posição inicial para uma transmissão usando a opção at_timestamp
em vez de apenas começar pelos valores mais antigos ou mais recentes. A configuração é passada como uma cadeia de caracteres JSON para a opção initialPosition
, por exemplo: "{"at_timestamp": "06/25/2020 10:23:45 PDT", format: "MM/dd/yyyy HH:mm:ss ZZZ"}"
. Consulte Conectar-se ao Amazon Kinesis.
Pandas para conversão simplificada Spark DataFrame
Para habilitar os seguintes aprimoramentos, defina a configuração do Spark spark.databricks.execution.pandasZeroConfConversion.enabled
:
createDataFrame(pandas_df)
foi otimizado no Databricks.- Um aviso é exibido se a conversão não puder ser feita de forma eficiente ou não for possível.
Nova chamada maxResultSize
em toPandas()
Uma nova configuração (spark.databricks.driver.localMaxResultSize
) permite controlar maxResultSize
para uma chamada df.toPandas()
. O limite foi temporariamente alterado para max
(spark.driver.maxResultSize
, spark.databricks.driver.localMaxResultSize
). O valor default para a definição de configuração é o tamanho da memória física dividido por 4.
Um aviso será exibido se o tamanho do resultado df.toPandas()
for maior que spark.driver.maxResultSize
e menor que spark.databricks.driver.localMaxResultSize
.
Essa definição de configuração afeta apenas os DataFrames criados por uma chamada df.toPandas()
.
spark.databricks.driver.localMaxResultSize
entra em vigor somente quando spark.databricks.execution.pandasZeroConfConversion.enabled
é verdadeiro.
Possibilidade de depuração dos UDFs Pandas e PySpark
Quando um Pandas ou PySpark UDF falha em um Databricks Notebook, a mensagem de erro agora inclui o número da linha em que o código falhou e informações sobre a causa raiz.
Atualizações da biblioteca
-
Atualizado Python biblioteca:
- koalas atualizado a partir da versão 1.1.0 para 1.2.0.
- pyarrow foi atualizado de 0.15.1 para 1.0.1.
-
Atualizou várias instalações da R biblioteca. Consulte R biblioteca instalada.
-
A compilação do OpenJDK 8 foi alterada do Ubuntu OpenJDK 8 para o Zulu OpenJDK 8.
Apache Spark
O Databricks Runtime 7.3 LTS inclui o Apache Spark 3.0.1. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 7.2 (EoS), bem como as seguintes correções de bugs e melhorias adicionais feitas no Spark:
- [SPARK-32302] [SPARK-28169] [SQL] Reduzir parcialmente os predicados disjuntivos por meio de junções/partições
- [SPARK-32337] [SQL] Mostrar plano inicial nas cadeias de caracteres da árvore de planos do AQE
- [SPARK-30662] Repor as alterações da API para HasBlockSize
- [SPARK-32620] [SQL] Reset o numPartitions métricas quando o DPP está ativado
- [SPARK-32646] [SQL] O pushdown do predicado ORC deve funcionar com análise sem distinção entre maiúsculas e minúsculas
- [SPARK-32676] [ML] Corrigir o cache duplo em KMeans/BiKMeans
- [SPARK-32092] [ML][PySpark] Código relacionado ao foldCol removido
- [SPARK-32594] [SQL] Substituir
get()
e usar dias julianos emDaysWritable
- [SPARK-32608] [SQL] Script Transform ROW FORMAT DELIMIT value should format value
- [SPARK-32092] [ML][PySpark] Corrigir parâmetros que não estão sendo copiados em CrossValidatorModel.copy(), read() e write()
- [SPARK-32672] [SQL] Corrigir corrupção de dados na compressão de conjunto de bits booleanos
- [SPARK-32663] [CORE] Evite o fechamento individual do pool TransportClients (que deve ser fechado por meio do site pool)
- [SPARK-32621] A opção [SQL] path' pode causar problemas ao inferir o esquema em fontes de dados CSV/JSON
- [SPARK-28863] [SQL] Não reutilizar o plano físico
- [SPARK-32608] [SQL] Script Transform ROW FORMAT DELIMIT value should format value
- [SPARK-28863] [SQL] Introduzir o AlreadyPlanned para evitar a reanálise do V1FallbackWriters
- [SPARK-32451] [R] Suporte ao Apache Arrow 1.0.0
- [SPARK-32652] [SQL] ObjectSerializerPruning falha no RowEncoder
- [SPARK-32518] [CORE] CoarseGrainedSchedulerBackend.maxNumConcurrentTasks deve considerar todos os tipos de recurso
- [SPARK-32559] [SQL] Corrigir a lógica de corte em UTF8String.toInt/toLong que não lidava corretamente com caracteres não ASCII
- [SPARK-32625] [SQL] mensagem de erro de registro ao voltar para o modo de intérprete
- [SPARK-32543] [R] Remover o uso de arrow::as_tibble no SparkR
- [SPARK-31703] [SQL] Parquet RLE float/double são lidos incorretamente em plataformas big endian
- [SPARK-32586] [SQL] Corrige a mensagem de erro NumberFormatException quando o ansi está ativado
- [SPARK-32456] [SS] Verificar o Distinct assumindo-o como Aggregate para transmissão estruturada
- [SPARK-32576] [SQL] Suporte ao PostgreSQL
bpchar
type e array of char type - [SPARK-32559] [SQL] Corrigir a lógica de corte em UTF8String.toInt/toLong que não lidava corretamente com caracteres não ASCII
- [SPARK-32560] [SQL] Melhorar a mensagem de exceção em InsertIntoHiveTable.processInsert
- [SPARK-32546] [SQL] Obter nomes de tabelas diretamente das tabelas do Hive
- [SPARK-32529] [CORE] Correção do Historyserver log scan abortado por mudança de status do aplicativo
- [SPARK-32003] [CORE] Quando o serviço de embaralhamento externo for usado, cancele o registro de saídas para o executor em caso de falha na busca após a perda do executor
- [SPARK-32160] [CORE][PySpark] Altere o nome da configuração para alternar entre permitir e não permitir o SparkContext no executor
- [SPARK-32160] [CORE][PySpark] Adicionar uma configuração para alternar entre permitir e não permitir a criação do SparkContext no executor
- [SPARK-32083] [SQL] O AQE não deve agrupar partições para SinglePartition
- [SPARK-32509] [SQL] Ignorar filtro verdadeiro DPP não utilizado na canonização
- [SPARK-32332] [SQL] Suporte a trocas colunares
- [SPARK-32227] Correção de erro de regressão em load-spark-env.cmd com Spark 3.0.0
- [SPARK-32478] [R] [sql] Mensagem de erro para mostrar a incompatibilidade de esquema em gapply com vetorização de seta
- [SPARK-32030] [SQL] Suporte ilimitado às cláusulas MATCHED e NOT MATCHED em MERGE INTO no analisador SQL
- [SPARK-32175] [CORE] Corrija a ordem entre a inicialização do ExecutorPlugin e o início do thread de heartbeat
- [SPARK-32283] [CORE] O Kryo deve oferecer suporte a vários registradores de usuários
- [SPARK-32424] [SQL] Corrige a alteração silenciosa de dados para análise de carimbo de data/hora se ocorrer um estouro de f
- [SPARK-32430] [SQL] Estenda o SparkSessionExtensions para injetar regras na preparação do estágio de consulta do AQE
- [SPARK-32310] [ML][PySpark] ML params default value parity
- [SPARK-32237] [SQL] Resolver dica no CTE
- [SPARK-32280] [SPARK-32372] [SQL] ResolveReferences.dedupRight só deve reescrever atributos para nós ancestrais do plano de conflito
- [SPARK-32364] [SQL] Adicionar toMap para retornar originalMap e documentação
- [SPARK-32364] [SQL] Use CaseInsensitiveMap para opções de DataFrameReader/Writer
- [SPARK-32377] [SQL] CaseInsensitiveMap deve ser determinístico para adição
- [SPARK-32365] [SQL] Adicionar uma condição de limite para o índice negativo em regexp_extract
- [SPARK-32368] [SQL] pathGlobFilter, recursiveFileLookup e basePath devem respeitar a insensibilidade a maiúsculas e minúsculas
- [SPARK-32344] [SQL] Unevaluable expr is set to FIRST/LAST ignoreNullsExpr in distinct aggregates
- [SPARK-32234] [SQL] Spark O comando sql está falhando ao selecionar as tabelas orc
Atualizações de manutenção
Consulte as atualizações de manutenção do Databricks Runtime 7.3 LTS.
Ambiente do sistema
- Sistema operacional : Ubuntu 18.04.5 LTS
- Java : Zulu 8.48.0.53-CA-linux64 (build 1.8.0_265-b11)
- Scala : 2.12.10
- Python : 3.7.5
- R : R versão 3.6.3 (2020-02-29)
- Delta Lake 0.7.0
Instalado Python biblioteca
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
criptomoeda asn1 | 1.3.0 | chamada de volta | 0.1.0 | boto3 | 1.12.0 |
botocore | 1,15.0 | certifi | 2020.6.20 | caffi | 1,14.0 |
chardet | 3.0.4 | criptografia | 2.8 | ciclador | 0.10.0 |
Cython | 0,29,15 | decorador | 4.4.1 | docutils | 0,15.2 |
pontos de entrada | 0,3 | Índia | 2.8 | ipykernel | 5.1.4 |
ipython | 7.12.0 | ipython-genutils | 0.2.0 | jedi | 0,14.1 |
jmespath | 0.10.0 | joblib | 0,14.1 | cliente jupyter | 5.3.4 |
núcleo jupyter | 4.6.1 | solucionador de kiwi | 1.1.0 | coalas | 1.2.0 |
Matplotlib | 3.1.3 | entorpecido | 1.18.1 | Pandas | 1.0.1 |
parso | 0.5.2 | bode expiatório | 0.5.1 | esperar | 4.8.0 |
picles | 0.7.5 | pip | 20,0.2 | kit de ferramentas de aviso | 3.0.3 |
psycopg2 | 2.8.4 | processo pty | 0.6.0 | flecha | 1.0.1 |
pycparser | 2,19 | Pigmentos | 2.5.2 | Objeto PYG | 3.26.1 |
PyOpenSSL | 19.1.0 | análise de pipa | 2.4.6 | Meias PY | 1.7.1 |
Python-apt | 1.6.5+ubuntu0.3 | Python-dateutil | 2.8.1 | pytz | 2019,3 |
pizma | 18.1.1 | pedidos | 2.22,0 | transferência s3 | 0.3.3 |
scikit-learn | 0,22,1 | pegajoso | 1.4.1 | marítimo | 0.10.0 |
ferramentas de configuração | 45,2,0 | seis | 1,14.0 | ID de importação ssh | 5.7 |
modelos de estatísticas | 0.11.0 | tornado | 6.0.3 | almôndegas | 4.3.3 |
atualizações autônomas | 0,1 | urllib3 | 1,25,8 | ambiente virtual | 16.7.10 |
largura do wc | 0.1.8 | Python wheel | 0,34,2 |
Instalada a R biblioteca
As bibliotecas R são instaladas a partir de Microsoft CRAN Snapshot em 2020-07-14.
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
askpass | 1.1 | afirme que | 0.2.1 | portas traseiras | 1.1.8 |
base | 3.6.3 | base64enc | 0,1-3 | POR | 1,72,0-3 |
pouco | 1,1-15,2 | bit64 | 0,9-7 | bolha | 1.2.1 |
inicialização | 1,3-25 | fermentar | 1,0-6 | vassoura | 0.7.0 |
chamador | 3.4.3 | cursor | 6,0-86 | guarda de celas | 1.1.0 |
crono | 2,3-55 | Aula | 7,3-17 | CLIPE | 2.0.2 |
clipe | 0.7.0 | Cluster | 2.1.0 | ferramentas de código | 0,2-16 |
espaço de cores | 1,4-1 | marca comum | 1.7 | compilador | 3.6.3 |
configuração | 0,3 | capa | 3.5.0 | giz de cera | 1.3.4 |
diafonia | 1.1.0.1 | cacho | 4.3 | data.tabela | 1.12.8 |
conjunto de dados | 3.6.3 | DBI | 1.1.0 | dbplyr | 1.4.4 |
desc | 1.2.0 | ferramentas de desenvolvimento | 2.3.0 | digerir | 0,6,25 |
dplyr | 0,8.5 | DT | 0,14 | reticências | 0.3.1 |
avalie | 0,14 | fansi | 0.4.1 | colorista | 2.0.3 |
mapa rápido | 1.0.1 | para gatos | 0.5.0 | para cada um | 1.5.0 |
estrangeira | 0,8-76 | forjar | 0.2.0 | fs | 1.4.2 |
genéricas | 0.0.2 | ggplot2 | 3.3.2 | gh | 1.1.0 |
git2r | 0,27.1 | glmnet | 3,0-2 | globais | 0,12,5 |
cola | 1.4.1 | goleiro | 0.2.2 | gráficos | 3.6.3 |
Dispositivos GR | 3.6.3 | grade | 3.6.3 | Grid Extra | 2.3 |
gsubfn | 0,7 | mesa | 0.3.0 | refúgio | 2.3.1 |
mais alto | 0,8 | HMS | 0.5.3 | ferramentas html | 0.5.0 |
widgets html | 1.5.1 | http.uv | 1.5.4 | httr | 1.4.1 |
escritor | 1.3.2 | HWriter Plus | 1,0-3 | mini | 0.3.1 |
ipred | 0,9-9 | isóbanda | 0.2.2 | iteradores | 1.0.12 |
jsonlite | 1.7.0 | Kern Smooth | 2,23-17 | tricotar | 1,29 |
rótulo | 0,3 | posteriormente | 1.1.0.1 | treliça | 0,20-41 |
lava | 1.6.7 | preguiçoso | 0.2.2 | ciclo de vida | 0.2.0 |
lubrificar | 1.7.9 | magritter | 1.5 | Markdown | 1.1 |
MASSA | 7,3-52 | Matriz | 1,2-18 | memoise | 1.1.0 |
métodos | 3.6.3 | mgcv | 1,8-32 | mímica | 0,9 |
Métricas do modelo | 1.2.2.2 | modelar | 0.1.8 | munsell | 0.5.0 |
nome | 3,1-149 | net | 7,3-14 | Número Deriv | 2016,8-1,1 |
openssl | 1.4.2 | paralelo | 3.6.3 | pilar | 1.4.6 |
pkgbuild | 1.1.0 | pkgconfig | 2.0.3 | carregamento de pacotes | 1.1.0 |
plogr | 0.2.0 | plyr | 1.8.6 | elogio | 1.0.0 |
unidades bonitas | 1.1.1 | ProC | 1.16.2 | processa | 3.4.3 |
prodlim | 13/11/2019 | progresso | 1.2.2 | promessas | 1.1.1 |
proto | 1.0.0 | ps | 1.3.3 | ronronar | 0.3.4 |
r2d3 | 0.2.3 | R6 | 2.4.1 | Floresta aleatória | 4,6-14 |
corredeiras | 0.3.1 | rcmdcheck | 1.3.3 | Cervejaria RColor | 1,1-2 |
Rcpp | 1.0.5 | leitor | 1.3.1 | readxl | 1.3.1 |
receitas | 0.1.13 | revanche | 1.0.1 | revanche 2 | 2.1.2 |
controles remotos | 2.1.1 | reprex | 0.3.0 | remodelar 2 | 1.4.4 |
rex | 1.2.0 | rojson | 0.2.20 | rlang | 0.4.7 |
rmarkdown | 2.3 | RODBC | 1,3-16 | roxigênio2 | 7.1.1 |
rpartem | 4,1-15 | rprojroot | 1,3-2 | Reservar | 1,8-7 |
RSQLite | 2.2.0 | API do estúdio | 0,11 | reversões | 2.0.2 |
colete | 0.3.5 | escala | 1.1.1 | seletor | 0,4-2 |
informações da sessão | 1.1.1 | forma | 1.4.4 | brilhante | 1.5.0 |
ferramentas de origem | 0.1.7 | Sparklyr | 1.3.1 | SparkR | 3.0.0 |
espacial | 7,3-11 | splines | 3.6.3 | sqldf | 0,4-11 |
QUADRADO | 2020,3 | estatísticas | 3.6.3 | estatísticas4 | 3.6.3 |
stringi | 1.4.6 | longarina | 1.4.0 | sobrevivência | 3,1-12 |
diz | 3.3 | tcltk | 3.6.3 | Demonstrações de ensino | 2,10 |
teste isso | 2.3.2 | petiscar | 3.0.3 | arrumado | 1.1.0 |
seleção arrumada | 1.1.0 | tidyverso | 1.3.0 | Hora/Data | 3043,102 |
tinytex | 0,24 | Ferramentas | 3.6.3 | use isso | 1.6.1 |
utf 8 | 1.1.4 | utilidades | 3.6.3 | uuid | 0,1-4 |
vctrs | 0.3.1 | Viridis Lite | 0.3.0 | bigode | 0,4 |
murchar | 2.2.0 | diversão | 0,15 | xml2 | 1.3.2 |
xopen | 1.0.0 | x estável | 1,8-4 | yaml | 2.2.1 |
Instalei Java e Scala biblioteca (versão de clusteringScala 2.12)
ID do grupo | ID do artefato | Versão |
---|---|---|
chifre | chifre | 2.7.7 |
com.amazonaws | Amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscale | 1,11.655 |
com.amazonaws | formação de nuvem aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-cloudfront | 1,11.655 |
com.amazonaws | aws-java-sdk-cloudhsm | 1,11.655 |
com.amazonaws | aws-java-sdk-cloudsearch | 1,11.655 |
com.amazonaws | aws-java-sdk-cloudtrail | 1,11.655 |
com.amazonaws | aws-java-sdk-cloudwatch | 1,11.655 |
com.amazonaws | métricas aws-java-sdk-cloudwatch | 1,11.655 |
com.amazonaws | aws-java-sdk-codedeploy | 1,11.655 |
com.amazonaws | identidade cognitiva aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-cognitosync | 1,11.655 |
com.amazonaws | aws-java-sdk-config | 1,11.655 |
com.amazonaws | aws-java-sdk-core | 1,11.655 |
com.amazonaws | pipeline de dados aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-conexão direta | 1,11.655 |
com.amazonaws | diretório aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-dynamodb | 1,11.655 |
com.amazonaws | aws-java-sdk-ec2 | 1,11.655 |
com.amazonaws | aws-java-sdk-ecs | 1,11.655 |
com.amazonaws | aws-java-sdk-efs | 1,11.655 |
com.amazonaws | aws-java-sdk-elasticache | 1,11.655 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1,11.655 |
com.amazonaws | balanceamento de carga elástico aws-java-sdk | 1,11.655 |
com.amazonaws | transcodificador elástico aws-java-sdk- | 1,11.655 |
com.amazonaws | aws-java-sdk-emr | 1,11.655 |
com.amazonaws | aws-java-sdk-glacier | 1,11.655 |
com.amazonaws | aws-java-sdk-iam | 1,11.655 |
com.amazonaws | aws-java-sdk-importação/exportação | 1,11.655 |
com.amazonaws | aws-java-sdk-kinesis | 1,11.655 |
com.amazonaws | aws-java-sdk-kms | 1,11.655 |
com.amazonaws | aws-java-sdk-lambda | 1,11.655 |
com.amazonaws | aws-java-sdk-logs | 1,11.655 |
com.amazonaws | aws-java-sdk - aprendizado de máquina | 1,11.655 |
com.amazonaws | aws-java-sdk-opsworks | 1,11.655 |
com.amazonaws | aws-java-sdk-rds | 1,11.655 |
com.amazonaws | aws-java-sdk-redshift | 1,11.655 |
com.amazonaws | aws-java-sdk-route53 | 1,11.655 |
com.amazonaws | aws-java-sdk-s3 | 1,11.655 |
com.amazonaws | aws-java-sdk-ses | 1,11.655 |
com.amazonaws | aws-java-sdk-simpledb | 1,11.655 |
com.amazonaws | aws-java-sdk - fluxo de trabalho simples | 1,11.655 |
com.amazonaws | aws-java-sdk-sns | 1,11.655 |
com.amazonaws | aws-java-sdk-sqs | 1,11.655 |
com.amazonaws | aws-java-sdk-ssm | 1,11.655 |
com.amazonaws | gateway de armazenamento aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-sts | 1,11.655 |
com.amazonaws | suporte aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-swf-biblioteca | 1.11.22 |
com.amazonaws | aws-java-sdk-workspace | 1,11.655 |
com.amazonaws | jmespath-java | 1,11.655 |
com.chuusai | sem forma_2.12 | 2.3.3 |
com.clearspring.analítica | transmissão | 2.9.6 |
com.databricks | Reservar | 1,8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | plugin_2.12 do compilador | 0,4,15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0,4,15-10 |
com.esotérico software | crio-sombreado | 4.0.2 |
com.esotérico software | minlog | 1.3.0 |
com.fasterxml | colega de classe | 1.3.4 |
com.fasterxml.jackson.core | jackson-anotação | 2.10.0 |
com.fasterxml.jackson.core | jackson-core | 2.10.0 |
com.fasterxml.jackson.core | vinculação de dados jackson | 2.10.0 |
formato de dados com.fasterxml.jackson. | formato de dados jackson-cbor | 2.10.0 |
com.fasterxml.jackson.tipo de dados | jackson-datatype-joda | 2.10.0 |
com.fasterxml.jackson.module | parâmetro do módulo jackson | 2.10.0 |
com.fasterxml.jackson.module | jackson-module-Scala.12 | 2.10.0 |
com.github.ben-manes.cafeína | cafeína | 2.3.4 |
com.github.fommil | descarregador | 1.1 |
com.github.fommil.netlib | abdômen | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-nativos | 1.1 |
com.github.fommil.netlib | sistema_nativo-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.joshelser | dropwizard-métricas-hadoop-metrics2-reporter | 0.1.2 |
com.github.luben | zstd-jni | 1,4.4-3 |
com.github.wendykierp | JTransforma | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.2.4 |
com.google.flatbuffers | tampões planos-java | 1.9.0 |
com.google.goiaba | goiaba | 15,0 |
com.google.protobuf | protobuf-java | 2.6.1 |
banco de dados com.h2 | h2 | 1,4,195 |
com.helger | perfilador | 1.1.1 |
com.jcraft | jsch | 0,1,50 |
com.jolbox | bonecp | VERSÃO 0.8.0. |
com.lihaoyi | código-fonte_2.12 | 0.1.9 |
com.microsoft.azure | azure-data lake-store-sdk | 2.2.8 |
com.microsoft.sqlserver | mssql-JDBC | 8.2.1. jre8 |
comendo | comprimir-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.trunning | JSON | 1,8 |
com.thoughtworks.paranamer | paranâmero | 2.8 |
com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
com.Twitter | chill-java | 0,9.5 |
com.Twitter | chill_2.12 | 0,9.5 |
com.Twitter | util-app_2.12 | 7.1.0 |
com.Twitter | util-core_2.12 | 7.1.0 |
com.Twitter | função-útil_2.12 | 7.1.0 |
com.Twitter | util-jvm_2.12 | 7.1.0 |
com.Twitter | util-lint_2.12 | 7.1.0 |
com.Twitter | util-registry_2.12 | 7.1.0 |
com.Twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | configuração | 1.2.1 |
com.typesafe.Scala-logging | Scala-logging_2.12 | 3.7.2 |
com.univocidade | analisadores de univocidade | 2.8.3 |
com.zaxxer | HikaricP | 3.1.0 |
folhas de feijão comum | folhas de feijão comum | 1.9.4 |
comum-CLI | comum-CLI | 1.2 |
codec comum | codec comum | 1,10 |
coleções comuns | coleções comuns | 3.2.2 |
configuração comum | configuração comum | 1,6 |
commons-dbcp | commons-dbcp | 1.4 |
digestor comum | digestor comum | 1,8 |
upload de arquivo commons | upload de arquivo commons | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2,4 |
linguagem comum | linguagem comum | 2.6 |
registro de bens comuns | registro de bens comuns | 1.1.3 |
commons-net | commons-net | 3.1 |
comum-pool | comum-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io. airlift | compressor de ar | 0,10 |
io.dropwizard.métricas | núcleo de métricas | 4.1.1 |
io.dropwizard.métricas | métricas-grafite | 4.1.1 |
io.dropwizard.métricas | métricas-healthchecks | 4.1.1 |
io.dropwizard.métricas | métricas-jetty9 | 4.1.1 |
io.dropwizard.métricas | métricas-jmx | 4.1.1 |
io.dropwizard.métricas | métricas-JSON | 4.1.1 |
io.dropwizard.métricas | métricas-JVM | 4.1.1 |
io.dropwizard.métricas | métricas-servlets | 4.1.1 |
io.netty | tudo | 4.1.47. Final |
jakarta.anotação | jakarta.anotação-api | 1.3.5 |
jakarta.validação | jakarta.validação-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.ativação | ativação | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1.1 |
javax.transaction | API de transação | 1.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.transmissão | stax-api | 1,0-2 |
javolução | javolução | 5.5.1 |
junte-se | junte-se | 2.14.6 |
hora do dia | hora do dia | 2.10.5 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
net.razorvine | pirolita | 4,30 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | supercsv | 2.2.0 |
net.snowflake | SDK de ingestão de flocos de neve | 0.9.6 |
net.snowflake | floco de neve-JDBC | 3.12.8 |
net.snowflake | floco de neve faísca_2.12 | 2.8.1-spark_3.0 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | chá remoto - oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.7.1 |
org.antlr | modelo de string | 3.2.1 |
org.apache.ant | formiga | 1.9.2 |
org.apache.ant | formiga | 1.9.2 |
org.apache.ant | lançador de formigas | 1.9.2 |
org.apache.arrow | formato de seta | 0.15.1 |
org.apache.arrow | memória de seta | 0.15.1 |
org.apache.arrow | vetor de seta | 0.15.1 |
org.apache.avro | AVRO | 1.8.2 |
org.apache.avro | avro-ipc | 1.8.2 |
org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
org.apache.commons | compressa comum | 1.8.1 |
org.apache.commons | criptomoeda comum | 1.0.0 |
org.apache.commons | commons-lang3 | 3.9 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.commons | texto comum | 1,6 |
org.apache.curator | curador-cliente | 2.7.1 |
org.apache.curator | estrutura de curador | 2.7.1 |
org.apache.curator | receitas de curadores | 2.7.1 |
org.apache.derby | derby | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1,0,0-M20 |
org.apache.directory.api | utilitário de API | 1,0,0-M20 |
org.apache.directory.server | apacheds-i18n | 2,0,0-M15 |
org.apache.directory.server | codec apacheds-kerberos | 2,0,0-M15 |
org.apache.hadoop | hadoop-anotação | 2.7.4 |
org.apache.hadoop | autenticação hadoop | 2.7.4 |
org.apache.hadoop | cliente hadoop | 2.7.4 |
org.apache.hadoop | hadoop-comum | 2.7.4 |
org.apache.hadoop | hadoop-HDFS | 2.7.4 |
org.apache.hadoop | aplicativo cliente hadoop mapreduce | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.4 |
org.apache.hadoop | núcleo do cliente hadoop-mapreduce | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.4 |
org.apache.hadoop | API hadoop yarn | 2.7.4 |
org.apache.hadoop | cliente hadoop-yarn | 2.7.4 |
org.apache.hadoop | hadoop-yarn-common | 2.7.4 |
org.apache.hadoop | servidor hadoop-yarn-comum | 2.7.4 |
org.apache.hive | hive-beeline | 2.3.7 |
org.apache.hive | colmeia-CLI | 2.3.7 |
org.apache.hive | colmeia comum | 2.3.7 |
org.apache.hive | núcleo hive-exec-core | 2.3.7 |
org.apache.hive | hive-JDBC | 2.3.7 |
org.apache.hive | hive-llap-client | 2.3.7 |
org.apache.hive | hive-lap-common | 2.3.7 |
org.apache.hive | Hive metastore | 2.3.7 |
org.apache.hive | colmeia | 2.3.7 |
org.apache.hive | hive-shims | 2.3.7 |
org.apache.hive | API de armazenamento em nuvem | 2.7.1 |
org.apache.hive | geração de código vetorial hive | 2.3.7 |
org.apache.hive.shims | calços de colmeia - 0,23 | 2.3.7 |
org.apache.hive.shims | calços de colmeia comuns | 2.3.7 |
org.apache.hive.shims | hive-shims-programador | 2.3.7 |
org.apache.htrace | htrace-core | 3.1.0 - incubação |
org.apache.httpcomponents | cliente http | 4.5.6 |
org.apache.httpcomponents | httpcore | 4.4.12 |
org.apache.ivy | hera | 2.4.0 |
org.apache.orc | núcleo orc | 1.5.10 |
org.apache.orc | orc-mapreduce | 1.5.10 |
org.apache.orc | calços de orc | 1.5.10 |
org.apache.parquet | coluna de parquete | 1.10.1 - blocos de dados 6 |
org.apache.parquet | parquete comum | 1.10.1 - blocos de dados 6 |
org.apache.parquet | codificação de parquet | 1.10.1 - blocos de dados 6 |
org.apache.parquet | formato de parquet | 2.4.0 |
org.apache.parquet | parquet-hadoop | 1.10.1 - blocos de dados 6 |
org.apache.parquet | parquet-jackson | 1.10.1 - blocos de dados 6 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.velocity | velocidade | 1.5 |
org.apache.xbean | xbean-asm7-shaded | 4,15 |
org.apache.yetus | audiência-anotação | 0.5.0 |
org.apache.zookeeper | tratador | 3.4.14 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxers | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | compilador common | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | núcleo de dados-api-jdo | 4.2.4 |
org.datanucleus | núcleo de dados | 4.1.17 |
org.datanucleus | núcleo de dados-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3,2,0-m3 |
org.Eclipse.jetty | jetty-client | 9.4.18.v20190429 |
org.Eclipse.jetty | continuação do cais | 9.4.18.v20190429 |
org.Eclipse.jetty | jetty-http | 9.4.18.v20190429 |
org.Eclipse.jetty | jetty-io | 9.4.18.v20190429 |
org.Eclipse.jetty | jetty-jndi | 9.4.18.v20190429 |
org.Eclipse.jetty | jetty-plus | 9.4.18.v20190429 |
org.Eclipse.jetty | jetty-proxy | 9.4.18.v20190429 |
org.Eclipse.jetty | segurança do cais | 9.4.18.v20190429 |
org.Eclipse.jetty | servidor jetty-server | 9.4.18.v20190429 |
org.Eclipse.jetty | jutty-servlet | 9.4.18.v20190429 |
org.Eclipse.jetty | píer de servlets | 9.4.18.v20190429 |
org.Eclipse.jetty | jetty-util | 9.4.18.v20190429 |
org.Eclipse.jetty | aplicativo web jetty- | 9.4.18.v20190429 |
org.Eclipse.jetty | jetty-xml | 9.4.18.v20190429 |
org.fusesource.leveldbjni | leveldbjni-tudo | 1,8 |
org.glassfish.hk2 | API hk2 | 2.6.1 |
org.glassfish.hk2 | localizador hk2 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-recurso-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance - reembalado | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | servlet de contêiner de camisa | 2,30 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2,30 |
org.glassfish.jersey.core | cliente de camisa | 2,30 |
org.glassfish.jersey.core | camiseta comum | 2,30 |
org.glassfish.jersey.core | servidor de camisa | 2,30 |
org.glassfish.jersey.inject | camiseta-hk2 | 2,30 |
org.glassfish.jersey.media | jersey-media-jaxb | 2,30 |
org.hibernate.validator | validador de hibernação | 6.1.0. Final |
org.javassist | javassist | 3,25,0 GA |
org.jboss.logging | registro de jboss-logging | 3.3.2. Final |
org.jdbi | jdbi | 2.63,1 |
org.joda | conversor de joda | 1.7 |
org.jodd | núcleo nodular | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.6.6 |
org.json4s | json4s-core_2.12 | 3.6.6 |
org.json4s | json4s-jackson_2.12 | 3.6.6 |
org.json4s | json4s-scalap_2.12 | 3.6.6 |
org.lz4 | lz4-java | 1.7.1 |
org.mariadb.JDBC | cliente mariadb-java | 2.1.2 |
org.objenesis | objênese | 2.5.1 |
org.postgresql | PostgreSQL | 42,14 |
org.roaringbitmap | Mapa de bits estrondoso | 0,7,45 |
org.roaringbitmap | calços | 0,7,45 |
org.rocksdb | rocksdbjni | 6.2.2 |
org.rosuda.rEngine | Motor | 2.1.0 |
org.Scala-lang | Scala-compiler_2.12 | 2.12.10 |
org.Scala-lang | Scala-biblioteca.12 | 2.12.10 |
org.Scala-lang | Scala-reflect_2.12 | 2.12.10 |
org.Scala-lang.modules | Scala-collection-compat_2.12 | 2.1.1 |
org.Scala-lang.modules | Scala-parser-combinators_2.12 | 1.1.2 |
org.Scala-lang.modules | Scala-xml_2.12 | 1.2.0 |
org.Scala-sbt | interface de teste | 1,0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1,0 |
org.scalanlp | breeze_2.12 | 1,0 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1,7.30 |
org.slf4j | jul-a-slf4j | 1,7.30 |
org.slf4j | slf4j-api | 1,7.30 |
org.slf4j | slf4j-log4j12 | 1,7.30 |
org.spark-project.spark | não utilizado | 1.0.0 |
org.springframework | núcleo de mola | 4.1.4. LANÇAMENTO |
org.springframework | teste de primavera | 4.1.4. LANÇAMENTO |
org.threeten | treze e mais | 1.5.0 |
org.tukaani | xz | 1.5 |
org.typelevel | álgebra_2.12 | 2,0,0-M2 |
org.typelevel | cats-kernel_2.12 | 2,0,0-M4 |
org.typelevel | maquinista_2.12 | 0.6.8 |
org.typelevel | macro-compat_2,12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0,17.0-M1 |
org.typelevel | spire-platform_2.12 | 0,17.0-M1 |
org.typelevel | spire-util_2.12 | 0,17.0-M1 |
org.typelevel | spire_2.12 | 0,17.0-M1 |
org.xerial | sqlite-JDBC | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.7.5 |
org.yaml | snakeyaml | 1,24 |
oro | oro | 2.0.8 |
pt.edu.icm | Matrizes JLarge | 1.5 |
software.Amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0,52 |