Databricks Runtime 7,5 (EoS)
O suporte para essa versão do Databricks Runtime foi encerrado. Para saber a data do fim do suporte, consulte Histórico do fim do suporte. Para conhecer todas as versões compatíveis do site Databricks Runtime, consulte Databricks Runtime notas sobre as versões e a compatibilidade.
A Databricks lançou essa versão em dezembro de 2020.
As notas a seguir sobre a versão fornecem informações sobre o site Databricks Runtime 7.5, alimentado por Apache Spark 3.0.
Novo recurso
Delta Lake recurso e melhorias
Esta versão oferece os seguintes Delta Lake recursos e melhorias:
- O checkpointing assíncrono elimina os picos de duração das micro-lotes de transmissão
- As informações mais recentes da tabela agora são propagadas para os catálogos
MERGE INTO
operações agora suporta a evolução do esquema de colunas aninhadasMERGE INTO
operações agora usa automaticamente as gravações otimizadasMERGE INTO
eUPDATE
operações agora resolvem colunas struct aninhadas por nomeCLONE
é GA e agora você pode substituir as propriedades da tabelaRESTORE
é GA- Implicações do Scala simplificam as APIs de leitura e gravação do Spark
- Melhorar a transmissão Taxa de transferência com a opção de conector
fetchParallelism
- Acompanhe o progresso da transmissão com o novo Auto Loader métricas
O checkpointing assíncrono elimina os picos de duração das micro-lotes de transmissão
Delta Lake realiza checkpoints a cada 10 commits pelo site default. Em cargas de trabalho de transmissão, o checkpointing pode causar pequenos picos na duração das microlotes a cada 10 confirmações. Apontamento de verificação assíncrono elimina esses picos.
O checkpointing assíncrono é ativado pelo site default para todas as cargas de trabalho que não sejam de transmissão do tipo Trigger Once. Com o ponto de verificação assíncrono , os gravadores de transmissão também gravam pontos de verificação aprimorados para que o senhor não precise optar explicitamente pelos pontos de verificação aprimorados.
Para desativar o checkpointing assíncrono, defina a configuração do SQL
spark.databricks.delta.checkpoint.async.enabled false
.
as cargas de trabalho de lotes continuam a gravar pontos de verificação de forma síncrona e recomendamos que o senhor não habilite o ponto de verificação assíncrono do para cargas de trabalho de lotes.
As informações mais recentes da tabela agora são propagadas para os catálogos
Delta Lake agora propaga as informações mais recentes da tabela, como o esquema e as propriedades da tabela, para catálogos como o Hive metastore, em uma base de melhor esforço. Essas informações podem ajudar o senhor a aproveitar as ferramentas de catalogação para entender o esquema das tabelas do site Delta.
Delta Lake não depende internamente dessas informações, mas tenta mantê-las atualizadas. Em
, o Delta Lake armazena as propriedades da tabela delta.lastUpdateVersion
e delta.lastCommitTimestamp
para indicar a versão e o registro de data e hora do commit que fez a última alteração no metastore. O
O metastore é atualizado somente quando o esquema da tabela ou as propriedades na tabela não coincidem.
Portanto, as propriedades da tabela mencionadas acima não refletem necessariamente a versão mais recente do
mesa.
Se as informações da tabela e as informações do metastore estiverem fora de sincronia, o senhor pode executar um comando como DESCRIBE <table>
para atualizar o metastore.
- Como o Hive não permite a alteração das colunas de partição, mas as tabelas Delta podem alterar seu particionamento, as tabelas Delta não aparecem como particionadas no Hive.
- As informações da tabela não podem ser usadas por leitores externos do site Delta Lake, como as tabelas de formato de manifesto.
MERGE INTO
operações agora suporta a evolução do esquema de colunas aninhadas
A evolução do esquema de colunas aninhadas agora tem a mesma semântica que a das colunas de nível superior. Por exemplo, novas colunas aninhadas podem ser adicionadas automaticamente a uma coluna StructType
. Para obter detalhes, consulte Evolução automática do esquema no merge.
MERGE INTO
operações agora usa automaticamente as gravações otimizadas
As gravações otimizadas podem proporcionar um desempenho muito melhor para MERGE INTO
, especialmente para MERGE INTO
em tabelas particionadas. Para desativar as gravações otimizadas, defina a configuração do Spark spark.databricks.delta.optimizeWrite.enabled
como false
.
MERGE INTO
e operações agora resolvem colunas struct aninhadas por nome UPDATE
As operações de atualização UPDATE
e MERGE INTO
comando agora resolvem colunas struct aninhadas por nome. Ou seja, ao comparar ou atribuir colunas do tipo StructType, a ordem das colunas aninhadas não importa (exatamente da mesma forma que a ordem das colunas de nível superior). Para reverter a resolução por posição, defina a configuração do Spark spark.databricks.delta.resolveMergeUpdateStructsByName.enabled
como false
.
CLONE
é GA e agora você pode substituir as propriedades da tabela
O comando CLONE
agora está disponível de forma geral. Consulte CREATE TABLE CLONE. Além disso, agora você pode especificar substituições de propriedades de tabela ao usar CLONE
. Para obter exemplos, consulte Clonar uma tabela no Databricks.
RESTORE
é GA
O comando RESTORE
agora está disponível de forma geral. Consulte RESTORE.
Implicações do Scala simplificam as APIs de leitura e gravação do Spark
O senhor pode importar io.delta.implicits._
para usar o método delta
com as APIs de leitura e gravação do Spark.
import io.delta.implicits._
spark.read.delta("/my/table/path")
df.write.delta("/my/table/path")
spark.readStream.delta("/my/table/path")
df.writeStream.delta("/my/table/path")
Melhorar a transmissão Taxa de transferência com a opção de conector fetchParallelism
O conector SQS agora oferece suporte a uma nova opção fetchParallelism
para especificar o paralelismo para buscar mensagens do serviço de fila.
Acompanhe o progresso da transmissão com o novo Auto Loader métricas
Auto Loader agora informa quantos arquivos existem no backlog e qual o tamanho do backlog após cada lote. O senhor pode usar essas métricas para acompanhar o progresso da transmissão. Para obter detalhes sobre como view as métricas, consulte O que é Auto Loader?
Melhorias
Suporte mais amplo para biblioteca com escopo de Notebook usando %pip
e %conda
magic comando
Agora o senhor pode instalar uma biblioteca com escopo de Notebook usando %pip
e %conda
magic comando em um cluster de alta simultaneidade com ACLs de tabela ou passagem de credenciais ativadas.
Exibição precisa do Spark SQL DECIMAL
O tipo de dados Spark SQL DECIMAL
agora é exibido em tabelas sem perda de precisão e escala.
Conector de armazenamento ADLS Gen 2 baseado no Hadoop 3.3 para ABFS
Uma versão atualizada do conector de armazenamento ADLS Gen 2 é baseada no Hadoop 3.3 para ABFS. O conector atualizado contém muitas melhorias de estabilidade (consulte Hadoop stability) e inclui suporte para autenticação de tokens SAS.
A conexão Spark-S3 no conector do AWS Redshift agora suporta assumeRole
O conector do Amazon Redshift usa o S3 como um armazenamento intermediário para ler e gravar dados. Agora o senhor pode assumir um IAM role para se autenticar em S3. O senhor configura o IAM role a ser assumido usando os parâmetros de configuração existentes, ou seja, fs.s3a.stsAssumeRole.arn
e
fs.s3a.credentialsType
. Consulte Autenticação no S3 e no Redshift.
Outras correções
O conector Databricks Kafka para streaming Spark foi removido. Use o conector do Apache Spark.
Atualizações da biblioteca
-
Atualizado Python biblioteca:
- koalas foram atualizados de 1.3.0 para 1.4.0.
-
Atualizou várias instalações da R biblioteca. Consulte R biblioteca instalada.
-
Compilação do OpenJDK 8 atualizada para Zulu 8.50.0.51-ca-Linux64 (compilação 1.8.0_275-b01).
Apache Spark
O Databricks Runtime 7.5 inclui o Apache Spark 3.0.1. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 7.4 (EoS), bem como as seguintes correções de bugs e melhorias adicionais feitas no Spark:
- [SPARK-33611] [UI] Evite codificar duas vezes no parâmetro de consulta do URL do proxy reescrito
- [SPARK-33587] [CORE] Eliminar o executor em erros fatais aninhados (7.x)
- [SPARK-33140] [SQL] Reverta o código que não usa o SparkSession passado para obter o SQLConf.
- [SPARK-33472] [SQL] Ajustar a ordem da regra RemoveRedundantSorts
- [SPARK-33422] [DOC] Corrige a exibição correta do item do menu esquerdo
- [SPARK-27421] [SQL] Corrigir o filtro para a coluna int e a classe de valor java.lang.strings ao podar a coluna de partição
- [SPARK-33483] [INFRA] [testes] Corrija os padrões de exclusão de ratos e adicione uma LICENÇA
- [SPARK-33464] [INFRA] Adicionar/remover o cache (não) necessário e reestruturar o yaml do GitHub Actions
- [SPARK-33407] [Python][7.x] Simplificar a mensagem de exceção dos UDFs do site Python (desativado pelo site default)
- [SPARK-33435] [SQL] DSv2: REFRESH TABLE deve invalidar os caches que fazem referência à tabela
- [SPARK-33358] [SQL] Código de retorno em caso de falha no processo de comando
- [SPARK-33183] [DBCONNECT] Adicionar RemoveRedundantSorts.Scala a ALLOW_LIST.txt
- [SPARK-33290] [SQL] REFRESH TABLE deve invalidar o cache mesmo que a tabela em si não esteja em cache
- [SPARK-33140] [SQL] Corrigir a compilação delta
- [SPARK-33316] [SQL] Adicionar testes de unidade para from_avro e to_avro com Schema Registry e esquema Avro nulável fornecido pelo usuário
- [SPARK-33404] [SQL] Corrigir resultados incorretos na expressão
date_trunc
- [SPARK-33339] [Python] O aplicativo PySpark será suspenso devido a um erro de não exceção
- [SPARK-33412] [SQL] OverwriteByExpression deve resolver sua condição de exclusão com base na relação da tabela e não na consulta de entrada
- [SPARK-33391] [SQL] element_at com CreateArray não respeita um índice baseado.
- [SPARK-33316] [SQL] Suporte a esquema Avro nulável fornecido pelo usuário para esquema catalisador não nulável na escrita Avro
- [SPARK-33372] [SQL] Corrigir a poda de balde do InSet
- [SPARK-33371] [Python] Atualizar setup.py e testes para Python 3.9
- [SPARK-33140] [SQL] remover SQLConf e SparkSession em todas as subclasses de Rule[QueryPlan].
- [SPARK-33338] [SQL] GROUP BY usando mapa literal não deve falhar
- [SPARK-33306] [SQL]O fuso horário é necessário ao converter data em cadeias de caracteres
- [SPARK-33284] [WEB-UI] Na página Storage UI, clicar em qualquer campo para classificar a tabela fará com que o conteúdo do cabeçalho seja perdido
- [SPARK-33362] [SQL] skipSchemaResolution ainda deve exigir que a consulta seja resolvida
- [SPARK-32257] [SQL] Relata erros explícitos para o uso inválido do comando SET/RESET
- [SPARK-32406] [SQL] Fazer com que a sintaxe de RESET seja compatível com uma única configuração Redefinir
- [SPARK-32376] [SQL] Fazer com que o comportamento de preenchimento nulo do unionByName funcione com colunas struct
- [SPARK-32308] [SQL] Mova a lógica de resolução por nome de unionByName do código da API para a fase de análise
- [SPARK-20044] [UI] Suporte a Spark UI por trás do proxy reverso de front-end usando um prefixo de caminho Reverter url do proxy
- [SPARK-33268] [SQL][Python] Corrigir erros na conversão de dados de/para PythonUserDefinedType
- [SPARK-33292] [SQL] Tornar a representação de strings Literal ArrayBasedMapData não ambígua
- [SPARK-33183] [SQL] Corrigir a regra do otimizador EliminateSorts e adicionar uma regra física para remover classificações redundantes
- [SPARK-33272] [SQL] remove o mapeamento de atributos em QueryPlan.transformUpWithNewOutput
- [SPARK-32090] [SQL] Aprimorar UserDefinedType.equal() para que seja simétrico
- [SPARK-33267] [SQL] Corrige o problema de NPE no filtro "In" quando um dos valores contém nulo
- [SPARK-33208] [SQL] Atualizar o documento da SparkSession#sql
- [SPARK-33260] [SQL] Corrigir resultados incorretos do SortExec quando o sortOrder é transmitido
- [SPARK-33230] [SQL] Hadoop committers para obter um ID de trabalho exclusivo em "spark.sql.sources.writeJobUUID"
- [SPARK-33197] [SQL] Fazer alterações em spark.sql.analyzer.maxIterations entram em vigor em tempo de execução
- [SPARK-33228] [SQL] Não remover o cache de dados ao substituir um view com o mesmo plano lógico
- [SPARK-32557] [CORE] Registrando e engolindo a exceção por entrada no servidor de história
- [SPARK-32436] [CORE] Inicialize numNonEmptyBlocks em HighlyCompressedMapStatus.readExternal
- [SPARK-33131] [SQL] Corrigir conjuntos de agrupamento com a cláusula having não pode resolver o nome qualificado da coluna
- [SPARK-32761] [SQL] Permitir a agregação de várias expressões distintas dobráveis
- [SPARK-33094] [SQL] Fazer com que o formato ORC propague a configuração do Hadoop das opções do DS para o sistema de arquivos HDFS subjacente
Atualizações de manutenção
Consulte Atualizações de manutenção do Databricks Runtime 7.5.
Ambiente do sistema
- Sistema operacional : Ubuntu 18.04.5 LTS
- Java : Zulu 8.50.0.51-CA-linux64 (build 1.8.0_275-b01)
- Scala : 2.12.10
- Python : 3.7.5
- R : R versão 3.6.3 (2020-02-29)
- Delta Lake 0.7.0
Instalado Python biblioteca
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
criptomoeda asn1 | 1.3.0 | chamada de volta | 0.1.0 | boto3 | 1.12.0 |
botocore | 1,15.0 | certifi | 2020.6.20 | caffi | 1,14.0 |
chardet | 3.0.4 | criptografia | 2.8 | ciclador | 0.10.0 |
Cython | 0,29,15 | decorador | 4.4.1 | docutils | 0,15.2 |
pontos de entrada | 0,3 | Índia | 2.8 | ipykernel | 5.1.4 |
ipython | 7.12.0 | ipython-genutils | 0.2.0 | jedi | 0,17.2 |
jmespath | 0.10.0 | joblib | 0,14.1 | cliente jupyter | 5.3.4 |
núcleo jupyter | 4.6.1 | solucionador de kiwi | 1.1.0 | coalas | 1.4.0 |
Matplotlib | 3.1.3 | entorpecido | 1.18.1 | Pandas | 1.0.1 |
parso | 0.7.0 | bode expiatório | 0.5.1 | esperar | 4.8.0 |
picles | 0.7.5 | pip | 20,0.2 | kit de ferramentas de aviso | 3.0.3 |
psycopg2 | 2.8.4 | processo pty | 0.6.0 | flecha | 1.0.1 |
pycparser | 2,19 | Pigmentos | 2.5.2 | Objeto PYG | 3.26.1 |
PyOpenSSL | 19.1.0 | análise de pipa | 2.4.6 | Meias PY | 1.7.1 |
Python-apt | 1.6.5+ubuntu0.3 | Python-dateutil | 2.8.1 | pytz | 2019,3 |
pizma | 18.1.1 | pedidos | 2.22,0 | transferência s3 | 0.3.3 |
scikit-learn | 0,22,1 | pegajoso | 1.4.1 | marítimo | 0.10.0 |
ferramentas de configuração | 45,2,0 | seis | 1,14.0 | ID de importação ssh | 5.7 |
modelos de estatísticas | 0.11.0 | tornado | 6.0.3 | almôndegas | 4.3.3 |
atualizações autônomas | 0,1 | urllib3 | 1,25,8 | ambiente virtual | 16.7.10 |
largura do wc | 0.1.8 | Python wheel | 0,34,2 |
Instalada a R biblioteca
As bibliotecas R são instaladas a partir do Snapshot Microsoft CRAN em 2020-11-02.
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
askpass | 1.1 | afirme que | 0.2.1 | portas traseiras | 1.1.10 |
base | 3.6.3 | base64enc | 0,1-3 | POR | 1,72,0-3 |
pouco | 4.0.4 | bit64 | 4.0.5 | bolha | 1.2.1 |
inicialização | 1,3-25 | fermentar | 1,0-6 | brio | 1.1.0 |
vassoura | 0.7.2 | chamador | 3.5.1 | cursor | 6,0-86 |
guarda de celas | 1.1.0 | crono | 2,3-56 | Aula | 7,3-17 |
CLIPE | 2.1.0 | clipe | 0.7.1 | Cluster | 2.1.0 |
ferramentas de código | 0,2-18 | espaço de cores | 1,4-1 | marca comum | 1.7 |
compilador | 3.6.3 | configuração | 0,3 | capa | 3.5.1 |
cpp11 | 0.2.3 | giz de cera | 1.3.4 | diafonia | 1.1.0.1 |
cacho | 4.3 | data.tabela | 1.13.2 | conjunto de dados | 3.6.3 |
DBI | 1.1.0 | dbplyr | 1.4.4 | desc | 1.2.0 |
ferramentas de desenvolvimento | 2.3.2 | diff | 0.3.2 | digerir | 0,6.27 |
dplyr | 0,8.5 | DT | 0,16 | reticências | 0.3.1 |
avalie | 0,14 | fansi | 0.4.1 | colorista | 2.0.3 |
mapa rápido | 1.0.1 | para gatos | 0.5.0 | para cada um | 1.5.1 |
estrangeira | 0,8-76 | forjar | 0.2.0 | fs | 1.5.0 |
genéricas | 0.1.0 | ggplot2 | 3.3.2 | gh | 1.1.0 |
git2r | 0,27.1 | glmnet | 3,0-2 | globais | 0.13.1 |
cola | 1.4.2 | goleiro | 0.2.2 | gráficos | 3.6.3 |
Dispositivos GR | 3.6.3 | grade | 3.6.3 | Grid Extra | 2.3 |
gsubfn | 0,7 | mesa | 0.3.0 | refúgio | 2.3.1 |
mais alto | 0,8 | HMS | 0.5.3 | ferramentas html | 0.5.0 |
widgets html | 1.5.2 | http.uv | 1.5.4 | httr | 1.4.2 |
escritor | 1.3.2 | HWriter Plus | 1,0-3 | mini | 0.3.1 |
ipred | 0,9-9 | isóbanda | 0.2.2 | iteradores | 1,0.13 |
jsonlite | 1.7.1 | Kern Smooth | 2,23-18 | tricotar | 1,30 |
rótulo | 0.4.2 | posteriormente | 1.1.0.1 | treliça | 0,20-41 |
lava | 1.6.8 | preguiçoso | 0.2.2 | ciclo de vida | 0.2.0 |
lubrificar | 1.7.9 | magritter | 1.5 | Markdown | 1.1 |
MASSA | 7,3-53 | Matriz | 1,2-18 | memoise | 1.1.0 |
métodos | 3.6.3 | mgcv | 1,8-33 | mímica | 0,9 |
Métricas do modelo | 1.2.2.2 | modelar | 0.1.8 | munsell | 0.5.0 |
nome | 3,1-150 | net | 7,3-14 | Número Deriv | 2016,8-1,1 |
openssl | 1.4.3 | paralelo | 3.6.3 | pilar | 1.4.6 |
pkgbuild | 1.1.0 | pkgconfig | 2.0.3 | carregamento de pacotes | 1.1.0 |
plogr | 0.2.0 | plyr | 1.8.6 | elogio | 1.0.0 |
unidades bonitas | 1.1.1 | ProC | 1.16.2 | processa | 3.4.4 |
prodlim | 13/11/2019 | progresso | 1.2.2 | promessas | 1.1.1 |
proto | 1.0.0 | ps | 1.4.0 | ronronar | 0.3.4 |
r2d3 | 0.2.3 | R6 | 2.5.0 | Floresta aleatória | 4,6-14 |
corredeiras | 0.3.1 | rcmdcheck | 1.3.3 | Cervejaria RColor | 1,1-2 |
Rcpp | 1.0.5 | leitor | 1.4.0 | readxl | 1.3.1 |
receitas | 0,1,14 | revanche | 1.0.1 | revanche 2 | 2.1.2 |
controles remotos | 2.2.0 | reprex | 0.3.0 | remodelar 2 | 1.4.4 |
rex | 1.2.0 | rojson | 0.2.20 | rlang | 0.4.8 |
rmarkdown | 2,5 | RODBC | 1,3-16 | roxigênio2 | 7.1.1 |
rpartem | 4,1-15 | rprojroot | 1,3-2 | Reservar | 1,8-7 |
RSQLite | 2.2.1 | API do estúdio | 0,11 | reversões | 2.0.2 |
colete | 0.3.6 | escala | 1.1.1 | seletor | 0,4-2 |
informações da sessão | 1.1.1 | forma | 1.4.4 | brilhante | 1.5.0 |
ferramentas de origem | 0.1.7 | Sparklyr | 1.4.0 | SparkR | 3.0.0 |
espacial | 7,3-11 | splines | 3.6.3 | sqldf | 0,4-11 |
QUADRADO | 2020,5 | estatísticas | 3.6.3 | estatísticas4 | 3.6.3 |
stringi | 1.5.3 | longarina | 1.4.0 | sobrevivência | 3,2-7 |
diz | 3.4 | tcltk | 3.6.3 | Demonstrações de ensino | 2,10 |
teste isso | 3.0.0 | petiscar | 3.0.4 | arrumado | 1.1.2 |
seleção arrumada | 1.1.0 | tidyverso | 1.3.0 | Hora/Data | 3043,102 |
tinytex | 0,27 | Ferramentas | 3.6.3 | use isso | 1.6.3 |
utf 8 | 1.1.4 | utilidades | 3.6.3 | uuid | 0,1-4 |
vctrs | 0.3.4 | Viridis Lite | 0.3.0 | waldo | 0.2.2 |
bigode | 0,4 | murchar | 2.3.0 | diversão | 0,19 |
xml2 | 1.3.2 | xopen | 1.0.0 | x estável | 1,8-4 |
yaml | 2.2.1 |
Instalei Java e Scala biblioteca (versão de clusteringScala 2.12)
ID do grupo | ID do artefato | Versão |
---|---|---|
chifre | chifre | 2.7.7 |
com.amazonaws | Amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscale | 1,11.655 |
com.amazonaws | formação de nuvem aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-cloudfront | 1,11.655 |
com.amazonaws | aws-java-sdk-cloudhsm | 1,11.655 |
com.amazonaws | aws-java-sdk-cloudsearch | 1,11.655 |
com.amazonaws | aws-java-sdk-cloudtrail | 1,11.655 |
com.amazonaws | aws-java-sdk-cloudwatch | 1,11.655 |
com.amazonaws | métricas aws-java-sdk-cloudwatch | 1,11.655 |
com.amazonaws | aws-java-sdk-codedeploy | 1,11.655 |
com.amazonaws | identidade cognitiva aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-cognitosync | 1,11.655 |
com.amazonaws | aws-java-sdk-config | 1,11.655 |
com.amazonaws | aws-java-sdk-core | 1,11.655 |
com.amazonaws | pipeline de dados aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-conexão direta | 1,11.655 |
com.amazonaws | diretório aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-dynamodb | 1,11.655 |
com.amazonaws | aws-java-sdk-ec2 | 1,11.655 |
com.amazonaws | aws-java-sdk-ecs | 1,11.655 |
com.amazonaws | aws-java-sdk-efs | 1,11.655 |
com.amazonaws | aws-java-sdk-elasticache | 1,11.655 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1,11.655 |
com.amazonaws | balanceamento de carga elástico aws-java-sdk | 1,11.655 |
com.amazonaws | transcodificador elástico aws-java-sdk- | 1,11.655 |
com.amazonaws | aws-java-sdk-emr | 1,11.655 |
com.amazonaws | aws-java-sdk-glacier | 1,11.655 |
com.amazonaws | aws-java-sdk-iam | 1,11.655 |
com.amazonaws | aws-java-sdk-importação/exportação | 1,11.655 |
com.amazonaws | aws-java-sdk-kinesis | 1,11.655 |
com.amazonaws | aws-java-sdk-kms | 1,11.655 |
com.amazonaws | aws-java-sdk-lambda | 1,11.655 |
com.amazonaws | aws-java-sdk-logs | 1,11.655 |
com.amazonaws | aws-java-sdk - aprendizado de máquina | 1,11.655 |
com.amazonaws | aws-java-sdk-opsworks | 1,11.655 |
com.amazonaws | aws-java-sdk-rds | 1,11.655 |
com.amazonaws | aws-java-sdk-redshift | 1,11.655 |
com.amazonaws | aws-java-sdk-route53 | 1,11.655 |
com.amazonaws | aws-java-sdk-s3 | 1,11.655 |
com.amazonaws | aws-java-sdk-ses | 1,11.655 |
com.amazonaws | aws-java-sdk-simpledb | 1,11.655 |
com.amazonaws | aws-java-sdk - fluxo de trabalho simples | 1,11.655 |
com.amazonaws | aws-java-sdk-sns | 1,11.655 |
com.amazonaws | aws-java-sdk-sqs | 1,11.655 |
com.amazonaws | aws-java-sdk-ssm | 1,11.655 |
com.amazonaws | gateway de armazenamento aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-sts | 1,11.655 |
com.amazonaws | suporte aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-swf-biblioteca | 1.11.22 |
com.amazonaws | aws-java-sdk-workspace | 1,11.655 |
com.amazonaws | jmespath-java | 1,11.655 |
com.chuusai | sem forma_2.12 | 2.3.3 |
com.clearspring.analítica | transmissão | 2.9.6 |
com.databricks | Reservar | 1,8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | plugin_2.12 do compilador | 0,4,15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0,4,15-10 |
com.esotérico software | crio-sombreado | 4.0.2 |
com.esotérico software | minlog | 1.3.0 |
com.fasterxml | colega de classe | 1.3.4 |
com.fasterxml.jackson.core | jackson-anotação | 2.10.0 |
com.fasterxml.jackson.core | jackson-core | 2.10.0 |
com.fasterxml.jackson.core | vinculação de dados jackson | 2.10.0 |
formato de dados com.fasterxml.jackson. | formato de dados jackson-cbor | 2.10.0 |
com.fasterxml.jackson.tipo de dados | jackson-datatype-joda | 2.10.0 |
com.fasterxml.jackson.module | parâmetro do módulo jackson | 2.10.0 |
com.fasterxml.jackson.module | jackson-module-Scala.12 | 2.10.0 |
com.github.ben-manes.cafeína | cafeína | 2.3.4 |
com.github.fommil | descarregador | 1.1 |
com.github.fommil.netlib | abdômen | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-nativos | 1.1 |
com.github.fommil.netlib | sistema_nativo-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.joshelser | dropwizard-métricas-hadoop-metrics2-reporter | 0.1.2 |
com.github.luben | zstd-jni | 1,4.4-3 |
com.github.wendykierp | JTransforma | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.2.4 |
com.google.flatbuffers | tampões planos-java | 1.9.0 |
com.google.goiaba | goiaba | 15,0 |
com.google.protobuf | protobuf-java | 2.6.1 |
banco de dados com.h2 | h2 | 1,4,195 |
com.helger | perfilador | 1.1.1 |
com.jcraft | jsch | 0,1,50 |
com.jolbox | bonecp | VERSÃO 0.8.0. |
com.lihaoyi | código-fonte_2.12 | 0.1.9 |
com.microsoft.sqlserver | mssql-JDBC | 8.2.1. jre8 |
com.microsoft.azure | azure-data lake-store-sdk | 2.3.8 |
comendo | comprimir-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.trunning | JSON | 1,8 |
com.thoughtworks.paranamer | paranâmero | 2.8 |
com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
com.Twitter | chill-java | 0,9.5 |
com.Twitter | chill_2.12 | 0,9.5 |
com.Twitter | util-app_2.12 | 7.1.0 |
com.Twitter | util-core_2.12 | 7.1.0 |
com.Twitter | função-útil_2.12 | 7.1.0 |
com.Twitter | util-jvm_2.12 | 7.1.0 |
com.Twitter | util-lint_2.12 | 7.1.0 |
com.Twitter | util-registry_2.12 | 7.1.0 |
com.Twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | configuração | 1.2.1 |
com.typesafe.Scala-logging | Scala-logging_2.12 | 3.7.2 |
com.univocidade | analisadores de univocidade | 2.9.0 |
com.zaxxer | HikaricP | 3.1.0 |
folhas de feijão comum | folhas de feijão comum | 1.9.4 |
comum-CLI | comum-CLI | 1.2 |
codec comum | codec comum | 1,10 |
coleções comuns | coleções comuns | 3.2.2 |
configuração comum | configuração comum | 1,6 |
commons-dbcp | commons-dbcp | 1.4 |
digestor comum | digestor comum | 1,8 |
upload de arquivo commons | upload de arquivo commons | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2,4 |
linguagem comum | linguagem comum | 2.6 |
registro de bens comuns | registro de bens comuns | 1.1.3 |
commons-net | commons-net | 3.1 |
comum-pool | comum-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io. airlift | compressor de ar | 0,10 |
io.dropwizard.métricas | núcleo de métricas | 4.1.1 |
io.dropwizard.métricas | métricas-grafite | 4.1.1 |
io.dropwizard.métricas | métricas-healthchecks | 4.1.1 |
io.dropwizard.métricas | métricas-jetty9 | 4.1.1 |
io.dropwizard.métricas | métricas-jmx | 4.1.1 |
io.dropwizard.métricas | métricas-JSON | 4.1.1 |
io.dropwizard.métricas | métricas-JVM | 4.1.1 |
io.dropwizard.métricas | métricas-servlets | 4.1.1 |
io.netty | tudo | 4.1.47. Final |
io. prometheus | cliente simples | 0.7.0 |
io. prometheus | simpleclient_common | 0.7.0 |
io. prometheus | simpleclient_dropwizard | 0.7.0 |
io. prometheus | gateway client_push simples | 0.7.0 |
io. prometheus | client_servlet simples | 0.7.0 |
io.prometheus.jmx | coletor | 0.12.0 |
jakarta.anotação | jakarta.anotação-api | 1.3.5 |
jakarta.validação | jakarta.validação-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.ativação | ativação | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1.1 |
javax.transaction | API de transação | 1.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.transmissão | stax-api | 1,0-2 |
javolução | javolução | 5.5.1 |
junte-se | junte-se | 2.14.6 |
hora do dia | hora do dia | 2.10.5 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
net.razorvine | pirolita | 4,30 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | supercsv | 2.2.0 |
net.snowflake | SDK de ingestão de flocos de neve | 0.9.6 |
net.snowflake | floco de neve-JDBC | 3.12.8 |
net.snowflake | floco de neve faísca_2.12 | 2.8.1-spark_3.0 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | chá remoto - oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.7.1 |
org.antlr | modelo de string | 3.2.1 |
org.apache.ant | formiga | 1.9.2 |
org.apache.ant | formiga | 1.9.2 |
org.apache.ant | lançador de formigas | 1.9.2 |
org.apache.arrow | formato de seta | 0.15.1 |
org.apache.arrow | memória de seta | 0.15.1 |
org.apache.arrow | vetor de seta | 0.15.1 |
org.apache.avro | AVRO | 1.8.2 |
org.apache.avro | avro-ipc | 1.8.2 |
org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
org.apache.commons | compressa comum | 1.8.1 |
org.apache.commons | criptomoeda comum | 1.0.0 |
org.apache.commons | commons-lang3 | 3.9 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.commons | texto comum | 1,6 |
org.apache.curator | curador-cliente | 2.7.1 |
org.apache.curator | estrutura de curador | 2.7.1 |
org.apache.curator | receitas de curadores | 2.7.1 |
org.apache.derby | derby | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1,0,0-M20 |
org.apache.directory.api | utilitário de API | 1,0,0-M20 |
org.apache.directory.server | apacheds-i18n | 2,0,0-M15 |
org.apache.directory.server | codec apacheds-kerberos | 2,0,0-M15 |
org.apache.hadoop | hadoop-anotação | 2.7.4 |
org.apache.hadoop | autenticação hadoop | 2.7.4 |
org.apache.hadoop | cliente hadoop | 2.7.4 |
org.apache.hadoop | hadoop-comum | 2.7.4 |
org.apache.hadoop | hadoop-HDFS | 2.7.4 |
org.apache.hadoop | aplicativo cliente hadoop mapreduce | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.4 |
org.apache.hadoop | núcleo do cliente hadoop-mapreduce | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.4 |
org.apache.hadoop | API hadoop yarn | 2.7.4 |
org.apache.hadoop | cliente hadoop-yarn | 2.7.4 |
org.apache.hadoop | hadoop-yarn-common | 2.7.4 |
org.apache.hadoop | servidor hadoop-yarn-comum | 2.7.4 |
org.apache.hive | hive-beeline | 2.3.7 |
org.apache.hive | colmeia-CLI | 2.3.7 |
org.apache.hive | colmeia comum | 2.3.7 |
org.apache.hive | núcleo hive-exec-core | 2.3.7 |
org.apache.hive | hive-JDBC | 2.3.7 |
org.apache.hive | hive-llap-client | 2.3.7 |
org.apache.hive | hive-lap-common | 2.3.7 |
org.apache.hive | Hive metastore | 2.3.7 |
org.apache.hive | colmeia | 2.3.7 |
org.apache.hive | hive-shims | 2.3.7 |
org.apache.hive | API de armazenamento em nuvem | 2.7.1 |
org.apache.hive | geração de código vetorial hive | 2.3.7 |
org.apache.hive.shims | calços de colmeia - 0,23 | 2.3.7 |
org.apache.hive.shims | calços de colmeia comuns | 2.3.7 |
org.apache.hive.shims | hive-shims-programador | 2.3.7 |
org.apache.htrace | htrace-core | 3.1.0 - incubação |
org.apache.httpcomponents | cliente http | 4.5.6 |
org.apache.httpcomponents | httpcore | 4.4.12 |
org.apache.ivy | hera | 2.4.0 |
org.apache.mesos | protobuf sombreado em mesos | 1.4.0 |
org.apache.orc | núcleo orc | 1.5.10 |
org.apache.orc | orc-mapreduce | 1.5.10 |
org.apache.orc | calços de orc | 1.5.10 |
org.apache.parquet | coluna de parquete | 1.10.1 - blocos de dados 6 |
org.apache.parquet | parquete comum | 1.10.1 - blocos de dados 6 |
org.apache.parquet | codificação de parquet | 1.10.1 - blocos de dados 6 |
org.apache.parquet | formato de parquet | 2.4.0 |
org.apache.parquet | parquet-hadoop | 1.10.1 - blocos de dados 6 |
org.apache.parquet | parquet-jackson | 1.10.1 - blocos de dados 6 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.velocity | velocidade | 1.5 |
org.apache.xbean | xbean-asm7-shaded | 4,15 |
org.apache.yetus | audiência-anotação | 0.5.0 |
org.apache.zookeeper | tratador | 3.4.14 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxers | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | compilador common | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | núcleo de dados-api-jdo | 4.2.4 |
org.datanucleus | núcleo de dados | 4.1.17 |
org.datanucleus | núcleo de dados-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3,2,0-m3 |
org.Eclipse.jetty | jetty-client | 9.4.18.v20190429 |
org.Eclipse.jetty | continuação do cais | 9.4.18.v20190429 |
org.Eclipse.jetty | jetty-http | 9.4.18.v20190429 |
org.Eclipse.jetty | jetty-io | 9.4.18.v20190429 |
org.Eclipse.jetty | jetty-jndi | 9.4.18.v20190429 |
org.Eclipse.jetty | jetty-plus | 9.4.18.v20190429 |
org.Eclipse.jetty | jetty-proxy | 9.4.18.v20190429 |
org.Eclipse.jetty | segurança do cais | 9.4.18.v20190429 |
org.Eclipse.jetty | servidor jetty-server | 9.4.18.v20190429 |
org.Eclipse.jetty | jutty-servlet | 9.4.18.v20190429 |
org.Eclipse.jetty | píer de servlets | 9.4.18.v20190429 |
org.Eclipse.jetty | jetty-util | 9.4.18.v20190429 |
org.Eclipse.jetty | aplicativo web jetty- | 9.4.18.v20190429 |
org.Eclipse.jetty | jetty-xml | 9.4.18.v20190429 |
org.fusesource.leveldbjni | leveldbjni-tudo | 1,8 |
org.glassfish.hk2 | API hk2 | 2.6.1 |
org.glassfish.hk2 | localizador hk2 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-recurso-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance - reembalado | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | servlet de contêiner de camisa | 2,30 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2,30 |
org.glassfish.jersey.core | cliente de camisa | 2,30 |
org.glassfish.jersey.core | camiseta comum | 2,30 |
org.glassfish.jersey.core | servidor de camisa | 2,30 |
org.glassfish.jersey.inject | camiseta-hk2 | 2,30 |
org.glassfish.jersey.media | jersey-media-jaxb | 2,30 |
org.hibernate.validator | validador de hibernação | 6.1.0. Final |
org.javassist | javassist | 3,25,0 GA |
org.jboss.logging | registro de jboss-logging | 3.3.2. Final |
org.jdbi | jdbi | 2.63,1 |
org.joda | conversor de joda | 1.7 |
org.jodd | núcleo nodular | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.6.6 |
org.json4s | json4s-core_2.12 | 3.6.6 |
org.json4s | json4s-jackson_2.12 | 3.6.6 |
org.json4s | json4s-scalap_2.12 | 3.6.6 |
org.lz4 | lz4-java | 1.7.1 |
org.mariadb.JDBC | cliente mariadb-java | 2.1.2 |
org.objenesis | objênese | 2.5.1 |
org.postgresql | PostgreSQL | 42,14 |
org.roaringbitmap | Mapa de bits estrondoso | 0,7,45 |
org.roaringbitmap | calços | 0,7,45 |
org.rocksdb | rocksdbjni | 6.2.2 |
org.rosuda.rEngine | Motor | 2.1.0 |
org.Scala-lang | Scala-compiler_2.12 | 2.12.10 |
org.Scala-lang | Scala-biblioteca.12 | 2.12.10 |
org.Scala-lang | Scala-reflect_2.12 | 2.12.10 |
org.Scala-lang.modules | Scala-collection-compat_2.12 | 2.1.1 |
org.Scala-lang.modules | Scala-parser-combinators_2.12 | 1.1.2 |
org.Scala-lang.modules | Scala-xml_2.12 | 1.2.0 |
org.Scala-sbt | interface de teste | 1,0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1,0 |
org.scalanlp | breeze_2.12 | 1,0 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1,7.30 |
org.slf4j | jul-a-slf4j | 1,7.30 |
org.slf4j | slf4j-api | 1,7.30 |
org.slf4j | slf4j-log4j12 | 1,7.30 |
org.spark-project.spark | não utilizado | 1.0.0 |
org.springframework | núcleo de mola | 4.1.4. LANÇAMENTO |
org.springframework | teste de primavera | 4.1.4. LANÇAMENTO |
org.threeten | treze e mais | 1.5.0 |
org.tukaani | xz | 1.5 |
org.typelevel | álgebra_2.12 | 2,0,0-M2 |
org.typelevel | cats-kernel_2.12 | 2,0,0-M4 |
org.typelevel | maquinista_2.12 | 0.6.8 |
org.typelevel | macro-compat_2,12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0,17.0-M1 |
org.typelevel | spire-platform_2.12 | 0,17.0-M1 |
org.typelevel | spire-util_2.12 | 0,17.0-M1 |
org.typelevel | spire_2.12 | 0,17.0-M1 |
org.wildfly.openssl | wildfly-openssl | 1.0.7. Final |
org.xerial | sqlite-JDBC | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.7.5 |
org.yaml | snakeyaml | 1,24 |
oro | oro | 2.0.8 |
pt.edu.icm | Matrizes JLarge | 1.5 |
software.Amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0,52 |