Databricks Runtime 4,3 (EoS)
O suporte para essa versão do Databricks Runtime foi encerrado. Para saber a data do fim do suporte, consulte Histórico do fim do suporte. Para conhecer todas as versões compatíveis do site Databricks Runtime, consulte Databricks Runtime notas sobre as versões e a compatibilidade.
A Databricks lançou essa versão em agosto de 2018.
Esta versão foi descontinuada em 9 de abril de 2019. Para obter mais informações sobre a política de descontinuidade e programação do Databricks Runtime, consulte Databricks support lifecycles.
As notas a seguir sobre a versão fornecem informações sobre o Databricks Runtime 4.3, desenvolvido pelo Apache Spark.
Novo recurso
-
Delta Lake
TRUNCATE TABLE
comando: Excluir todas as linhas de uma tabela. Diferentemente de sua contraparte para tabelas Spark, as tabelas Delta não oferecem suporte à exclusão de partições específicas.ALTER TABLE REPLACE COLUMNS
comando: Substituir colunas em uma tabela Delta. Ele suporta a alteração do comentário de uma coluna e a reordenação de várias colunas.FSCK REPAIR TABLE
comando: Remover as entradas de arquivo do log de transações de uma tabela Delta que não pode mais ser encontrada no sistema de arquivos subjacente. Isso pode acontecer quando esses arquivos são excluídos manualmente.- Suporte a consultas em tabelas obsoletas do site Delta para melhorar a experiência de consulta interativa: As consultas em tabelas Delta agora podem ser executadas em uma versão obsoleta da tabela quando resultados atualizados não forem necessários. Esse recurso reduz a latência das consultas, especialmente quando as tabelas subjacentes do site Delta são atualizadas continuamente por meio de transmissão.
-
Transmissão estruturada
- Suporte de gravação de transmissão escalável para o conectorAzure Synapse Analytics.
- Suporte para
foreachBatch()
em Python (já disponível em Scala). Consulte a documentação do foreach e do forEachBatch para obter mais detalhes. - Suporte para escolher a marca d'água mínima ou máxima quando há várias transmissões de entrada em uma consulta. Anteriormente, o carimbo de data/hora mínimo sempre era usado. Consulte a política de várias marcas d'água para obter mais detalhes.
- Suporte ao operador
LIMIT
para transmissão nos modos de saídaAppend
eComplete
. Para minimizar os erros de OOM no driver, oLIMIT
é aplicado automaticamente quando o senhor usa odisplay()
em uma transmissão ilimitada.
Melhorias
-
Delta Lake
-
Visualização privada da nova implementação escalonável do comando
MERGE INTO
que não tem o limite de inserção de 10.000 linhas. Entre em contato com o suporte se quiser experimentar isso. -
Melhor desempenho e escalabilidade do comando
OPTIMIZE
, especialmente em clusters maiores. -
O comando OPTIMIZE agora faz o commit da tabela de forma incremental, o que significa que, se o comando falhar, uma nova tentativa não precisará processar todo o conjunto de dados.
-
Redução do número de RPCs do sistema de arquivos necessários para descobrir novos dados ao usar o site Delta Lake como fonte de transmissão.
-
Foi adicionado suporte para
df.writeStream.table(table-name)
em Python para criar uma tabela Delta a partir de uma transmissão. -
Melhoria da latência de carregamento da tabela e da latência de transmissão para Delta Lake quando o controle de versão de S3 está ativado.
-
-
Desempenho aprimorado para consultas com várias junções, agregações ou janelas.
-
Eficiência aprimorada para poda em nível de partição em consultas com junção de hash de transmissão.
-
Aprimoramentos na geração de código de estágio completo para detectar expressões duplicadas, reduzir a quantidade de código gerado e melhorar o desempenho de determinados tipos de expressão.
-
O cluster de alta simultaneidade agora suporta a execução do
%fs
no Notebook. -
Atualização do Py4J usado pelo PySpark para 0.10.7.
-
A interface do usuário TensorBoard agora suporta Community Edition e clustering sem IPs públicos. O uso da interface do usuário do TensorBoard não exige mais alterações nos grupos de segurança no AWS.
Recurso obsoleto
- O Data Skipping fora do Databricks Delta está obsoleto. Uma versão aprimorada da omissão de dados continuará disponível como parte do Delta Lake. Recomendamos que o senhor passe a usar o Delta Lake para continuar a aproveitar esse recurso. Consulte Databricks Delta Data Skipping para obter detalhes.
Correções de bugs
-
Correção da instrução pushdown de predicado incorreta
MERGE INTO
para Delta quando a condição ON tinha predicados que faziam referência apenas à tabela de destino. -
Corrigido um bug em
mapGroupsWithState
eflatMapGroupsWithState
que impedia a configuração de tempos limite quando o estado era removido (SPARK-22187). -
Corrigido o erro que impedia que a marca d'água funcionasse corretamente com
Trigger.Once
(SPARK-24699). -
O comando Update agora valida as colunas na cláusula SET para garantir que todas as colunas realmente existam e que nenhuma coluna seja definida mais de uma vez.
-
Foi corrigida uma possível condição de corrida que poderia causar deadlocks no commit de diretórios.
-
Foi corrigido um bug no acesso ao S3 em que o tamanho do arquivo era incorretamente definido como o tamanho criptografado quando o CSE estava ativado, causando falha no leitor de arquivos Parquet.
-
Foi corrigido um erro que fazia com que uma versão obsoleta do cliente DBFS fosse usada ao atualizar as montagens.
Problemas conhecidos
- Delta Lake As opções de configuração de uma tabela entram em vigor somente no primeiro Notebook que carrega a tabela.
Apache Spark
O Databricks Runtime 4.3 inclui o Apache Spark 2.3.1. Esta versão inclui todas as correções e melhorias incluídas no Databricks Runtime 4.2 (EoS), bem como as seguintes correções de bugs e melhorias adicionais feitas no Spark:
-
[SPARK-24934][SQL] Permitir explicitamente os tipos suportados nos limites superior/inferior para a poda de partição na memória
- Quando tipos de dados complexos são usados em filtros query em dados armazenados em cache, o Spark sempre retorna um conjunto de resultados vazio. A remoção baseada em estatísticas na memória gera resultados incorretos, porque null é definido para limites superiores/mais baixo para tipos complexos. A correção é não usar a remoção baseada em estatísticas na memória para tipos complexos.
-
[SPARK-24957][SQL] Média com decimal seguida de agregação retorna um resultado errado
- Os resultados incorretos de AVERAGE podem ser retornados. O CAST adicionado no operador Average será ignorado se o resultado de Divide for do mesmo tipo para o qual ele foi convertido.
-
[SPARK-24867][SQL] Adicionar AnalysisBarrier ao DataFrameWriter
- O cache SQL não está sendo usado quando se usa o DataFrameWriter para gravar um DataFrame com UDF. Essa é uma regressão causada pelas mudanças que fizemos no AnalysisBarrier, já que nem todas as regras do Analyzer são idempotentes.
-
[SPARK-24790][SQL] Permitir expressões de agregação complexas no Pivot
- Relaxe a verificação para permitir expressões de agregação complexas, como ceil(sum(col1)) ou sum(col1) + 1, o que significa, grosso modo, qualquer expressão de agregação que possa aparecer em um plano Aggregate, exceto Pandas UDF.
-
[SPARK-24870][SQL] O cache não pode funcionar normalmente se houver letras maiúsculas e minúsculas no SQL
- Corrige um problema de canonização do plano.
-
[SPARK-24852]Fazer com que o treinamento spark.ml use APIs de instrumentação atualizadas.
-
[SPARK-24891][SQL] Corrigir a regra HandleNullInputsForUDF
- Torne a regra handleNullInputsForUDF idempotente para evitar incompatibilidade de planos no gerenciador de cache quando um plano é analisado mais de uma vez.
-
[SPARK-24878][SQL] Corrigir a função inversa para o tipo de matriz do tipo primitivo contendo nulo.
-
[SPARK-24871][SQL] Refatorar Concat e MapConcat para evitar a criação de objeto concatenador para cada linha.
-
[SPARK-24802][SQL] Adicionar uma nova configuração para a exclusão de regras de otimização
- Fornece uma configuração aos usuários para excluir algumas regras do otimizador.
-
[SPARK-24879][SQL] Corrigir NPE no pushdown do filtro de poda de partição do Hive
- Quando o predicado da partição for algo como col IN (1, null), um NPE será lançado. Este patch corrige isso.
-
[SPARK-23731][SQL] Tornar o FileSourceScanExec canonizável após ser (des)serializado
-
[SPARK-24755][CORE] A perda do executor pode fazer com que a tarefa não seja reenviada
- Corrige um erro que fazia com que o site Spark não pudesse reenviar tarefas com falha devido à perda do site executor. Esse bug foi introduzido no Spark 2.3.
-
[SPARK-24677] [CORE] Evite NoSuchElementException do MedianHeap
- Corrige um bug especulativo relacionado à tarefa ao coletar a duração métrica da tarefa.
-
[SPARK-24868][Python] adicionar função de sequência em Python
-
[SPARK-21811][SPARK-24012][SPARK-24737][SPARK-24165][SPARK-24734][SPARK-24840][SQL] Corrigir coerções de tipo e anulabilidades.
-
[SPARK-24699][SS] Faça com que as marcas d'água funcionem com o Trigger.Once salvando a marca d'água atualizada em commit log
-
[SPARK-24537] [R] Adicionar array_remove/array_zip/map_from_arrays/array_distinct
-
[SPARK-22187] [SS] Atualize o formato de linha inseguro para o estado salvo em flatmapGroupsWithState para permitir tempos limite com o estado excluído (4.x)
-
[SPARK-24681][SQL] Verificar nomes de colunas aninhadas em Hive metastore
- Certifique-se de que os nomes das colunas aninhadas não incluam ',', ':' e ';' no Hive metastore
-
[SPARK-23486]armazena em cache o nome da função do catálogo externo para LookupFunctions
- Para acelerar as pesquisas de funções.
-
[SPARK-24781][SQL] Usar uma referência do conjunto de dados em Filter/Sort pode não funcionar
-
[SPARK-24208][SQL] Corrigir a desduplicação de atributos para FlatMapGroupsInPandas
- Corrigir a falha do autojoin em um dataset que contém um FlatMapGroupsInPandas devido a atributos duplicados
-
[SPARK-24530][Python] Adicionar um controle para forçar a versão Python no Sphinx via variável de ambiente, SPHINXPYTHON
-
[SPARK-24250]suporte ao acesso ao SQLConf dentro da tarefa
- Salve todas as configurações de SQL nas propriedades do trabalho quando uma execução de SQL for acionada. No site executor, reconstruímos o SQLConf a partir das propriedades do Job.
-
[SPARK-23936][SQL] Implementar map_concat
-
[SPARK-23914][SQL] Adicionar função array_union
-
[SPARK-24732][SQL] Coerção de tipo entre MapTypes.
- Adiciona suporte à coerção de tipos entre MapTypes em que os tipos key e os tipos de valores são compatíveis. Por exemplo, os tipos MapType (IntegerType, FloatType) e MapType (LongType, DoubleType) podem ser coagidos a digitar MapType (LongType, DoubleType)
-
[SPARK-24662][SQL][SS] Limite de suporte na transmissão estruturada
-
[SPARK-24730][SS] Adicionar política para escolher o máximo como marca d'água global quando a consulta de transmissão tiver várias marcas d'água (branch-4.x)
-
[SPARK-24596][SQL] Invalidação de cache sem cascata
- Ao remover o cache ou eliminar o temporário view, não é necessário remover o cache em cascata de todos os planos que dependem do view, pois os dados subjacentes não são alterados.
-
[SPARK-23927][SQL] Adicionar expressão "sequence
-
[SPARK-24636][SQL] Coerção de tipo de arrays para a função array_join
-
[SPARK-22384][SQL] Refinar a poda de partição quando o atributo estiver envolvido em Cast
- Melhore a remoção de partições, capaz de reduzir os predicados da partição com o tipo seguro cast (int para long, não long para int).
-
[SPARK-24385][SQL] Resolver a ambiguidade da condição autojoin para EqualNullSafe
- Implementa o EqualNullSafe para resolver a ambiguidade da condiçãojoin.
-
[SPARK-24696][SQL] A regra ColumnPruning falha ao remover o projeto extra
- Corrige um bug na regra ColumnPruning que causava um erro de loop infinito no Optimizer.
-
[SPARK-24603][SQL] Corrigir referência ao findTightestCommonType nos comentários
-
[SPARK-24613][SQL] Cache com UDF não pôde ser combinado com caches dependentes subsequentes
- Envolve o plano lógico com uma AnalysisBarrier para compilação do plano de execução no CacheManager, a fim de evitar que o plano seja analisado novamente. Essa também é uma regressão do Spark 2.3.
-
[SPARK-24017][SQL] Refatorar ExternalCatalog para que seja uma interface
-
[SPARK-24324][Python] Pandas Grouped Map UDF deve atribuir colunas de resultados por nome
- Atribui colunas de resultado pelo nome do esquema se o usuário tiver um rótulo com strings, caso contrário, usa a posição.
-
[SPARK-23778][CORE] Evite embaralhar desnecessariamente quando a união obtiver um RDD vazio
- Ignora os RDDs vazios recebidos no método de união para evitar uma confusão extra desnecessária quando todos os outros RDDs têm o mesmo particionamento.
-
[SPARK-24552][CORE][SQL] Use um ID exclusivo em vez de um número de tentativa para gravações.
- Passa o ID exclusivo da tentativa de tarefa em vez do número da tentativa para a fonte de dados v2 porque o número da tentativa é reutilizado quando os estágios são tentados novamente. Isso afeta as fontes de dados V1 e V2 APIs, mas o formato de arquivo APIs não será afetado porque o DBR usa um protocolo commit diferente.
-
[SPARK-24588][SS] transmissão join deve exigir HashClusteredPartitioning dos filhos.
-
[SPARK-24589][CORE] Identificar corretamente a tarefa na saída commit coordinator.
- Adiciona mais informações ao estado do estágio rastreado pelo coordenador, de modo que apenas uma tarefa possa commit a saída. Essa correção também remove as alterações inúteis de código introduzidas pelo SPARK-18113.
-
[SPARK-23933][SQL] Adicionar a função map_from_arrays
-
[SPARK-24583][SQL] Tipo de esquema incorreto em InsertIntoDataSourceCommand
- Ao criar uma tabela Delta com restrições NOT NULL, poderíamos eliminar a nulidade e inserir os valores NULL sem verificar a violação.
-
[SPARK-24542][SQL] UDF series UDFXPathXXXX permitem que os usuários passem XML cuidadosamente elaborado para acessar arquivos arbitrários
- Esse é um patch de segurança relatado pela comunidade. UDF A série UDFXPathXXXX permite que os usuários passem XML cuidadosamente elaborado para acessar arquivos arbitrários. Quando os usuários usam a biblioteca de controle de acesso externo, eles podem ignorá-los e acessar o conteúdo do arquivo.
-
[SPARK-23934][SQL] Adicionando a função map_from_entries
-
[SPARK-23912][SQL] Adicionar array_distinct
-
[SPARK-24574][SQL] As funções array_contains, array_position, array_remove e element_at lidam com o tipo de coluna
Atualizações de manutenção
Consulte as atualizações de manutenção do Databricks Runtime 4.3.
Ambiente do sistema
- Sistema operacional : Ubuntu 16.04.4 LTS
- Java : 1.8.0_162
- Scala : 2.11.8
- Python : 2.7.12 para Python 2 clustering e 3.5.2 para Python 3 clustering.
- R : R versão 3.4.4 (2018-03-15)
- Agrupamento de GPUs : As seguintes bibliotecas de GPU NVIDIA estão instaladas:
- Motorista Tesla 375.66
- CUDA 9.0
- cuDNN 7.0
Instalado Python biblioteca
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
ansi2.html | 1.1.1 | argparse | 1.2.1 | backports-abc | 0.5 |
Boto | 2,42,0 | boto3 | 1.4.1 | botocore | 1,4,70 |
cervejaria 2 ml | 1.4.1 | certifi | 2016,2,28 | caffi | 1.7.0 |
chardet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
criptografia | 1.5 | ciclador | 0.10.0 | Cython | 0,24,1 |
decorador | 4.0.10 | docutils | 0,14 | enum34 | 1.1.6 |
arquivo et-xml | 1.0.1 | freetype-py | 1.0.2 | funçõs | 1.0.2 |
fusepy | 2.0.4 | futuros | 3.2.0 | ggplot | 0.6.8 |
html5lib | 0,999 | Índia | 2.1 | endereço IP | 1.0.16 |
ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1.2 |
Jinja 2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0,13,0 |
lxml | 3.6.4 | MarkupSafe | 0,23 | Matplotlib | 1.5.3 |
mold3 | 0,2 | msgpack-Python | 0.4.7 | cliente ndg-https | 0.3.3 |
numba | 0,28,1 | entorpecido | 1.11.1 | openpyxl | 2.3.2 |
Pandas | 0.19.2 | pathlib2 | 2.1.0 | bode expiatório | 0.4.1 |
esperar | 4.0.1 | picles | 0.7.4 | Travesseiro | 3.3.1 |
pip | 10.0.1 | dobra | 3.9 | kit de ferramentas de aviso | 1.0.7 |
psycopg2 | 2.6.2 | processo pty | 0.5.1 | py4j | 0.10.3 |
flecha | 0,8.0 | pyasn1 | 0.1.9 | pycparser | 2,14 |
Pigmentos | 2.1.3 | Objeto PYG | 3.20.0 | PyOpenSSL | 16,0.0 |
análise de pipa | 2.2.0 | espião | 0,0,18 | Python | 2.7.12 |
Python-dateutil | 2.5.3 | Python-geohash | 0,8.5 | pytz | 2016,6,1 |
pedidos | 2.11.1 | transferência s3 | 0.1.9 | scikit-learn | 0,18.1 |
pegajoso | 0,18.1 | esfregar | 0,32 | marítimo | 0.7.1 |
ferramentas de configuração | 39,2,0 | simplejson | 3.8.2 | simples3 | 1,0 |
despacho único | 3.4.0.3 | seis | 1.10.0 | modelos de estatísticas | 0.6.1 |
tornado | 5.0.2 | almôndegas | 4.3.0 | urllib3 | 1.19.1 |
ambiente virtual | 15.0.1 | largura do wc | 0.1.7 | Python wheel | 0,31,1 |
wsgiref | 0.1.2 |
Instalada a R biblioteca
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
abandam | 1,4-5 | afirme que | 0.2.0 | portas traseiras | 1.1.2 |
base | 3.4.4 | POR | 1,66,0-1 | fichário | 0.1.1 |
bindrcpp | 0.2.2 | pouco | 1,1-12 | bit64 | 0,9-7 |
bitops | 1,0-6 | bolha | 1.1.1 | inicialização | 1,3-20 |
fermentar | 1,0-6 | vassoura | 0.4.4 | carro | 3,0-0 |
Dados do carro | 3,0-1 | cursor | 6,0-79 | guarda de celas | 1.1.0 |
crono | 2,3-52 | Aula | 7,3-14 | CLIPE | 1.0.0 |
Cluster | 2.0.7-1 | ferramentas de código | 0,2-15 | espaço de cores | 1,3-2 |
marca comum | 1.4 | compilador | 3.4.4 | giz de cera | 1.3.4 |
cacho | 3.2 | CVST | 0,2-1 | data.tabela | 1.10.4-3 |
conjunto de dados | 3.4.4 | DBI | 0,8 | dalpha | 1.3.1.1 |
DeOptimr | 1,0-8 | desc | 1.1.1 | ferramentas de desenvolvimento | 1,13.5 |
dicromato | 2,0-0 | digerir | 0,6,15 | Vermelho escuro | 0.1.0 |
Dom C | 1.3.5 | dplyr | 0.7.4 | DRR | 0,0.3 |
para gatos | 0.3.0 | para cada um | 1.4.4 | estrangeira | 0,8-70 |
gbm | 2.1.3 | ggplot2 | 2.2.1 | git2r | 0,21,0 |
glmnet | 2,0-16 | cola | 1.2.0 | goleiro | 0.1.2 |
gráficos | 3.4.4 | Dispositivos GR | 3.4.4 | grade | 3.4.4 |
gsubfn | 0,7 | mesa | 0.2.0 | h2o | 3.16.0.2 |
refúgio | 1.1.1 | HMS | 0.4.2 | httr | 1.3.1 |
escritor | 1.3.2 | HWriter Plus | 1,0-3 | ipred | 0,9-6 |
iteradores | 1.0.9 | jsonlite | 1.5 | kernlab | 0,9-25 |
Kern Smooth | 2,23-15 | rótulo | 0,3 | treliça | 0,20-35 |
lava | 1.6.1 | preguiçoso | 0.2.1 | mais pequeno | 0.3.3 |
lme4 | 1,1-17 | lubrificar | 1.7.3 | magritter | 1.5 |
mapproj | 1.2.6 | mapeia | 3.3.0 | ferramentas de mapa | 0,9-2 |
MASSA | 7,3-50 | Matriz | 1,2-14 | Modelos matriciais | 0,4-1 |
memoise | 1.1.0 | métodos | 3.4.4 | mgcv | 1,8-24 |
mímica | 0.5 | mina | 1.2.4 | norma | 1,5-5 |
Métricas do modelo | 1.1.0 | munsell | 0.4.3 | norma mvt | 1,0-7 |
nome | 3,1-137 | nloptr | 1.0.4 | net | 7,3-12 |
Número Deriv | 2016,8-1 | openssl | 1.0.1 | openxlsx | 4.0.17 |
paralelo | 3.4.4 | teste pbkr | 0,4-7 | pilar | 1.2.1 |
pkgconfig | 2.0.1 | Gatinho PKG | 0.1.4 | plogr | 0.2.0 |
plyr | 1.8.4 | elogio | 1.0.0 | unidades bonitas | 1.0.2 |
ProC | 1.11.0 | prodlim | 1.6.1 | proto | 1.0.0 |
psicótico | 1.8.3.3 | ronronar | 0.2.4 | quantreg | 5,35 |
R. métodos S3 | 1.7.1 | R.oo | 1,21,0 | R. utils | 2.6.0 |
R6 | 2.2.2 | Floresta aleatória | 4,6-14 | Cervejaria RColor | 1,1-2 |
Rcpp | 0,12,16 | RCP Pegen | 0.3.3.4.0 | RCPP Roll | 0.2.2 |
Curl | 1,95-4,10 | leitor | 1.1.1 | readxl | 1.0.0 |
receitas | 0.1.2 | revanche | 1.0.1 | remodelar 2 | 1.4.3 |
rio | 0.5.10 | rlang | 0.2.0 | base robusta | 0,92-8 |
RODBC | 1,3-15 | roxigênio2 | 6.0.1 | rpartem | 4,1-13 |
rprojroot | 1,3-2 | Reservar | 1,7-3 | RSQLite | 2.1.0 |
API do estúdio | 0,7 | escala | 0.5.0 | sfsmisc | 1,1-2 |
espião | 1,2-7 | SparkR | 2.3.1 | SPARSEM | 1,77 |
espacial | 7,3-11 | splines | 3.4.4 | sqldf | 0,4-11 |
QUADRADO | 2017,10-1 | statmod | 1,4,30 | estatísticas | 3.4.4 |
estatísticas4 | 3.4.4 | stringi | 1.1.7 | longarina | 1.3.0 |
sobrevivência | 2,42-3 | tcltk | 3.4.4 | Demonstrações de ensino | 2,10 |
teste isso | 2.0.0 | petiscar | 1.4.2 | arrumado | 0,8.0 |
seleção arrumada | 0.2.4 | Hora/Data | 3043,102 | Ferramentas | 3.4.4 |
utf 8 | 1.1.3 | utilidades | 3.4.4 | Viridis Lite | 0.3.0 |
bigode | 0,3-2 | murchar | 2.1.2 | xml2 | 1.2.0 |
Instalei Java e Scala biblioteca (versão de clusteringScala 2.11)
ID do grupo | ID do artefato | Versão |
---|---|---|
chifre | chifre | 2.7.7 |
com.amazonaws | Amazon-kinesis-client | 1.7.3 |
com.amazonaws | aws-java-sdk-autoscale | 1,11.313 |
com.amazonaws | formação de nuvem aws-java-sdk | 1,11.313 |
com.amazonaws | aws-java-sdk-cloudfront | 1,11.313 |
com.amazonaws | aws-java-sdk-cloudhsm | 1,11.313 |
com.amazonaws | aws-java-sdk-cloudsearch | 1,11.313 |
com.amazonaws | aws-java-sdk-cloudtrail | 1,11.313 |
com.amazonaws | aws-java-sdk-cloudwatch | 1,11.313 |
com.amazonaws | métricas aws-java-sdk-cloudwatch | 1,11.313 |
com.amazonaws | aws-java-sdk-codedeploy | 1,11.313 |
com.amazonaws | identidade cognitiva aws-java-sdk | 1,11.313 |
com.amazonaws | aws-java-sdk-cognitosync | 1,11.313 |
com.amazonaws | aws-java-sdk-config | 1,11.313 |
com.amazonaws | aws-java-sdk-core | 1,11.313 |
com.amazonaws | pipeline de dados aws-java-sdk | 1,11.313 |
com.amazonaws | aws-java-sdk-conexão direta | 1,11.313 |
com.amazonaws | diretório aws-java-sdk | 1,11.313 |
com.amazonaws | aws-java-sdk-dynamodb | 1,11.313 |
com.amazonaws | aws-java-sdk-ec2 | 1,11.313 |
com.amazonaws | aws-java-sdk-ecs | 1,11.313 |
com.amazonaws | aws-java-sdk-efs | 1,11.313 |
com.amazonaws | aws-java-sdk-elasticache | 1,11.313 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1,11.313 |
com.amazonaws | balanceamento de carga elástico aws-java-sdk | 1,11.313 |
com.amazonaws | transcodificador elástico aws-java-sdk- | 1,11.313 |
com.amazonaws | aws-java-sdk-emr | 1,11.313 |
com.amazonaws | aws-java-sdk-glacier | 1,11.313 |
com.amazonaws | aws-java-sdk-iam | 1,11.313 |
com.amazonaws | aws-java-sdk-importação/exportação | 1,11.313 |
com.amazonaws | aws-java-sdk-kinesis | 1,11.313 |
com.amazonaws | aws-java-sdk-kms | 1,11.313 |
com.amazonaws | aws-java-sdk-lambda | 1,11.313 |
com.amazonaws | aws-java-sdk-logs | 1,11.313 |
com.amazonaws | aws-java-sdk - aprendizado de máquina | 1,11.313 |
com.amazonaws | aws-java-sdk-opsworks | 1,11.313 |
com.amazonaws | aws-java-sdk-rds | 1,11.313 |
com.amazonaws | aws-java-sdk-redshift | 1,11.313 |
com.amazonaws | aws-java-sdk-route53 | 1,11.313 |
com.amazonaws | aws-java-sdk-s3 | 1,11.313 |
com.amazonaws | aws-java-sdk-ses | 1,11.313 |
com.amazonaws | aws-java-sdk-simpledb | 1,11.313 |
com.amazonaws | aws-java-sdk - fluxo de trabalho simples | 1,11.313 |
com.amazonaws | aws-java-sdk-sns | 1,11.313 |
com.amazonaws | aws-java-sdk-sqs | 1,11.313 |
com.amazonaws | aws-java-sdk-ssm | 1,11.313 |
com.amazonaws | gateway de armazenamento aws-java-sdk | 1,11.313 |
com.amazonaws | aws-java-sdk-sts | 1,11.313 |
com.amazonaws | suporte aws-java-sdk | 1,11.313 |
com.amazonaws | aws-java-sdk-swf-biblioteca | 1.11.22 |
com.amazonaws | aws-java-sdk-workspace | 1,11.313 |
com.amazonaws | jmespath-java | 1,11.313 |
com.carrotsearch | hppc | 0.7.2 |
com.chuusai | sem forma_2.11 | 2.3.2 |
com.clearspring.analítica | transmissão | 2.7.0 |
com.databricks | Reservar | 1,8-3 |
com.databricks | dbml-local_2.11 | 0.4.1-db1-spark2,3 |
com.databricks | testes dbml-local_2.11 | 0.4.1-db1-spark2,3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | plugin_2.11 | 0,4.15-9 |
com.databricks.scalapb | scalapb-runtime_2.11 | 0,4.15-9 |
com.esotérico software | crio-sombreado | 3.0.3 |
com.esotérico software | minlog | 1.3.0 |
com.fasterxml | colega de classe | 1.0.0 |
com.fasterxml.jackson.core | jackson-anotação | 2.6.7 |
com.fasterxml.jackson.core | jackson-core | 2.6.7 |
com.fasterxml.jackson.core | vinculação de dados jackson | 2.6.7.1 |
formato de dados com.fasterxml.jackson. | formato de dados jackson-cbor | 2.6.7 |
com.fasterxml.jackson.tipo de dados | jackson-datatype-joda | 2.6.7 |
com.fasterxml.jackson.module | parâmetro do módulo jackson | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-Scala.11 | 2.6.7.1 |
com.github.fommil | descarregador | 1.1 |
com.github.fommil.netlib | abdômen | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-nativos | 1.1 |
com.github.fommil.netlib | sistema_nativo-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1,3.2-2 |
com.github.rwl | jtransforma | 2.4.0 |
com.google.code.findbugs | jsr305 | 2.0.1 |
com.google.code.gson | gson | 2.2.4 |
com.google.goiaba | goiaba | 15,0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.googlecode.javaewah | Java Ewah | 0.3.2 |
banco de dados com.h2 | h2 | 1,3,174 |
com.jamesmurty.utils | construtor java-xml | 1.1 |
com.jcraft | jsch | 0,1,50 |
com.jolbox | bonecp | VERSÃO 0.8.0. |
com.mchange | cp30 | 0.9.5.1 |
com.mchange | mchange-commons-java | 0.2.10 |
com.microsoft.azure | azure-data lake-store-sdk | 2.2.8 |
com.microsoft.sqlserver | mssql-JDBC | 6.2.2. jre8 |
comendo | comprimir-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.thoughtworks.paranamer | paranâmero | 2.8 |
com.trueaccord.lenses | lentes_2.11 | 0,3 |
com.Twitter | chill-java | 0,8.4 |
com.Twitter | chill_2.11 | 0,8.4 |
com.Twitter | pacote parquet-hadoop | 1.6.0 |
com.Twitter | util-app_2.11 | 6,23,0 |
com.Twitter | util-core_2.11 | 6,23,0 |
com.Twitter | util-jvm_2.11 | 6,23,0 |
com.typesafe | configuração | 1.2.1 |
com.typesafe.Scala-logging | Scala-logging-api_2.11 | 2.1.2 |
com.typesafe.Scala-logging | Scala-logging-slf4j_2.11 | 2.1.2 |
com.univocidade | analisadores de univocidade | 2.5.9 |
com.vlkan | tampões planos | 1,2,0-3f79e055 |
com.zaxxer | HikaricP | 3.1.0 |
folhas de feijão comum | folhas de feijão comum | 1.7.0 |
folhas de feijão comum | commons-beanutils-core | 1.8.0 |
comum-CLI | comum-CLI | 1.2 |
codec comum | codec comum | 1,10 |
coleções comuns | coleções comuns | 3.2.2 |
configuração comum | configuração comum | 1,6 |
commons-dbcp | commons-dbcp | 1.4 |
digestor comum | digestor comum | 1,8 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2,4 |
linguagem comum | linguagem comum | 2.6 |
registro de bens comuns | registro de bens comuns | 1.1.3 |
commons-net | commons-net | 2.2 |
comum-pool | comum-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
io. airlift | compressor de ar | 0,8 |
io.dropwizard.métricas | núcleo de métricas | 3.1.5 |
io.dropwizard.métricas | métricas-ganglia | 3.1.5 |
io.dropwizard.métricas | métricas-grafite | 3.1.5 |
io.dropwizard.métricas | métricas-healthchecks | 3.1.5 |
io.dropwizard.métricas | métricas-jetty9 | 3.1.5 |
io.dropwizard.métricas | métricas-JSON | 3.1.5 |
io.dropwizard.métricas | métricas-JVM | 3.1.5 |
io.dropwizard.métricas | métricas-log4j | 3.1.5 |
io.dropwizard.métricas | métricas-servlets | 3.1.5 |
io.netty | urtiga | 3.9.9. Final |
io.netty | tudo | 4.1.17.Final |
io. prometheus | cliente simples | 0,0,16 |
io. prometheus | simpleclient_common | 0,0,16 |
io. prometheus | simpleclient_dropwizard | 0,0,16 |
io. prometheus | client_servlet simples | 0,0,16 |
io.prometheus.jmx | coletor | 0,7 |
javax.ativação | ativação | 1.1.1 |
javax.anotação | javax.anotação-api | 1.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1.1 |
javax.validação | API de validação | 1.1.0. Final |
javax.ws.rs | javax.ws.rs-api | 2.0.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.transmissão | stax-api | 1,0-2 |
javolução | javolução | 5.5.1 |
junte-se | junte-se | 2,11 |
hora do dia | hora do dia | 2.9.3 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
net.hydromatic | propriedades de base própria | 1.1.5 |
net.ihard | base64 | 2.3.8 |
net.java.dev.jets3t | jets3t | 0.9.4 |
net.razorvine | pirolita | 4,13 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | supercsv | 2.2.0 |
net.snowflake | floco de neve-JDBC | 3.6.3 |
net.snowflake | floco de neve faísca_2.11 | 2.4.1 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt | no CRPC | 1.0.7 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.4 |
org.antlr | antlr4-runtime | 4.7 |
org.antlr | modelo de string | 3.2.1 |
org.apache.ant | formiga | 1.9.2 |
org.apache.ant | formiga | 1.9.2 |
org.apache.ant | lançador de formigas | 1.9.2 |
org.apache.arrow | formato de seta | 0,8.0 |
org.apache.arrow | memória de seta | 0,8.0 |
org.apache.arrow | vetor de seta | 0,8.0 |
org.apache.avro | AVRO | 1.7.7 |
org.apache.avro | avro-ipc | 1.7.7 |
org.apache.avro | testes avro-iPC | 1.7.7 |
org.apache.avro | avro-mapred-hadoop2 | 1.7.7 |
org.apache.calcite | calcita-avática | 1.2.0 - incubação |
org.apache.calcite | núcleo de calcita | 1.2.0 - incubação |
org.apache.calcite | calcita-linq4j | 1.2.0 - incubação |
org.apache.commons | compressa comum | 1.4.1 |
org.apache.commons | criptomoeda comum | 1.0.0 |
org.apache.commons | commons-lang3 | 3,5 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.curator | curador-cliente | 2.7.1 |
org.apache.curator | estrutura de curador | 2.7.1 |
org.apache.curator | receitas de curadores | 2.7.1 |
org.apache.derby | derby | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1,0,0-M20 |
org.apache.directory.api | utilitário de API | 1,0,0-M20 |
org.apache.directory.server | apacheds-i18n | 2,0,0-M15 |
org.apache.directory.server | codec apacheds-kerberos | 2,0,0-M15 |
org.apache.hadoop | hadoop-anotação | 2.7.3 |
org.apache.hadoop | autenticação hadoop | 2.7.3 |
org.apache.hadoop | cliente hadoop | 2.7.3 |
org.apache.hadoop | hadoop-comum | 2.7.3 |
org.apache.hadoop | hadoop-HDFS | 2.7.3 |
org.apache.hadoop | aplicativo cliente hadoop mapreduce | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
org.apache.hadoop | núcleo do cliente hadoop-mapreduce | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
org.apache.hadoop | API hadoop yarn | 2.7.3 |
org.apache.hadoop | cliente hadoop-yarn | 2.7.3 |
org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
org.apache.hadoop | servidor hadoop-yarn-comum | 2.7.3 |
org.apache.htrace | htrace-core | 3.1.0 - incubação |
org.apache.httpcomponents | cliente http | 4.5.4 |
org.apache.httpcomponents | httpcore | 4.4.8 |
org.apache.ivy | hera | 2.4.0 |
org.apache.orc | orc-core-no-hive | 1.4.3 |
org.apache.orc | orc-mapreduce-nohive | 1.4.3 |
org.apache.parquet | coluna de parquete | 1.8.3 - blocos de dados 2 |
org.apache.parquet | parquete comum | 1.8.3 - blocos de dados 2 |
org.apache.parquet | codificação de parquet | 1.8.3 - blocos de dados 2 |
org.apache.parquet | formato de parquet | 2.3.1 |
org.apache.parquet | parquet-hadoop | 1.8.3 - blocos de dados 2 |
org.apache.parquet | parquet-jackson | 1.8.3 - blocos de dados 2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.9.3 |
org.apache.xbean | xbean-asm5-shaded | 4.4 |
org.apache.zookeeper | tratador | 3.4.6 |
org.bouncycastle | bcprov-jdk15on | 1,58 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxers | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | compilador common | 3.0.8 |
org.codehaus.janino | janino | 3.0.8 |
org.datanucleus | núcleo de dados-api-jdo | 3.2.6 |
org.datanucleus | núcleo de dados | 3.2.10 |
org.datanucleus | núcleo de dados-rdbms | 3.2.9 |
org.Eclipse.jetty | jetty-client | 9.3.20.v 20170531 |
org.Eclipse.jetty | continuação do cais | 9.3.20.v 20170531 |
org.Eclipse.jetty | jetty-http | 9.3.20.v 20170531 |
org.Eclipse.jetty | jetty-io | 9.3.20.v 20170531 |
org.Eclipse.jetty | jetty-jndi | 9.3.20.v 20170531 |
org.Eclipse.jetty | jetty-plus | 9.3.20.v 20170531 |
org.Eclipse.jetty | jetty-proxy | 9.3.20.v 20170531 |
org.Eclipse.jetty | segurança do cais | 9.3.20.v 20170531 |
org.Eclipse.jetty | servidor jetty-server | 9.3.20.v 20170531 |
org.Eclipse.jetty | jutty-servlet | 9.3.20.v 20170531 |
org.Eclipse.jetty | píer de servlets | 9.3.20.v 20170531 |
org.Eclipse.jetty | jetty-util | 9.3.20.v 20170531 |
org.Eclipse.jetty | aplicativo web jetty- | 9.3.20.v 20170531 |
org.Eclipse.jetty | jetty-xml | 9.3.20.v 20170531 |
org.fusesource.leveldbjni | leveldbjni-tudo | 1,8 |
org.glassfish.hk2 | API hk2 | 2.4.0-b34 |
org.glassfish.hk2 | localizador hk2 | 2.4.0-b34 |
org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
org.glassfish.hk2 | osgi-recurso-locator | 1.0.1 |
org.glassfish.hk2.external | aopalliance - reembalado | 2.4.0-b34 |
org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
org.glassfish.jersey.bundles.reembalado | jersey-goiaba | 2.22.2 |
org.glassfish.jersey.containers | servlet de contêiner de camisa | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
org.glassfish.jersey.core | cliente de camisa | 2.22.2 |
org.glassfish.jersey.core | camiseta comum | 2.22.2 |
org.glassfish.jersey.core | servidor de camisa | 2.22.2 |
org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
org.hibernate | validador de hibernação | 5.1.1. Final |
org.iq80.snappy | atrevida | 0,2 |
org.javassist | javassist | 3.18.1-GA |
org.jboss.logging | registro de jboss-logging | 3.1.3. GA |
org.jdbi | jdbi | 2.63,1 |
org.joda | conversor de joda | 1.7 |
org.jodd | núcleo nodular | 3.5.2 |
org.json4s | json4s-ast_2.11 | 3.2.11 |
org.json4s | json4s-core_2.11 | 3.2.11 |
org.json4s | json4s-jackson_2.11 | 3.2.11 |
org.lz4 | lz4-java | 1.4.0 |
org.mariadb.JDBC | cliente mariadb-java | 2.1.2 |
org.mockito | mockito-all | 1.9.5 |
org.objenesis | objênese | 2.1 |
org.postgresql | PostgreSQL | 42,14 |
org.roaringbitmap | Mapa de bits estrondoso | 0.5.11 |
org.rocksdb | rocksdbjni | 5.2.1 |
org.rosuda.rEngine | Motor | 2.1.0 |
org.Scala-lang | Scala-compiler_2.11 | 2.11.8 |
org.Scala-lang | Scala-biblioteca.11 | 2.11.8 |
org.Scala-lang | Scala-reflect_2.11 | 2.11.8 |
org.Scala-lang | scalap_2.11 | 2.11.8 |
org.Scala-lang.modules | Scala-parser-combinators_2.11 | 1.0.2 |
org.Scala-lang.modules | Scala-xml_2.11 | 1.0.5 |
org.Scala-sbt | interface de teste | 1,0 |
org.scalacheck | scalacheck_2.11 | 1,12.5 |
org.scalanlp | breeze-macros_2.11 | 0,13.2 |
org.scalanlp | breeze_2.11 | 0,13.2 |
org.scalatest | scalatest_2.11 | 2.2.6 |
org.slf4j | jcl-over-slf4j | 1.7.16 |
org.slf4j | jul-a-slf4j | 1.7.16 |
org.slf4j | slf4j-api | 1.7.16 |
org.slf4j | slf4j-log4j12 | 1.7.16 |
org.spark-project.hive | hive-beeline | 1.2.1. spark2 |
org.spark-project.hive | colmeia-CLI | 1.2.1. spark2 |
org.spark-project.hive | hive-exec | 1.2.1. spark2 |
org.spark-project.hive | hive-JDBC | 1.2.1. spark2 |
org.spark-project.hive | Hive metastore | 1.2.1. spark2 |
org.spark-project.spark | não utilizado | 1.0.0 |
org.spire-math | spire-macros_2.11 | 0,13,0 |
org.spire-math | spire_2.11 | 0,13,0 |
org.springframework | núcleo de mola | 4.1.4. LANÇAMENTO |
org.springframework | teste de primavera | 4.1.4. LANÇAMENTO |
org.tukaani | xz | 1,0 |
org.typelevel | maquinista_2.11 | 0.6.1 |
org.typelevel | macro-compat_2.11 | 1.1.1 |
org.xerial | sqlite-JDBC | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.2.6 |
org.yaml | snakeyaml | 1,16 |
oro | oro | 2.0.8 |
software.Amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0,52 |