Databricks Runtime 5,0 (EoS)
O suporte para essa versão do Databricks Runtime foi encerrado. Para saber a data do fim do suporte, consulte Histórico do fim do suporte. Para conhecer todas as versões compatíveis do site Databricks Runtime, consulte Databricks Runtime notas sobre as versões e a compatibilidade.
A Databricks lançou esta versão em novembro de 2018.
As notas a seguir sobre a versão fornecem informações sobre o site Databricks Runtime 5.0, alimentado por Apache Spark.
Novo recurso
-
Delta Lake
- As subconsultas agora são suportadas na cláusula
WHERE
para o suporte aos comandosDELETE
eUPDATE
. - Nova implementação escalável para
MERGE
comando.- Não há limite no número de inserções e atualizações.
- Pode ser usado para consultas SCD Tipo 1 e Tipo 2.
- Pode ser usado para realizar upserts de consultas de transmissão no modo "update" (por exemplo, gravar a saída de agregação de transmissão em uma tabela Delta ). Veja o exemplo Gravando agregados de transmissão em Databricks Delta Usando merge e foreachBatch Notebook.
- As subconsultas agora são suportadas na cláusula
-
Transmissão estruturada
- Azure Blob arquivo de armazenamento fonte de transmissão baseada em notificação. Isso pode reduzir significativamente os custos de listagem ao executar uma consulta de transmissão estruturada em arquivos no armazenamento Azure Blob. Em vez de usar a listagem para encontrar novos arquivos para processamento, essa fonte de transmissão pode ler diretamente as notificações de eventos de arquivos para encontrar novos arquivos. Consulte Azure Blob storage file source com Azure Queue Storage (legacy).
Melhorias
-
Delta Lake
-
OPTIMIZE
desempenho e estabilidade.- O comando
OPTIMIZE
faz o commit dos lotes o mais rápido possível, em vez de fazê-lo no final. - Reduziu o default número de threads
OPTIMIZE
de execução em paralelo. Isso representa um aumento significativo no desempenho de tabelas grandes. - Acelere as gravações de
OPTIMIZE
evitando uma classificação desnecessária de dados ao gravar em uma tabela particionada. - Acelere o
OPTIMIZE ZORDER BY
tornando-o incremental. Isso significa que o comando agora evita a reescrita de arquivos de dados que já foram Z-ordered pela(s) mesma(s) coluna(s). Veja Data skipping para o Delta Lake.
- O comando
-
Snapshot isolamento ao consultar as tabelas Delta. Qualquer consulta com várias referências a uma tabela Delta (por exemplo, autojoin) lê a partir da mesma tabela Snapshot, mesmo que haja atualizações simultâneas na tabela.
-
Melhoria da latência de consulta ao ler de tabelas Delta pequenas (< 2000 arquivos) armazenando em cache os metadados no driver.
-
-
Melhoria no desempenho da regressão logística do MLlib.
-
Melhoria no desempenho do algoritmo de árvore MLlib.
-
Atualizou vários sites Java e Scala biblioteca. Consulte as bibliotecas instaladas Java e Scala (versão de clusteringScala 2.11).
-
Atualizou alguns instalados Python biblioteca:
- pip: 10,0.1 a 18.0
- ferramentas de configuração: 39.2.0 a 40.4.1
- tornado: 5.0.2 a 5.1.1
-
Atualizou várias instalações da R biblioteca. Consulte R biblioteca instalada.
Correções de bugs
-
Delta Lake
- As configurações definidas em SQL conf agora se aplicam corretamente a Delta Lake operações que foram carregadas pela primeira vez em um Notebook diferente.
- Foi corrigido um bug no comando
DELETE
que excluía incorretamente as linhas em que a condição era avaliada como nula. - As transmissões que levam mais de dois dias para processar os lotes iniciais (ou seja, os dados que estavam na tabela quando a transmissão começou) não falham mais com
FileNotFoundException
ao tentar se recuperar de um ponto de verificação. - Evita uma condição de corrida que leva a
NoClassDefError
ao carregar uma nova tabela. - Correção para
VACUUM
onde as operações podem falhar com um AssertionError informando: "Não deve haver nenhum caminho absoluto para exclusão aqui". - Correção do comando
SHOW CREATE TABLE
para não incluir propriedades de armazenamento geradas pelo Hive.
-
que geram muitos erros
NoClassDefFoundError
para classes internas do Spark agora são reiniciados automaticamente para corrigir o problema.
Problemas conhecidos
- Os nomes de colunas especificados na opção
replaceWhere
para o modooverwrite
em Delta Lake diferenciam maiúsculas de minúsculas, mesmo que a insensibilidade a maiúsculas e minúsculas esteja ativada (que é o caso de default). - O conector do Snowflake para o Databricks Runtime 5.0 está em pré-visualização.
- Se o senhor cancelar uma célula de transmissão em execução em um Notebook anexado a um cluster Databricks Runtime 5.0, não poderá executar nenhum comando subsequente no Notebook, a menos que limpe o estado do Notebook ou reinicie o cluster. Para uma solução alternativa, consulte a Base de Conhecimento.
Apache Spark
O Databricks Runtime 5.0 inclui o Apache Spark 2.4.0.
Núcleo e Spark SQL
Este artigo contém referências ao termo escravo , um termo que o site Databricks não usa. Quando o termo for removido do site software, nós o removeremos deste artigo.
Recurso principal
- Barrier Execution Mode: [SPARK-24374] Suporte ao Barrier Execution Mode no programador, para melhor integração com estruturas de aprendizagem profunda.
- Suporte ao Scala 2.12: [SPARK-14220] Adicionar suporte experimental ao Scala 2.12. Agora o senhor pode criar o Spark com o Scala 2.12 e escrever aplicativos Spark no Scala 2.12.
- Funções de ordem superior: [ SPARK-23899] Adicione muitas novas funções integradas, incluindo funções de alta ordem, para facilitar o trabalho com tipos de dados complexos. Consulte Apache Spark funções integradas.
- integrada Avro fonte de dados: [SPARK-24768] Inline Spark-Avro pacote com suporte a tipos lógicos, melhor desempenho e usabilidade.
API
- [SPARK-24035] Sintaxe SQL para Pivot
- [SPARK-24940] Dica de coalescência e repartição para consultas SQL
- [SPARK-19602] Suporta resolução de coluna de nome de coluna totalmente qualificado
- [SPARK-21274] Implementar EXCEPT ALL e INTERSECT ALL
desempenho e estabilidade
- [SPARK-16406] A resolução de referência para um grande número de colunas deve ser mais rápida
- [SPARK-23486] Armazene em cache o nome da função do catálogo externo para LookupFunctions
- [SPARK-23803] Suporte para poda de baldes
- [SPARK-24802] Exclusão da regra de otimização
- [SPARK-4502] Poda de esquema aninhado para tabelas Parquet
- [SPARK-24296] Suporta replicação de blocos maiores que 2 GB
- [SPARK-24307] Suporta o envio de mensagens com mais de 2 GB da memória
- [SPARK-23243] Shuffle+Repartition em um RDD pode levar a respostas incorretas
- [SPARK-25181] Limitou o tamanho do pool de threads mestre e escravo do BlockManager, reduzindo a sobrecarga de memória quando a rede é lenta
Conectores
- [SPARK-23972] Atualizar o Parquet de 1.8.2 para 1.10.0
- [SPARK-25419] Melhoria do pushdown do predicado Parquet
- [SPARK-23456] O leitor nativo do site ORC está a postos default
- [SPARK-22279] Use o leitor nativo ORC para ler as tabelas de serviço Hive por default
- [SPARK-21783] Ative o push-down do filtro ORC por default
- [SPARK-24959] Acelerar count() para JSON e CSV
- [SPARK-24244] Analisando apenas as colunas necessárias para o analisador de CSV
- [SPARK-23786] Validação do esquema CSV - os nomes das colunas não são verificados
- [SPARK-24423] Opção query para especificar a consulta a ser lida do JDBC
- [SPARK-22814] Suporte a data/carimbo de data/hora na coluna de partição JDBC
- [SPARK-24771] Atualizar o Avro de 1.7.7 para 1.8
PySpark
- [SPARK-24215] Implementar avaliação ansiosa para APIs DataFrame
- [SPARK-22274] - [SPARK-22239] Funções de agregação definidas pelo usuário com Pandas udf
- [SPARK-24396] Adicionar transmissão estructurada ForeachWriter para Python
- [SPARK-23874] Atualize o Apache Arrow para a versão 0.10.0
- [SPARK-25004] Adicionar spark.executor.PySpark.memory limit
- [SPARK-23030] Use o formato de transmissão Arrow para criar e coletar Pandas DataFrames
- [SPARK-24624] Suporte à mistura de Python UDF e Scalar Pandas UDF
Outras mudanças notáveis
- [SPARK-24596] Invalidação de cache sem cascata
- [SPARK-23880] Não acionar nenhum trabalho para armazenar dados em cache
- [SPARK-23510][SPARK-24312] Suporte ao metastore Hive 2.2 e Hive 2.3
- [SPARK-23711] Adicionar gerador de fallback para UnsafeProjection
- [SPARK-24626] Paralelizar o cálculo do tamanho do local no comando Analyze Table
transmissão estruturada
Recurso principal
- [SPARK-24565] Expôs as linhas de saída de cada microbatch como um DataFrame usando foreachBatch (Python, Scala e Java)
- [SPARK-24396] Adicionada a API Python para foreach e ForeachWriter
- [SPARK-25005] Suporte a "Kafka.isolation.level" para ler apenas registros confirmados de tópicos Kafka que são gravados usando um produtor transacional.
Outras mudanças notáveis
- [SPARK-24662] Suporte ao operador LIMIT para transmissão no modo Append ou Complete
- [SPARK-24763] Remover dados key redundantes do valor na agregação de transmissão
- [SPARK-24156] Geração mais rápida de resultados de saída e/ou limpeza de estado com operações stateful (mapGroupsWithState, transmissão-transmissão join, agregação de transmissão, transmissão dropDuplicates) quando não há dados na transmissão de entrada.
- [SPARK-24730] Suporte para escolher a marca d'água mínima ou máxima quando há várias transmissões de entrada em uma consulta
- [SPARK-25399] Corrigido um bug em que a reutilização de threads de execução do processamento contínuo para transmissão de microbatch pode resultar em um problema de correção
- [SPARK-18057] Versão atualizada do cliente Kafka de 0.10.0.1 para 2.0.0
MLlib
Recurso principal
- [SPARK-22666] Fonte de dados do Spark para formato de imagem
Outras mudanças notáveis
- [SPARK-22119][SPARK-23412][SPARK-23217] Adicionar medida de distância de cosseno ao avaliador KMeans/BisectingKMeans/clustering
- [SPARK-10697] Cálculo de elevação na mineração de regras de associação
- [SPARK-14682] [SPARK-24231] Forneçao método evaluateEachIteration ou equivalente para GBTs spark.ml
- [SPARK-7132] [SPARK-24333]Adicione ajuste com a validação definida como spark.ml GBT
- [SPARK-15784][SPARK-19826] Adicionar o agrupamento Power Iteration ao spark.ml
- [SPARK-15064] Suporte local no StopWordsRemover
- [SPARK-21741] API Python para resumidor multivariado baseado em DataFrame
- [SPARK-21898][SPARK-23751] paridade de recurso para KolmogorovSmirnovTest em MLlib
- [SPARK-10884] Suporte à previsão em instância única para modelos relacionados à regressão e classificação
- [SPARK-23783] Adicionar nova característica de exportação genérica para o pipeline ML
- [SPARK-11239] Exportação PMML para regressão linear ML
SparkR
- [SPARK-25393] Adicionando uma nova função from_csv ()
- [SPARK-21291] Adicionar API R partitionBy no DataFrame
- [SPARK-25007] Adicionar array_intersect/array_except/array_union/shuffle ao SparkR
- [SPARK-25234] evitar estouro de números inteiros em paralelização
- [SPARK-25117] Adicionar suporte EXCEPT ALL e INTERSECT ALL em R
- [SPARK-24537] Adicionar array_remove/array_zip/map_from_arrays/array_distinct
- [SPARK-24187] Adicionar a função array_join ao SparkR
- [SPARK-24331] Adicionando arrays_overlap, array_repeat, map_entries ao SparkR
- [SPARK-24198] Adicionando a função slice ao SparkR
- [SPARK-24197] Adicionando a função array_sort ao SparkR
- [SPARK-24185] Adicionar a função flatten ao SparkR
- [SPARK-24069] Adicionar funções array_min/array_max
- [SPARK-24054] Adicionar função array_position/funções element_at
- [SPARK-23770] Adicionar API repartitionByRange no SparkR
GraphX
- [SPARK-25268] A execução do Parallel Personalized PageRank gera uma exceção de serialização
Depreciações
- [SPARK-23451] Obsoleto significa ComputeCost
- [SPARK-25345] Preterir as APIs readImages do ImageSchema
Mudanças de comportamento
- [SPARK-23549] Transmitir para timestamp ao comparar timestamp com data
- [SPARK-24324] Pandas Grouped Map UDF deve atribuir colunas de resultados por nome
- [SPARK-25088] Servidor Rest default e atualizações de documentos
- [SPARK-23425] O carregamento de dados para o caminho do arquivo HDFS com uso de curinga não está funcionando corretamente
- [SPARK-23173] from_json pode produzir nulos para campos marcados como não anuláveis
- [SPARK-24966] Implementar regras de precedência para operações de conjunto
- [SPARK-25708] HAVING sem GROUP BY deve ser um agregado global
- [SPARK-24341] Manipule corretamente a subconsulta IN de vários valores
- [SPARK-19724] Criar uma tabela gerenciar com um local default existente deve gerar uma exceção
Problemas conhecidos
- [SPARK-25793] Erro ao carregar o modelo em BisectingKMeans
- [SPARK-25271] CTAS com Hive Parquet tabelas devem aproveitar a fonte nativa Parquet
- [SPARK-24935] Problema com a execução de UDAFs do Hive do Spark 2.2 em diante
Atualizações de manutenção
Consulte Atualizações de manutenção do Databricks Runtime 5.0.
Ambiente do sistema
- Sistema operacional : Ubuntu 16.04.5 LTS
- Java : 1.8.0_162
- Scala : 2.11.8
- Python : 2.7.12 para Python 2 clustering e 3.5.2 para Python 3 clustering.
- R : R versão 3.4.4 (2018-03-15)
- Agrupamento de GPUs : As seguintes bibliotecas de GPU NVIDIA estão instaladas:
- Motorista Tesla 375.66
- CUDA 9.0
- cuDNN 7.0
Embora o Scala 2.12 seja compatível com o Apache Spark 2.4, ele não é compatível com o Databricks Runtime 5.0.
Instalado Python biblioteca
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
ansi2.html | 1.1.1 | argparse | 1.2.1 | backports-abc | 0.5 |
Boto | 2,42,0 | boto3 | 1.4.1 | botocore | 1,4,70 |
cervejaria 2 ml | 1.4.1 | certifi | 2016,2,28 | caffi | 1.7.0 |
chardet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
criptografia | 1.5 | ciclador | 0.10.0 | Cython | 0,24,1 |
decorador | 4.0.10 | docutils | 0,14 | enum34 | 1.1.6 |
arquivo et-xml | 1.0.1 | freetype-py | 1.0.2 | funçõs | 1.0.2 |
fusepy | 2.0.4 | futuros | 3.2.0 | ggplot | 0.6.8 |
html5lib | 0,999 | Índia | 2.1 | endereço IP | 1.0.16 |
ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1.2 |
Jinja 2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0,13,0 |
lxml | 3.6.4 | MarkupSafe | 0,23 | Matplotlib | 1.5.3 |
mold3 | 0,2 | msgpack-Python | 0.4.7 | cliente ndg-https | 0.3.3 |
numba | 0,28,1 | entorpecido | 1.11.1 | openpyxl | 2.3.2 |
Pandas | 0.19.2 | pathlib2 | 2.1.0 | bode expiatório | 0.4.1 |
esperar | 4.0.1 | picles | 0.7.4 | Travesseiro | 3.3.1 |
pip | 18,0 | dobra | 3.9 | kit de ferramentas de aviso | 1.0.7 |
psycopg2 | 2.6.2 | processo pty | 0.5.1 | py4j | 0.10.3 |
flecha | 0,8.0 | pyasn1 | 0.1.9 | pycparser | 2,14 |
Pigmentos | 2.1.3 | Objeto PYG | 3.20.0 | PyOpenSSL | 16,0.0 |
análise de pipa | 2.2.0 | espião | 0,0,18 | Python | 2.7.12 |
Python-dateutil | 2.5.3 | Python-geohash | 0,8.5 | pytz | 2016,6,1 |
pedidos | 2.11.1 | transferência s3 | 0.1.9 | scikit-learn | 0,18.1 |
pegajoso | 0,18.1 | esfregar | 0,32 | marítimo | 0.7.1 |
ferramentas de configuração | 40,4.1 | simplejson | 3.8.2 | simples3 | 1,0 |
despacho único | 3.4.0.3 | seis | 1.10.0 | modelos de estatísticas | 0.6.1 |
tornado | 5.1.1 | almôndegas | 4.3.0 | urllib3 | 1.19.1 |
ambiente virtual | 15.0.1 | largura do wc | 0.1.7 | Python wheel | 0,31,1 |
wsgiref | 0.1.2 |
Instalada a R biblioteca
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
abandam | 1,4-5 | afirme que | 0.2.0 | portas traseiras | 1.1.2 |
base | 3.4.4 | base64enc | 0,1-3 | POR | 1,66,0-1 |
fichário | 0.1.1 | bindrcpp | 0.2.2 | pouco | 1,1-14 |
bit64 | 0,9-7 | bitops | 1,0-6 | bolha | 1.1.1 |
inicialização | 1,3-20 | fermentar | 1,0-6 | vassoura | 0.5.0 |
chamador | 3.0.0 | carro | 3,0-2 | Dados do carro | 3,0-1 |
cursor | 6,0-80 | guarda de celas | 1.1.0 | crono | 2,3-52 |
Aula | 7,3-14 | CLIPE | 1.0.0 | Cluster | 2.0.7-1 |
ferramentas de código | 0,2-15 | espaço de cores | 1,3-2 | marca comum | 1.5 |
compilador | 3.4.4 | giz de cera | 1.3.4 | cacho | 3.2 |
CVST | 0,2-2 | data.tabela | 1.11.4 | conjunto de dados | 3.4.4 |
DBI | 1.0.0 | dalpha | 1.3.4 | DeOptimr | 1,0-8 |
desc | 1.2.0 | ferramentas de desenvolvimento | 1,13.6 | digerir | 0.6.16 |
Vermelho escuro | 0.1.0 | Dom C | 1.3.5 | dplyr | 0.7.6 |
DRR | 0,0.3 | fansi | 0.3.0 | para gatos | 0.3.0 |
para cada um | 1.4.4 | estrangeira | 0,8-70 | gbm | 2.1.3 |
geometria | 0,3-6 | ggplot2 | 3.0.0 | git2r | 0,23,0 |
glmnet | 2,0-16 | cola | 1.3.0 | goleiro | 0.1.2 |
gráficos | 3.4.4 | Dispositivos GR | 3.4.4 | grade | 3.4.4 |
gsubfn | 0,7 | mesa | 0.2.0 | h2o | 3.20.0.2 |
refúgio | 1.1.2 | HMS | 0.4.2 | httr | 1.3.1 |
escritor | 1.3.2 | HWriter Plus | 1,0-3 | ipred | 0,9-7 |
iteradores | 1.0.10 | jsonlite | 1.5 | kernlab | 0,9-27 |
Kern Smooth | 2,23-15 | rótulo | 0,3 | treliça | 0,20-35 |
lava | 1.6.3 | preguiçoso | 0.2.1 | mais pequeno | 0.3.4 |
lme4 | 1,1-18-1 | lubrificar | 1.7.4 | magia | 1,5-8 |
magritter | 1.5 | mapproj | 1.2.6 | mapeia | 3.3.0 |
ferramentas de mapa | 0,9-3 | MASSA | 7,3-50 | Matriz | 1,2-14 |
Modelos matriciais | 0,4-1 | memoise | 1.1.0 | métodos | 3.4.4 |
mgcv | 1,8-24 | mímica | 0.5 | mina | 1.2.4 |
Métricas do modelo | 1.2.0 | munsell | 0.5.0 | norma mvt | 1,0-8 |
nome | 3,1-137 | nloptr | 1.0.4 | net | 7,3-12 |
Número Deriv | 2016,8-1 | openssl | 1.0.2 | openxlsx | 4.1.0 |
paralelo | 3.4.4 | teste pbkr | 0,4-7 | pilar | 1.3.0 |
pkgbuild | 1.0.0 | pkgconfig | 2.0.2 | Gatinho PKG | 0.1.4 |
carregamento de pacotes | 1.0.0 | plogr | 0.2.0 | por favor | 2,7-0 |
plyr | 1.8.4 | elogio | 1.0.0 | unidades bonitas | 1.0.2 |
ProC | 1.12.1 | processa | 3.2.0 | prodlim | 2018,04.18 |
proto | 1.0.0 | ps | 1.1.0 | ronronar | 0.2.5 |
quantreg | 5,36 | R. métodos S3 | 1.7.1 | R.oo | 1,22,0 |
R. utils | 2.7.0 | R6 | 2.2.2 | Floresta aleatória | 4,6-14 |
Cervejaria RColor | 1,1-2 | Rcpp | 0.12,18 | RCP Pegen | 0.3.3.4.0 |
RCPP Roll | 0.3.0 | Curl | 1,95-4,11 | leitor | 1.1.1 |
readxl | 1.1.0 | receitas | 0.1.3 | revanche | 1.0.1 |
remodelar 2 | 1.4.3 | rio | 0.5.10 | rlang | 0.2.2 |
base robusta | 0,93-2 | RODBC | 1,3-15 | roxigênio2 | 6.1.0 |
rpartem | 4,1-13 | rprojroot | 1,3-2 | Reservar | 1,7-3 |
RSQLite | 2.1.1 | API do estúdio | 0,7 | escala | 1.0.0 |
sfsmisc | 1,1-2 | espião | 1,3-1 | SparkR | 2.4.0 |
SPARSEM | 1,77 | espacial | 7,3-11 | splines | 3.4.4 |
sqldf | 0,4-11 | QUADRADO | 2017,10-1 | statmod | 1,4,30 |
estatísticas | 3.4.4 | estatísticas4 | 3.4.4 | stringi | 1.2.4 |
longarina | 1.3.1 | sobrevivência | 2,42-6 | tcltk | 3.4.4 |
Demonstrações de ensino | 2,10 | teste isso | 2.0.0 | petiscar | 1.4.2 |
arrumado | 0.8.1 | seleção arrumada | 0.2.4 | Hora/Data | 3043,102 |
Ferramentas | 3.4.4 | utf 8 | 1.1.4 | utilidades | 3.4.4 |
Viridis Lite | 0.3.0 | bigode | 0,3-2 | murchar | 2.1.2 |
xml2 | 1.2.0 | compactar | 1.0.0 |
Instalei Java e Scala biblioteca (versão de clusteringScala 2.11)
ID do grupo | ID do artefato | Versão |
---|---|---|
chifre | chifre | 2.7.7 |
com.amazonaws | Amazon-kinesis-client | 1.8.10 |
com.amazonaws | aws-java-sdk-autoscale | 1,11.313 |
com.amazonaws | formação de nuvem aws-java-sdk | 1,11.313 |
com.amazonaws | aws-java-sdk-cloudfront | 1,11.313 |
com.amazonaws | aws-java-sdk-cloudhsm | 1,11.313 |
com.amazonaws | aws-java-sdk-cloudsearch | 1,11.313 |
com.amazonaws | aws-java-sdk-cloudtrail | 1,11.313 |
com.amazonaws | aws-java-sdk-cloudwatch | 1,11.313 |
com.amazonaws | métricas aws-java-sdk-cloudwatch | 1,11.313 |
com.amazonaws | aws-java-sdk-codedeploy | 1,11.313 |
com.amazonaws | identidade cognitiva aws-java-sdk | 1,11.313 |
com.amazonaws | aws-java-sdk-cognitosync | 1,11.313 |
com.amazonaws | aws-java-sdk-config | 1,11.313 |
com.amazonaws | aws-java-sdk-core | 1,11.313 |
com.amazonaws | pipeline de dados aws-java-sdk | 1,11.313 |
com.amazonaws | aws-java-sdk-conexão direta | 1,11.313 |
com.amazonaws | diretório aws-java-sdk | 1,11.313 |
com.amazonaws | aws-java-sdk-dynamodb | 1,11.313 |
com.amazonaws | aws-java-sdk-ec2 | 1,11.313 |
com.amazonaws | aws-java-sdk-ecs | 1,11.313 |
com.amazonaws | aws-java-sdk-efs | 1,11.313 |
com.amazonaws | aws-java-sdk-elasticache | 1,11.313 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1,11.313 |
com.amazonaws | balanceamento de carga elástico aws-java-sdk | 1,11.313 |
com.amazonaws | transcodificador elástico aws-java-sdk- | 1,11.313 |
com.amazonaws | aws-java-sdk-emr | 1,11.313 |
com.amazonaws | aws-java-sdk-glacier | 1,11.313 |
com.amazonaws | aws-java-sdk-iam | 1,11.313 |
com.amazonaws | aws-java-sdk-importação/exportação | 1,11.313 |
com.amazonaws | aws-java-sdk-kinesis | 1,11.313 |
com.amazonaws | aws-java-sdk-kms | 1,11.313 |
com.amazonaws | aws-java-sdk-lambda | 1,11.313 |
com.amazonaws | aws-java-sdk-logs | 1,11.313 |
com.amazonaws | aws-java-sdk - aprendizado de máquina | 1,11.313 |
com.amazonaws | aws-java-sdk-opsworks | 1,11.313 |
com.amazonaws | aws-java-sdk-rds | 1,11.313 |
com.amazonaws | aws-java-sdk-redshift | 1,11.313 |
com.amazonaws | aws-java-sdk-route53 | 1,11.313 |
com.amazonaws | aws-java-sdk-s3 | 1,11.313 |
com.amazonaws | aws-java-sdk-ses | 1,11.313 |
com.amazonaws | aws-java-sdk-simpledb | 1,11.313 |
com.amazonaws | aws-java-sdk - fluxo de trabalho simples | 1,11.313 |
com.amazonaws | aws-java-sdk-sns | 1,11.313 |
com.amazonaws | aws-java-sdk-sqs | 1,11.313 |
com.amazonaws | aws-java-sdk-ssm | 1,11.313 |
com.amazonaws | gateway de armazenamento aws-java-sdk | 1,11.313 |
com.amazonaws | aws-java-sdk-sts | 1,11.313 |
com.amazonaws | suporte aws-java-sdk | 1,11.313 |
com.amazonaws | aws-java-sdk-swf-biblioteca | 1.11.22 |
com.amazonaws | aws-java-sdk-workspace | 1,11.313 |
com.amazonaws | jmespath-java | 1,11.313 |
com.carrotsearch | hppc | 0.7.2 |
com.chuusai | sem forma_2.11 | 2.3.2 |
com.clearspring.analítica | transmissão | 2.7.0 |
com.databricks | Reservar | 1,8-3 |
com.databricks | dbml-local_2.11 | 0.5.0-db7-spark2.4 |
com.databricks | testes dbml-local_2.11 | 0.5.0-db7-spark2.4 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | plugin_2.11 | 0,4.15-9 |
com.databricks.scalapb | scalapb-runtime_2.11 | 0,4.15-9 |
com.esotérico software | crio-sombreado | 4.0.2 |
com.esotérico software | minlog | 1.3.0 |
com.fasterxml | colega de classe | 1.0.0 |
com.fasterxml.jackson.core | jackson-anotação | 2.6.7 |
com.fasterxml.jackson.core | jackson-core | 2.6.7 |
com.fasterxml.jackson.core | vinculação de dados jackson | 2.6.7.1 |
formato de dados com.fasterxml.jackson. | formato de dados jackson-cbor | 2.6.7 |
com.fasterxml.jackson.tipo de dados | jackson-datatype-joda | 2.6.7 |
com.fasterxml.jackson.module | parâmetro do módulo jackson | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-Scala.11 | 2.6.7.1 |
com.github.fommil | descarregador | 1.1 |
com.github.fommil.netlib | abdômen | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-nativos | 1.1 |
com.github.fommil.netlib | sistema_nativo-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1,3.2-2 |
com.github.rwl | jtransforma | 2.4.0 |
com.google.code.findbugs | jsr305 | 2.0.1 |
com.google.code.gson | gson | 2.2.4 |
com.google.goiaba | goiaba | 15,0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.googlecode.javaewah | Java Ewah | 0.3.2 |
banco de dados com.h2 | h2 | 1,3,174 |
com.jcraft | jsch | 0,1,50 |
com.jolbox | bonecp | VERSÃO 0.8.0. |
com.mchange | cp30 | 0.9.5.1 |
com.mchange | mchange-commons-java | 0.2.10 |
com.microsoft.azure | azure-data lake-store-sdk | 2.2.8 |
com.microsoft.sqlserver | mssql-JDBC | 6.2.2. jre8 |
comendo | comprimir-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.thoughtworks.paranamer | paranâmero | 2.8 |
com.trueaccord.lenses | lentes_2.11 | 0,3 |
com.Twitter | chill-java | 0.9.3 |
com.Twitter | chill_2.11 | 0.9.3 |
com.Twitter | pacote parquet-hadoop | 1.6.0 |
com.Twitter | util-app_2.11 | 6,23,0 |
com.Twitter | util-core_2.11 | 6,23,0 |
com.Twitter | util-jvm_2.11 | 6,23,0 |
com.typesafe | configuração | 1.2.1 |
com.typesafe.Scala-logging | Scala-logging-api_2.11 | 2.1.2 |
com.typesafe.Scala-logging | Scala-logging-slf4j_2.11 | 2.1.2 |
com.univocidade | analisadores de univocidade | 2.7.3 |
com.vlkan | tampões planos | 1,2,0-3f79e055 |
com.zaxxer | HikaricP | 3.1.0 |
folhas de feijão comum | folhas de feijão comum | 1.7.0 |
folhas de feijão comum | commons-beanutils-core | 1.8.0 |
comum-CLI | comum-CLI | 1.2 |
codec comum | codec comum | 1,10 |
coleções comuns | coleções comuns | 3.2.2 |
configuração comum | configuração comum | 1,6 |
commons-dbcp | commons-dbcp | 1.4 |
digestor comum | digestor comum | 1,8 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2,4 |
linguagem comum | linguagem comum | 2.6 |
registro de bens comuns | registro de bens comuns | 1.1.3 |
commons-net | commons-net | 3.1 |
comum-pool | comum-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
io. airlift | compressor de ar | 0,10 |
io.dropwizard.métricas | núcleo de métricas | 3.1.5 |
io.dropwizard.métricas | métricas-ganglia | 3.1.5 |
io.dropwizard.métricas | métricas-grafite | 3.1.5 |
io.dropwizard.métricas | métricas-healthchecks | 3.1.5 |
io.dropwizard.métricas | métricas-jetty9 | 3.1.5 |
io.dropwizard.métricas | métricas-JSON | 3.1.5 |
io.dropwizard.métricas | métricas-JVM | 3.1.5 |
io.dropwizard.métricas | métricas-log4j | 3.1.5 |
io.dropwizard.métricas | métricas-servlets | 3.1.5 |
io.netty | urtiga | 3.9.9. Final |
io.netty | tudo | 4.1.17.Final |
io. prometheus | cliente simples | 0,0,16 |
io. prometheus | simpleclient_common | 0,0,16 |
io. prometheus | simpleclient_dropwizard | 0,0,16 |
io. prometheus | client_servlet simples | 0,0,16 |
io.prometheus.jmx | coletor | 0,7 |
javax.ativação | ativação | 1.1.1 |
javax.anotação | javax.anotação-api | 1.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1.1 |
javax.validação | API de validação | 1.1.0. Final |
javax.ws.rs | javax.ws.rs-api | 2.0.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.transmissão | stax-api | 1,0-2 |
javolução | javolução | 5.5.1 |
junte-se | junte-se | 2,11 |
hora do dia | hora do dia | 2.9.3 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
net.hydromatic | propriedades de base própria | 1.1.5 |
net.razorvine | pirolita | 4,13 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | supercsv | 2.2.0 |
net.snowflake | floco de neve-JDBC | 3.6.3 |
net.snowflake | floco de neve faísca_2.11 | 2.4.1 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt | no CRPC | 1.0.7 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.4 |
org.antlr | antlr4-runtime | 4.7 |
org.antlr | modelo de string | 3.2.1 |
org.apache.ant | formiga | 1.9.2 |
org.apache.ant | formiga | 1.9.2 |
org.apache.ant | lançador de formigas | 1.9.2 |
org.apache.arrow | formato de seta | 0.10.0 |
org.apache.arrow | memória de seta | 0.10.0 |
org.apache.arrow | vetor de seta | 0.10.0 |
org.apache.avro | AVRO | 1.8.2 |
org.apache.avro | avro-ipc | 1.8.2 |
org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
org.apache.calcite | calcita-avática | 1.2.0 - incubação |
org.apache.calcite | núcleo de calcita | 1.2.0 - incubação |
org.apache.calcite | calcita-linq4j | 1.2.0 - incubação |
org.apache.commons | compressa comum | 1.8.1 |
org.apache.commons | criptomoeda comum | 1.0.0 |
org.apache.commons | commons-lang3 | 3,5 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.curator | curador-cliente | 2.7.1 |
org.apache.curator | estrutura de curador | 2.7.1 |
org.apache.curator | receitas de curadores | 2.7.1 |
org.apache.derby | derby | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1,0,0-M20 |
org.apache.directory.api | utilitário de API | 1,0,0-M20 |
org.apache.directory.server | apacheds-i18n | 2,0,0-M15 |
org.apache.directory.server | codec apacheds-kerberos | 2,0,0-M15 |
org.apache.hadoop | hadoop-anotação | 2.7.3 |
org.apache.hadoop | autenticação hadoop | 2.7.3 |
org.apache.hadoop | cliente hadoop | 2.7.3 |
org.apache.hadoop | hadoop-comum | 2.7.3 |
org.apache.hadoop | hadoop-HDFS | 2.7.3 |
org.apache.hadoop | aplicativo cliente hadoop mapreduce | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
org.apache.hadoop | núcleo do cliente hadoop-mapreduce | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
org.apache.hadoop | API hadoop yarn | 2.7.3 |
org.apache.hadoop | cliente hadoop-yarn | 2.7.3 |
org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
org.apache.hadoop | servidor hadoop-yarn-comum | 2.7.3 |
org.apache.htrace | htrace-core | 3.1.0 - incubação |
org.apache.httpcomponents | cliente http | 4.5.4 |
org.apache.httpcomponents | httpcore | 4.4.8 |
org.apache.ivy | hera | 2.4.0 |
org.apache.orc | orc-core-no-hive | 1.5.2 |
org.apache.orc | orc-mapreduce-nohive | 1.5.2 |
org.apache.orc | calços de orc | 1.5.2 |
org.apache.parquet | coluna de parquete | 1.10.1 - blocos de dados 2 |
org.apache.parquet | parquete comum | 1.10.1 - blocos de dados 2 |
org.apache.parquet | codificação de parquet | 1.10.1 - blocos de dados 2 |
org.apache.parquet | formato de parquet | 2.4.0 |
org.apache.parquet | parquet-hadoop | 1.10.1 - blocos de dados 2 |
org.apache.parquet | parquet-jackson | 1.10.1 - blocos de dados 2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.9.3 |
org.apache.xbean | xbean-asm6 sombreado | 4,8 |
org.apache.zookeeper | tratador | 3.4.6 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxers | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | compilador common | 3.0.9 |
org.codehaus.janino | janino | 3.0.9 |
org.datanucleus | núcleo de dados-api-jdo | 3.2.6 |
org.datanucleus | núcleo de dados | 3.2.10 |
org.datanucleus | núcleo de dados-rdbms | 3.2.9 |
org.Eclipse.jetty | jetty-client | 9.3.20.v 20170531 |
org.Eclipse.jetty | continuação do cais | 9.3.20.v 20170531 |
org.Eclipse.jetty | jetty-http | 9.3.20.v 20170531 |
org.Eclipse.jetty | jetty-io | 9.3.20.v 20170531 |
org.Eclipse.jetty | jetty-jndi | 9.3.20.v 20170531 |
org.Eclipse.jetty | jetty-plus | 9.3.20.v 20170531 |
org.Eclipse.jetty | jetty-proxy | 9.3.20.v 20170531 |
org.Eclipse.jetty | segurança do cais | 9.3.20.v 20170531 |
org.Eclipse.jetty | servidor jetty-server | 9.3.20.v 20170531 |
org.Eclipse.jetty | jutty-servlet | 9.3.20.v 20170531 |
org.Eclipse.jetty | píer de servlets | 9.3.20.v 20170531 |
org.Eclipse.jetty | jetty-util | 9.3.20.v 20170531 |
org.Eclipse.jetty | aplicativo web jetty- | 9.3.20.v 20170531 |
org.Eclipse.jetty | jetty-xml | 9.3.20.v 20170531 |
org.fusesource.leveldbjni | leveldbjni-tudo | 1,8 |
org.glassfish.hk2 | API hk2 | 2.4.0-b34 |
org.glassfish.hk2 | localizador hk2 | 2.4.0-b34 |
org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
org.glassfish.hk2 | osgi-recurso-locator | 1.0.1 |
org.glassfish.hk2.external | aopalliance - reembalado | 2.4.0-b34 |
org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
org.glassfish.jersey.bundles.reembalado | jersey-goiaba | 2.22.2 |
org.glassfish.jersey.containers | servlet de contêiner de camisa | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
org.glassfish.jersey.core | cliente de camisa | 2.22.2 |
org.glassfish.jersey.core | camiseta comum | 2.22.2 |
org.glassfish.jersey.core | servidor de camisa | 2.22.2 |
org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
org.hibernate | validador de hibernação | 5.1.1. Final |
org.iq80.snappy | atrevida | 0,2 |
org.javassist | javassist | 3.18.1-GA |
org.jboss.logging | registro de jboss-logging | 3.1.3. GA |
org.jdbi | jdbi | 2.63,1 |
org.joda | conversor de joda | 1.7 |
org.jodd | núcleo nodular | 3.5.2 |
org.json4s | json4s-ast_2.11 | 3.5.3 |
org.json4s | json4s-core_2.11 | 3.5.3 |
org.json4s | json4s-jackson_2.11 | 3.5.3 |
org.json4s | json4s-scalap_2.11 | 3.5.3 |
org.lz4 | lz4-java | 1.4.0 |
org.mariadb.JDBC | cliente mariadb-java | 2.1.2 |
org.mockito | mockito-all | 1.9.5 |
org.objenesis | objênese | 2.5.1 |
org.postgresql | PostgreSQL | 42,14 |
org.roaringbitmap | Mapa de bits estrondoso | 0.5.11 |
org.rocksdb | rocksdbjni | 5.2.1 |
org.rosuda.rEngine | Motor | 2.1.0 |
org.Scala-lang | Scala-compiler_2.11 | 2.11.8 |
org.Scala-lang | Scala-biblioteca.11 | 2.11.8 |
org.Scala-lang | Scala-reflect_2.11 | 2.11.8 |
org.Scala-lang.modules | Scala-parser-combinators_2.11 | 1.0.2 |
org.Scala-lang.modules | Scala-xml_2.11 | 1.0.5 |
org.Scala-sbt | interface de teste | 1,0 |
org.scalacheck | scalacheck_2.11 | 1,12.5 |
org.scalactic | scalactic_2.11 | 3.0.3 |
org.scalanlp | breeze-macros_2.11 | 0,13.2 |
org.scalanlp | breeze_2.11 | 0,13.2 |
org.scalatest | scalatest_2.11 | 3.0.3 |
org.slf4j | jcl-over-slf4j | 1.7.16 |
org.slf4j | jul-a-slf4j | 1.7.16 |
org.slf4j | slf4j-api | 1.7.16 |
org.slf4j | slf4j-log4j12 | 1.7.16 |
org.spark-project.hive | hive-beeline | 1.2.1. spark2 |
org.spark-project.hive | colmeia-CLI | 1.2.1. spark2 |
org.spark-project.hive | hive-exec | 1.2.1. spark2 |
org.spark-project.hive | hive-JDBC | 1.2.1. spark2 |
org.spark-project.hive | Hive metastore | 1.2.1. spark2 |
org.spark-project.spark | não utilizado | 1.0.0 |
org.spire-math | spire-macros_2.11 | 0,13,0 |
org.spire-math | spire_2.11 | 0,13,0 |
org.springframework | núcleo de mola | 4.1.4. LANÇAMENTO |
org.springframework | teste de primavera | 4.1.4. LANÇAMENTO |
org.tukaani | xz | 1.5 |
org.typelevel | maquinista_2.11 | 0.6.1 |
org.typelevel | macro-compat_2.11 | 1.1.1 |
org.xerial | sqlite-JDBC | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.7.1 |
org.yaml | snakeyaml | 1,16 |
oro | oro | 2.0.8 |
software.Amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0,52 |