Databricks Runtime 8,0 (EoS)
O suporte para essa versão do Databricks Runtime foi encerrado. Para saber a data do fim do suporte, consulte Histórico do fim do suporte. Para conhecer todas as versões compatíveis do site Databricks Runtime, consulte Databricks Runtime notas sobre as versões e a compatibilidade.
A Databricks lançou essa versão em março de 2021.
As notas a seguir sobre a versão fornecem informações sobre o site Databricks Runtime 8.0, alimentado por Apache Spark 3.1.1.
Novo recurso
O Databricks Runtime 8.0 inclui o Apache Spark 3.1.1. Para obter detalhes, consulte Apache Spark.
Melhorias
Delta agora é o formato quando um formato não é especificado default
Databricks Runtime A versão 8.0 altera o formato default para delta
para simplificar a criação de uma tabela Delta. Quando o senhor cria uma tabela usando SQL comando, ou {Dataset|DataFrame}.{read|readStream|write|writeTo|writeStream}
APIs e o senhor não especificar um formato, o formato default será delta
.
Com o Delta Lake, o senhor obtém melhor desempenho em relação ao Parquet, melhor confiabilidade dos dados com validação de esquema avançada, restrições de qualidade e garantias transacionais. Com o Delta Lake, o senhor pode simplificar seu pipeline de dados com transmissão unificada estruturada e processamento de lotes em uma única fonte de dados.
Embora o site Databricks recomende o uso do Delta Lake para armazenar seus dados, o senhor pode ter um fluxo de trabalho legado que exija a migração para o Delta Lake. Para obter informações sobre a migração do fluxo de trabalho existente, consulte O que é Delta Lake em Databricks?
Nova transmissão estruturada default intervalo de disparo reduz custos
Se o senhor não definir um intervalo de acionamento usando Trigger.ProcessingTime
em sua consulta de transmissão, o intervalo será definido como 500 ms. Anteriormente, o intervalo default era de 0 ms. Essa mudança deve reduzir o número de gatilhos vazios e reduzir os custos de armazenamento em nuvem, como listagem.
Otimizações ao usar o Glue catálogo de dados como metastore para o Databricks Runtime
Esta versão otimiza o AWS Glue catálogo de dados como um metastore Databricks Runtime desativando o carregamento automático das funções do banco de dados na inicialização Hive. Você pode controlar o carregamento de funções com o parâmetro de configuração spark.databricks.hive.metastore.init.reloadFunctions.enabled
. Esse parâmetro será default false
ao usar o Glue catálogo de dados como metastore, desativando o carregamento automático de funções. A definição desse parâmetro como true
reativará o carregamento de funções durante a inicialização do Hive.
Use a função de transformação LDA com passagem de credenciais (visualização pública)
Agora, o senhor pode usar a função de transformação LDA em um clustering configurado para usar a passagem de credenciais para autenticação.
O clustering de usuário único configurado com passagem de credenciais não exige mais sistemas de arquivos confiáveis (visualização pública)
Não é mais necessário configurar os sistemas de arquivos locais como sistemas de arquivos confiáveis ao usar um clustering padrão ou de trabalho configurado para passagem de credenciais com um único usuário. Essa alteração remove restrições desnecessárias do sistema de arquivos ao executar o Job em um clustering de usuário único.
Atualizações da biblioteca
- Atualizou vários sites Java e Scala biblioteca. Consulte as bibliotecas instaladas Java e Scala (versão de clusteringScala 2.12).
- Atualizei o Python para a versão 3.8.6.
- Atualizou várias instalações da Python biblioteca. Consulte o site instalado Python biblioteca.
- Atualizou o R para 4.0.3.
- Atualizou várias instalações da R biblioteca. Consulte R biblioteca instalada.
Apache Spark
O Databricks Runtime 8.0 inclui o Apache Spark 3.1.1.
Nesta secção:
Núcleo e Spark SQL
Destacar
- Unificar a sintaxe SQL de criação de tabela(SPARK-31257)
- Hash embaralhado join improvement(SPARK-32461)
- Eliminação aprimorada de subexpressões (SPARK-33092, SPARK-33337, SPARK-33427, SPARK-33540)
- Kubernetes GA (SPARK-33005)
Aprimoramentos de compatibilidade com ANSI SQL
- Tipo de dados char/varchar de suporte (SPARK-33480)
- Modo ANSI: erros de tempo de execução em vez de retornar nulo (SPARK-33275)
- Modo ANSI: novas regras explícitas de sintaxe de conversão (SPARK-33354)
- Adicionar comando padrão SQL
SET TIME ZONE
(SPARK-32272) - Unificar a sintaxe SQL de criação de tabela(SPARK-31257)
- Unificar os comportamentos temporários view e permanentes view (SPARK-33138)
- Lista de colunas de suporte na declaração
INSERT
(SPARK-32976) - Suporta comentários aninhados entre colchetes ANSI (SPARK-28880)
Aprimoramentos de desempenho
-
Leitura de dados shuffle local do host sem serviço shuffle(SPARK-32077)
-
Remova as classificações redundantes antes dos nós de repartição (SPARK-32276)
-
Reduza parcialmente os predicados (SPARK-32302, SPARK-32352)
-
Empurre os filtros para baixo por meio da expansão (SPARK-33302)
-
Envie mais predicados possíveis por meio da união via conversão CNF(SPARK-31705)
-
Remova o shuffle preservando o particionamento de saída do broadcast hash join (SPARK-31869)
-
Remova o embaralhamento melhorando a reordenação da chave join (SPARK-32282)
-
Hash embaralhado join improvement(SPARK-32461)
- Preservar o hash embaralhado join construir o particionamento lateral(SPARK-32330)
- Preservar o hash join (BHJ e SHJ) transmissão de pedidos laterais(SPARK-32383)
- Coalescer tabelas agrupadas para classificar merge join (SPARK-32286)
- Adicionar geração de código para hash embaralhado join (SPARK-32421)
- Suporte a join externo completo em hash embaralhado join (SPARK-32399)
-
Apoie a eliminação de subexpressões em projetos com código de estágio inteiro (SPARK-33092)
-
Suporta a eliminação de subexpressões em expressões condicionais (SPARK-33337)
-
Suporta eliminação de subexpressões para avaliação de expressões interpretadas (SPARK-33427)
-
Suporta eliminação de subexpressões para predicado interpretado (SPARK-33540)
-
Outras regras do otimizador
- Regra
ExtractSingleColumnNullAwareAntiJoin
(SPARK-32290) - Regra
EliminateNullAwareAntiJoin
(SPARK-32573) - Regra
EliminateAggregateFilter
(SPARK-32540) - Regra
UnwrapCastInBinaryComparison
(SPARK-32858) - Regra
DisableUnnecessaryBucketedScan
(SPARK-32859) - Regra
CoalesceBucketsInJoin
(SPARK-31350) - Elimine campos aninhados desnecessários de serem gerados sem projeto (SPARK-29721)
- Remova campos aninhados desnecessários da agregação e expansão (SPARK-27217)
- Elimine os campos aninhados desnecessários de repartition-by-expression e join (SPARK-31736)
- Elimine campos aninhados desnecessários em vez de variações cosméticas (SPARK-32163)
- Remova campos aninhados desnecessários da janela e classifique (SPARK-32059)
- Otimize o tamanho de createArray/createMap para ser o tamanho de seus filhos (SPARK-33544)
- Regra
Aprimoramentos de extensibilidade
- Adicionar
SupportsPartitions
APIs no DataSourceV2(SPARK-31694) - Adicionar
SupportsMetadataColumns
API no DataSourceV2(SPARK-31255) - Tornar a serialização do cache SQL conectável(SPARK-32274)
- Apresente a opção
purge
emTableCatalog.dropTable
para o catálogo v2 (SPARK-33364)
Aprimoramentos do conector
-
Hive metastore Aprimoramento do pushdown do filtro de partição(SPARK-33537)
- O suporte contém, começa com e termina com filtros(SPARK-33458)
- Filtro de suporte por tipo de data (SPARK-33477)
- Filtro de suporte por não iguais (SPARK-33582)
-
PARQUET
- Permitir o tipo complexo no tipo key do mapa em Parquet (SPARK-32639)
- Permitir salvar e carregar INT96 no Parquet sem rebase(SPARK-33160)
-
ORC
- Empurramento de predicado de coluna aninhada para ORC(SPARK-25557)
- Atualizar o Apache ORC para a versão 1.5.12 (SPARK-33050)
-
CSV
- Aproveite a fonte de dados de texto SQL durante a inferência do esquema CSV (SPARK-32270)
-
JSON
- Suporte ao pushdown de filtros na fonte de dados JSON(SPARK-30648)
-
JDBC
- Implementar APIs de catálogo para JDBC(SPARK-32375, SPARK-32579, SPARK-32402, SPARK-33130)
- Criar API de desenvolvedor do provedor de autenticação JDBC(SPARK-32001)
- Adicionar a possibilidade de desativar o provedor de conexão JDBC(SPARK-32047)
-
AVRO
- Suporte ao pushdown de filtros na fonte de dados Avro(SPARK-32346)
aprimoramentos de recursos
-
Descomissionamento de nós (SPARK-20624)
- Estrutura básica (SPARK-20628)
- Migrar blocos RDD durante a desativação(SPARK-20732)
- Descomissionamento elegante como parte do dimensionamento dinâmico (SPARK-31198)
- Migre blocos aleatórios durante a desativação (SPARK-20629)
- Saia do site executor somente quando a tarefa e a migração de blocos estiverem concluídas(SPARK-31197).
- Suporte ao armazenamento de fallback durante a desativação(SPARK-33545)
-
Novas funções integradas
- json_array_length (SPARK-31008)
- json_object_keys (SPARK-31009)
- catálogo_atual (SPARK-30352)
- timestamp_seconds, timestamp_millis, timestamp_micros (SPARK-31710)
- width_bucket (SPARK-21117)
- regexp_extract_all (SPARK-24884)
- nth_value (SPARK-27951)
- raise_error (SPARK-32793)
- unix_seconds, unix_millis e unix_micros (SPARK-33627)
- date_from_unix_date e unix_date (SPARK-33646)
- fuso horário atual (SPARK-33469)
-
Aprimoramento do comando EXPLAIN(SPARK-32337, SPARK-31325)
-
Forneça uma opção para desativar as dicas fornecidas pelo usuário (SPARK-31875)
-
Suporte à sintaxe REPLACE COLUMNS no estilo Hive(SPARK-30613)
-
Suporta operadores
LIKE ANY
eLIKE ALL
(SPARK-30724) -
Suporte
MATCHED
eNOT MATCHED
ilimitados emMERGE INTO
(SPARK-32030) -
Suporte à sintaxe
RESET
para redefinir uma única configuração(SPARK-32406) -
A expressão do filtro de suporte permite o uso simultâneo de
DISTINCT
(SPARK-30276) -
Suporte ao comando alter table add/drop partition para DSv2(SPARK-32512)
-
Suporta subconsultas
NOT IN
dentro de condiçõesOR
aninhadas (SPARK-25154) -
Suporte ao comando
REFRESH FUNCTION
(SPARK-31999) -
Adicionar os métodos
sameSemantics
esementicHash
no conjunto de dados(SPARK-30791) -
Suporte ao tipo composto de classe de caso no UDF(SPARK-31826)
-
Suporte às APIs de campo aninhado
withField
edropFields
(SPARK-31317, SPARK-32511) -
Suporte para preencher nulos para colunas ausentes em
unionByName
(SPARK-29358) -
Suporte
DataFrameReader.table
para escolher as opções especificadas (SPARK-32592, SPARK-32844) -
Suporte à localização do HDFS em
spark.sql.hive.metastore.jars
(SPARK-32852) -
Suporte à opção
--archives
nativamente(SPARK-33530, SPARK-33615) -
Aprimorar o
ExecutorPlugin
API para incluir métodos para a tarefa começar e eventos finais(SPARK-33088)
Outras mudanças notáveis
- Fornecer função de pesquisa no site de documentos do Spark(SPARK-33166)
- Atualização do Apache Arrow para a versão 2.0.0(SPARK-33213)
- Ativar a API de tempo do Java 8 no servidor thrift(SPARK-31910)
- Ativar a API de tempo do Java 8 em UDFs(SPARK-32154)
- Verificação de estouro para soma agregada com decimais (SPARK-28067)
- Correção de colisão de commit no modo de sobrescrita de partição dinâmica(SPARK-27194, SPARK-29302)
- Referências removidas a escravo, lista negra e lista branca (SPARK-32004, SPARK-32036, SPARK-32037)
- Remover a verificação do tamanho do resultado da tarefa para o estágio de mapa embaralhado(SPARK-32470)
- Generalize
ExecutorSource
para expor esquemas de sistema de arquivos fornecidos pelo usuário (SPARK-33476) - Adicionar
StorageLevel.DISK_ONLY_3
(SPARK-32517) - Expor executor métricas de memória na interface do usuário da Web para o executor(SPARK-23432)
- Exponha as executor métricas de memória no nível do estágio, nos Estágios tab (SPARK-26341)
- Corrigir explicitamente o conjunto de
spark.ui.port
no modo de agrupamento YARN(SPARK-29465) - Adicionar a configuração
spark.submit.waitForCompletion
para controlar a saída do spark-submit no modo de clustering autônomo(SPARK-31486) - Configure
yarn.Client
para imprimir links diretos para o driver stdout/stderr (SPARK-33185) - Corrija o vazamento de memória quando não consegue armazenar partes da transmissão (SPARK-32715)
- Torne o tempo limite de pulsação do driver
BlockManagerMaster
configurável (SPARK-34278) - Unifique e complete os comportamentos de cache (SPARK-33507)
PySpark
Projeto Zen
- Projeto Zen: Melhorando a usabilidade do Python(SPARK-32082)
- Suporte a dicas de tipo PySpark(SPARK-32681)
- Reformulação da documentação do PySpark(SPARK-31851)
- Migrar para o estilo de documentação do NumPy(SPARK-32085)
- Opção de instalação para usuários do PyPI(SPARK-32017)
- Eliminar a depreciação da inferência do esquema DataFrame da lista de dit(SPARK-32686)
- Simplificar a mensagem de exceção das UDFs do Python(SPARK-33407)
Outras mudanças notáveis
- Desduplicar chamadas PythonUDF determinísticas (SPARK-33303)
- Suporte a funções de ordem superior em funções PySpark(SPARK-30681)
- Suporte à fonte de dados v2x write APIs (SPARK-29157)
- Suporte a
percentile_approx
em funções PySpark(SPARK-30569) - Suporte a
inputFiles
no PySpark DataFrame(SPARK-31763) - Suporte a
withField
na coluna PySpark(SPARK-32835) - Suporte
dropFields
na coluna PySpark(SPARK-32511) - Suporte
nth_value
em funções PySpark(SPARK-33020) - Suporte
acosh
,asinh
eatanh
(SPARK-33563) - Suporte ao método
getCheckpointDir
no PySpark SparkContext(SPARK-33017) - Suporte para preencher nulos para colunas ausentes em
unionByName
(SPARK-32798) - Atualização
cloudpickle
para v1.5.0 (SPARK-32094) - Adicionar suporte a
MapType
para PySpark com Arrow(SPARK-24554) DataStreamReader.table
eDataStreamWriter.toTable
(SPARK-33836)
transmissão estruturada
Aprimoramentos de desempenho
- Lista de arquivos buscados em cache além de MaxFilesPerTrigger como arquivo não lido (SPARK-30866)
- Simplifique a lógica dos metadados de origem e de destino da transmissão de arquivos log (SPARK-30462)
- Evite ler metadados compactos log duas vezes se a consulta for reiniciada a partir de lotes compactos(SPARK-30900)
aprimoramentos de recursos
- Adicionar
DataStreamReader.table
API(SPARK-32885) - Adicionar
DataStreamWriter.toTable
API(SPARK-32896) - Semi transmissão-transmissão esquerda join (SPARK-32862)
- Transmissão-transmissão externa completa join (SPARK-32863)
- Forneça uma nova opção para reter os arquivos de saída (SPARK-27188)
- Adicionar Spark transmissão estructurada história Server Support(SPARK-31953)
- Apresente a validação do esquema de estado entre a reinicialização da consulta (SPARK-27237)
Outras mudanças notáveis
- Introduzir a validação do esquema para a transmissão do armazenamento do estado(SPARK-31894)
- Suporte ao uso de um codec de compactação diferente no armazenamento do estado(SPARK-33263)
- Espera infinita do conector Kafka porque os metadados nunca foram atualizados(SPARK-28367)
- Atualize o Kafka para a versão 2.6.0(SPARK-32568)
- Suporte de paginação para páginas de UI de transmissão estruturada(SPARK-31642, SPARK-30119)
- Informações do estado na transmissão estruturada UI(SPARK-33223)
- Informações de lacunas de marca d'água na transmissão estruturada UI(SPARK-33224)
- Expor informações métricas personalizadas do estado na UI do SS(SPARK-33287)
- Adicionar uma nova métrica em relação ao número de linhas posteriores à marca d'água(SPARK-24634)
MLlib
Destaques
- LinearSVC bloqueia vetores de entrada (SPARK-30642)
- Regressão logística bloqueia vetores de entrada (SPARK-30659)
- LinearRegression bloqueia vetores de entrada (SPARK-30660)
- ATF bloqueia vetores de entrada (SPARK-31656)
- Adicionar suporte para regras de associação em ML(SPARK-19939)
- Adicionar resumo de treinamento para LinearSVCModel(SPARK-20249)
- Adicionar resumo ao RandomForestClassificationModel (SPARK-23631)
- Adicionar resumo do treinamento ao FMClassificationModel(SPARK-32140)
- Adicionar resumo ao MultilayerPerceptronClassificationModel (SPARK-32449)
- Adicionar o FMClassifier ao SparkR(SPARK-30820)
- Adicionar o wrapper SparkR LinearRegression(SPARK-30818)
- Adicionar o wrapper FMRegressor ao SparkR(SPARK-30819)
- Adicionar o wrapper SparkR para
vector_to_array
(SPARK-33040) - bloquear instâncias de forma adaptativa - LinearSVC (SPARK-32907)
- Tornar o leitor/gravador do CrossValidator/TrainValidateSplit/OneVsRest compatível com o estimador/avaliador de backend Python(SPARK-33520)
- Melhorar o desempenho do ML ALS recommendForAll por GEMV(SPARK-33518)
- Adicionar seletor de recursos univariado (SPARK-34080)
Outras mudanças notáveis
- GMM compute resumo e atualização das distribuições em um único trabalho(SPARK-31032)
- Remover a dependência do ChiSqSelector em MLlib.ChiSqSelectorModel(SPARK-31077)
- Nivelar o quadro de dados de resultados dos testes em TestChiSquare (SPARK-31301)
- Otimização da distância da chave MinHash (SPARK-31436)
- Otimização de meios com base na desigualdade triangular (SPARK-31007)
- Adicionar suporte de peso no ClusteringEvaluator (SPARK-31734)
- Adicionar GetMetrics em avaliadores (SPARK-31768)
- Adicione suporte ao peso da instância em LinearRegressionSummary (SPARK-31944)
- Adicionar coluna de dobra especificada pelo usuário ao CrossValidator (SPARK-31777)
- ML params default paridade de valor em recurso e ajuste(SPARK-32310)
- Corrige o cache duplo no KMeans/BikMeans (SPARK-32676)
- otimização da transformação traseira (SPARK-33111)
- Otimização da transformação FeatureHasher (SPARK-32974)
- Adicione a função array_to_vector para a coluna dataframe (SPARK-33556)
- ML params default paridade de valores em classificação, regressão, clustering e fpm(SPARK-32310)
- Summary.totalIterações maiores que MaxIters (SPARK-31925)
- otimização da previsão de modelos de árvores (SPARK-32298)
SparkR
- Adicionar interface SparkR para funções de ordem superior(SPARK-30682)
- Suporte para preencher nulos para colunas ausentes em UnionByName (SPARK-32798)
- Suporte a withColumn em funções SparkR(SPARK-32946)
- Suporte a timestamp_seconds em funções SparkR(SPARK-32949)
- Suporte a nth_value em funções SparkR(SPARK-33030)
- A versão mínima do Arrow subiu para 1.0.0 (SPARK-32452)
- Suporte a array_to_vector em funções SparkR(SPARK-33622)
- Suporte acosh, asinh e atanh (SPARK-33563)
- Suporte from_avro e to_avro (SPARK-33304)
Atualizações de manutenção
Consulte Atualizações de manutenção do Databricks Runtime 8.0.
Ambiente do sistema
- Sistema operacional : Ubuntu 18.04.5 LTS
- Java : Zulu 8.50.0.51-CA-linux64 (build 1.8.0_275-b01)
- Scala : 2.12.10
- Python : 3.8.8 (atualizado a partir da versão 3.8.6 na atualização de manutenção de 26 de maio de 2021)
- R : R versão 4.0.3 (2020-10-10)
- Delta Lake 0.8.0
Instalado Python biblioteca
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
apronta | 1.4.4 | criptomoeda asn1 | 1.4.0 | chamada de volta | 0.2.0 |
boto3 | 1,16.7 | botocore | 1.19,7 | brotlipy | 0.7.0 |
certifi | 2020.12,5 | caffi | 1,14.3 | chardet | 3.0.4 |
criptografia | 3.1.1 | ciclador | 0.10.0 | Cython | 0,29,21 |
decorador | 4.4.2 | distlib | 0.3.1 | docutils | 0,15.2 |
pontos de entrada | 0,3 | bloqueio de arquivo | 3.0.12 | Índia | 2,10 |
ipykernel | 5.3.4 | ipython | 7.19.0 | ipython-genutils | 0.2.0 |
jedi | 0,17.2 | jmespath | 0.10.0 | joblib | 0,17.0 |
cliente jupyter | 6.1.7 | núcleo jupyter | 4.6.3 | solucionador de kiwi | 1.3.0 |
coalas | 1.5.0 | Matplotlib | 3.2.2 | entorpecido | 1.19.2 |
Pandas | 1.1.3 | parso | 0.7.0 | bode expiatório | 0.5.1 |
esperar | 4.8.0 | picles | 0.7.5 | pip | 20.2.4 |
kit de ferramentas de aviso | 3.0.8 | psycopg2 | 2.8.5 | processo pty | 0.6.0 |
flecha | 1.0.1 | pycparser | 2,20 | Pigmentos | 2.7.2 |
PyOpenSSL | 19.1.0 | análise de pipa | 2.4.7 | Meias PY | 1.7.1 |
Python-dateutil | 2.8.1 | pytz | 2020,1 | pizma | 19,0.2 |
pedidos | 2.24,0 | transferência s3 | 0.3.3 | scikit-learn | 0,23,2 |
pegajoso | 1.5.2 | marítimo | 0.10.0 | ferramentas de configuração | 50,3.1 |
seis | 1,15.0 | modelos de estatísticas | 0.12.0 | threadpool ctl | 2.1.0 |
tornado | 6.0.4 | almôndegas | 5.0.5 | urllib3 | 1,25.11 |
ambiente virtual | 20.2.1 | largura do wc | 0.2.5 | Python wheel | 0,35,1 |
Instalada a R biblioteca
As bibliotecas R são instaladas a partir do Snapshot Microsoft CRAN em 2020-11-02.
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
askpass | 1.1 | afirme que | 0.2.1 | portas traseiras | 1.2.1 |
base | 4.0.3 | base64enc | 0,1-3 | POR | 1,72,0-3 |
pouco | 4.0.4 | bit64 | 4.0.5 | bolha | 1.2.1 |
inicialização | 1,3-25 | fermentar | 1,0-6 | brio | 1.1.0 |
vassoura | 0.7.2 | chamador | 3.5.1 | cursor | 6,0-86 |
guarda de celas | 1.1.0 | crono | 2,3-56 | Aula | 7,3-17 |
CLIPE | 2.2.0 | clipe | 0.7.1 | Cluster | 2.1.0 |
ferramentas de código | 0,2-18 | espaço de cores | 2,0-0 | marca comum | 1.7 |
compilador | 4.0.3 | configuração | 0,3 | capa | 3.5.1 |
cpp11 | 0.2.4 | giz de cera | 1.3.4 | Credenciais | 1.3.0 |
diafonia | 1.1.0.1 | cacho | 4.3 | data.tabela | 1,13.4 |
conjunto de dados | 4.0.3 | DBI | 1.1.0 | dbplyr | 2.0.0 |
desc | 1.2.0 | ferramentas de desenvolvimento | 2.3.2 | diff | 0.3.2 |
digerir | 0,6.27 | dplyr | 1.0.2 | DT | 0,16 |
reticências | 0.3.1 | avalie | 0,14 | fansi | 0.4.1 |
colorista | 2.0.3 | mapa rápido | 1.0.1 | para gatos | 0.5.0 |
para cada um | 1.5.1 | estrangeira | 0,8-79 | forjar | 0.2.0 |
fs | 1.5.0 | futuro | 1,21,0 | genéricas | 0.1.0 |
obter | 1.0.2 | ggplot2 | 3.3.2 | gh | 1.2.0 |
gitcreds | 0.1.1 | glmnet | 4,0-2 | globais | 0.14.0 |
cola | 1.4.2 | goleiro | 0.2.2 | gráficos | 4.0.3 |
Dispositivos GR | 4.0.3 | grade | 4.0.3 | Grid Extra | 2.3 |
gsubfn | 0,7 | mesa | 0.3.0 | refúgio | 2.3.1 |
mais alto | 0,8 | HMS | 0.5.3 | ferramentas html | 0.5.0 |
widgets html | 1.5.3 | http.uv | 1.5.4 | httr | 1.4.2 |
escritor | 1.3.2 | HWriter Plus | 1,0-3 | mini | 0.3.1 |
ipred | 0,9-9 | isóbanda | 0.2.3 | iteradores | 1,0.13 |
jsonlite | 1.7.2 | Kern Smooth | 2,23-18 | tricotar | 1,30 |
rótulo | 0.4.2 | posteriormente | 1.1.0.1 | treliça | 0,20-41 |
lava | 1.6.8.1 | preguiçoso | 0.2.2 | ciclo de vida | 0.2.0 |
ouvindo | 0,8.0 | lubrificar | 1.7.9.2 | magritter | 2.0.1 |
Markdown | 1.1 | MASSA | 7,3-53 | Matriz | 1,2-18 |
memoise | 1.1.0 | métodos | 4.0.3 | mgcv | 1,8-33 |
mímica | 0,9 | Métricas do modelo | 1.2.2.2 | modelar | 0.1.8 |
munsell | 0.5.0 | nome | 3,1-151 | net | 7,3-14 |
Número Deriv | 2016,8-1,1 | openssl | 1.4.3 | paralelo | 4.0.3 |
paralelamente | 1,22,0 | pilar | 1.4.7 | pkgbuild | 1.1.0 |
pkgconfig | 2.0.3 | carregamento de pacotes | 1.1.0 | plogr | 0.2.0 |
plyr | 1.8.6 | elogio | 1.0.0 | unidades bonitas | 1.1.1 |
ProC | 1.16.2 | processa | 3.4.5 | prodlim | 13/11/2019 |
progresso | 1.2.2 | promessas | 1.1.1 | proto | 1.0.0 |
ps | 1.5.0 | ronronar | 0.3.4 | r2d3 | 0.2.3 |
R6 | 2.5.0 | Floresta aleatória | 4,6-14 | corredeiras | 0.3.1 |
rcmdcheck | 1.3.3 | Cervejaria RColor | 1,1-2 | Rcpp | 1.0.5 |
leitor | 1.4.0 | readxl | 1.3.1 | receitas | 0,1,15 |
revanche | 1.0.1 | revanche 2 | 2.1.2 | controles remotos | 2.2.0 |
reprex | 0.3.0 | remodelar 2 | 1.4.4 | rex | 1.2.0 |
rlang | 0.4.9 | rmarkdown | 2.6 | RODBC | 1,3-17 |
roxigênio2 | 7.1.1 | rpartem | 4,1-15 | rprojroot | 2.0.2 |
Reservar | 1,8-7 | RSQLite | 2.2.1 | API do estúdio | 0,13 |
reversões | 2.0.2 | colete | 0.3.6 | escala | 1.1.1 |
seletor | 0,4-2 | informações da sessão | 1.1.1 | forma | 1.4.5 |
brilhante | 1.5.0 | ferramentas de origem | 0.1.7 | Sparklyr | 1.5.2 |
SparkR | 3.1.0 | espacial | 7,3-11 | splines | 4.0.3 |
sqldf | 0,4-11 | QUADRADO | 2020,5 | estatísticas | 4.0.3 |
estatísticas4 | 4.0.3 | stringi | 1.5.3 | longarina | 1.4.0 |
sobrevivência | 3,2-7 | diz | 3.4 | tcltk | 4.0.3 |
Demonstrações de ensino | 2,10 | teste isso | 3.0.0 | petiscar | 3.0.4 |
arrumado | 1.1.2 | seleção arrumada | 1.1.0 | tidyverso | 1.3.0 |
Hora/Data | 3043,102 | tinytex | 0,28 | Ferramentas | 4.0.3 |
use isso | 2.0.0 | utf 8 | 1.1.4 | utilidades | 4.0.3 |
uuid | 0,1-4 | vctrs | 0.3.5 | Viridis Lite | 0.3.0 |
waldo | 0.2.3 | bigode | 0,4 | murchar | 2.3.0 |
diversão | 0,19 | xml2 | 1.3.2 | xopen | 1.0.0 |
x estável | 1,8-4 | yaml | 2.2.1 | compactar | 2.1.1 |
Instalei Java e Scala biblioteca (versão de clusteringScala 2.12)
ID do grupo | ID do artefato | Versão |
---|---|---|
chifre | chifre | 2.7.7 |
com.amazonaws | Amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscale | 1,11.655 |
com.amazonaws | formação de nuvem aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-cloudfront | 1,11.655 |
com.amazonaws | aws-java-sdk-cloudhsm | 1,11.655 |
com.amazonaws | aws-java-sdk-cloudsearch | 1,11.655 |
com.amazonaws | aws-java-sdk-cloudtrail | 1,11.655 |
com.amazonaws | aws-java-sdk-cloudwatch | 1,11.655 |
com.amazonaws | métricas aws-java-sdk-cloudwatch | 1,11.655 |
com.amazonaws | aws-java-sdk-codedeploy | 1,11.655 |
com.amazonaws | identidade cognitiva aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-cognitosync | 1,11.655 |
com.amazonaws | aws-java-sdk-config | 1,11.655 |
com.amazonaws | aws-java-sdk-core | 1,11.655 |
com.amazonaws | pipeline de dados aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-conexão direta | 1,11.655 |
com.amazonaws | diretório aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-dynamodb | 1,11.655 |
com.amazonaws | aws-java-sdk-ec2 | 1,11.655 |
com.amazonaws | aws-java-sdk-ecs | 1,11.655 |
com.amazonaws | aws-java-sdk-efs | 1,11.655 |
com.amazonaws | aws-java-sdk-elasticache | 1,11.655 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1,11.655 |
com.amazonaws | balanceamento de carga elástico aws-java-sdk | 1,11.655 |
com.amazonaws | transcodificador elástico aws-java-sdk- | 1,11.655 |
com.amazonaws | aws-java-sdk-emr | 1,11.655 |
com.amazonaws | aws-java-sdk-glacier | 1,11.655 |
com.amazonaws | aws-java-sdk-iam | 1,11.655 |
com.amazonaws | aws-java-sdk-importação/exportação | 1,11.655 |
com.amazonaws | aws-java-sdk-kinesis | 1,11.655 |
com.amazonaws | aws-java-sdk-kms | 1,11.655 |
com.amazonaws | aws-java-sdk-lambda | 1,11.655 |
com.amazonaws | aws-java-sdk-logs | 1,11.655 |
com.amazonaws | aws-java-sdk - aprendizado de máquina | 1,11.655 |
com.amazonaws | aws-java-sdk-opsworks | 1,11.655 |
com.amazonaws | aws-java-sdk-rds | 1,11.655 |
com.amazonaws | aws-java-sdk-redshift | 1,11.655 |
com.amazonaws | aws-java-sdk-route53 | 1,11.655 |
com.amazonaws | aws-java-sdk-s3 | 1,11.655 |
com.amazonaws | aws-java-sdk-ses | 1,11.655 |
com.amazonaws | aws-java-sdk-simpledb | 1,11.655 |
com.amazonaws | aws-java-sdk - fluxo de trabalho simples | 1,11.655 |
com.amazonaws | aws-java-sdk-sns | 1,11.655 |
com.amazonaws | aws-java-sdk-sqs | 1,11.655 |
com.amazonaws | aws-java-sdk-ssm | 1,11.655 |
com.amazonaws | gateway de armazenamento aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-sts | 1,11.655 |
com.amazonaws | suporte aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-swf-biblioteca | 1.11.22 |
com.amazonaws | aws-java-sdk-workspace | 1,11.655 |
com.amazonaws | jmespath-java | 1,11.655 |
com.chuusai | sem forma_2.12 | 2.3.3 |
com.clearspring.analítica | transmissão | 2.9.6 |
com.databricks | Reservar | 1,8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | plugin_2.12 do compilador | 0,4,15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0,4,15-10 |
com.esotérico software | crio-sombreado | 4.0.2 |
com.esotérico software | minlog | 1.3.0 |
com.fasterxml | colega de classe | 1.3.4 |
com.fasterxml.jackson.core | jackson-anotação | 2.10.0 |
com.fasterxml.jackson.core | jackson-core | 2.10.0 |
com.fasterxml.jackson.core | vinculação de dados jackson | 2.10.0 |
formato de dados com.fasterxml.jackson. | formato de dados jackson-cbor | 2.10.0 |
com.fasterxml.jackson.tipo de dados | jackson-datatype-joda | 2.10.0 |
com.fasterxml.jackson.module | parâmetro do módulo jackson | 2.10.0 |
com.fasterxml.jackson.module | jackson-module-Scala.12 | 2.10.0 |
com.github.ben-manes.cafeína | cafeína | 2.3.4 |
com.github.fommil | descarregador | 1.1 |
com.github.fommil.netlib | abdômen | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-nativos | 1.1 |
com.github.fommil.netlib | sistema_nativo-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.joshelser | dropwizard-métricas-hadoop-metrics2-reporter | 0.1.2 |
com.github.luben | zstd-jni | 1,4,8-1 |
com.github.wendykierp | JTransforma | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.2.4 |
com.google.flatbuffers | tampões planos-java | 1.9.0 |
com.google.goiaba | goiaba | 15,0 |
com.google.protobuf | protobuf-java | 2.6.1 |
banco de dados com.h2 | h2 | 1,4,195 |
com.helger | perfilador | 1.1.1 |
com.jcraft | jsch | 0,1,50 |
com.jolbox | bonecp | VERSÃO 0.8.0. |
com.lihaoyi | código-fonte_2.12 | 0.1.9 |
com.microsoft.sqlserver | mssql-JDBC | 8.2.1. jre8 |
com.microsoft.azure | azure-data lake-store-sdk | 2.3.9 |
comendo | comprimir-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.trunning | JSON | 1,8 |
com.thoughtworks.paranamer | paranâmero | 2.8 |
com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
com.Twitter | chill-java | 0,9.5 |
com.Twitter | chill_2.12 | 0,9.5 |
com.Twitter | util-app_2.12 | 7.1.0 |
com.Twitter | util-core_2.12 | 7.1.0 |
com.Twitter | função-útil_2.12 | 7.1.0 |
com.Twitter | util-jvm_2.12 | 7.1.0 |
com.Twitter | util-lint_2.12 | 7.1.0 |
com.Twitter | util-registry_2.12 | 7.1.0 |
com.Twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | configuração | 1.2.1 |
com.typesafe.Scala-logging | Scala-logging_2.12 | 3.7.2 |
com.univocidade | analisadores de univocidade | 2.9.0 |
com.zaxxer | HikaricP | 3.1.0 |
folhas de feijão comum | folhas de feijão comum | 1.9.4 |
comum-CLI | comum-CLI | 1.2 |
codec comum | codec comum | 1,10 |
coleções comuns | coleções comuns | 3.2.2 |
configuração comum | configuração comum | 1,6 |
commons-dbcp | commons-dbcp | 1.4 |
digestor comum | digestor comum | 1,8 |
upload de arquivo commons | upload de arquivo commons | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2,4 |
linguagem comum | linguagem comum | 2.6 |
registro de bens comuns | registro de bens comuns | 1.1.3 |
commons-net | commons-net | 3.1 |
comum-pool | comum-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io. airlift | compressor de ar | 0,10 |
io.dropwizard.métricas | núcleo de métricas | 4.1.1 |
io.dropwizard.métricas | métricas-grafite | 4.1.1 |
io.dropwizard.métricas | métricas-healthchecks | 4.1.1 |
io.dropwizard.métricas | métricas-jetty9 | 4.1.1 |
io.dropwizard.métricas | métricas-jmx | 4.1.1 |
io.dropwizard.métricas | métricas-JSON | 4.1.1 |
io.dropwizard.métricas | métricas-JVM | 4.1.1 |
io.dropwizard.métricas | métricas-servlets | 4.1.1 |
io.netty | tudo | 4.1.51.Final |
io. prometheus | cliente simples | 0.7.0 |
io. prometheus | simpleclient_common | 0.7.0 |
io. prometheus | simpleclient_dropwizard | 0.7.0 |
io. prometheus | gateway client_push simples | 0.7.0 |
io. prometheus | client_servlet simples | 0.7.0 |
io.prometheus.jmx | coletor | 0.12.0 |
jakarta.anotação | jakarta.anotação-api | 1.3.5 |
jakarta.validação | jakarta.validação-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.ativação | ativação | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1.1 |
javax.transaction | API de transação | 1.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.transmissão | stax-api | 1,0-2 |
javolução | javolução | 5.5.1 |
junte-se | junte-se | 2.14.6 |
hora do dia | hora do dia | 2.10.5 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
net.razorvine | pirolita | 4,30 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | supercsv | 2.2.0 |
net.snowflake | SDK de ingestão de flocos de neve | 0.9.6 |
net.snowflake | floco de neve-JDBC | 3.12.8 |
net.snowflake | floco de neve faísca_2.12 | 2.8.1-spark_3.0 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | chá remoto - oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4,8-1 |
org.antlr | modelo de string | 3.2.1 |
org.apache.ant | formiga | 1.9.2 |
org.apache.ant | formiga | 1.9.2 |
org.apache.ant | lançador de formigas | 1.9.2 |
org.apache.arrow | formato de seta | 2.0.0 |
org.apache.arrow | núcleo de memória de seta | 2.0.0 |
org.apache.arrow | rede de memória de seta | 2.0.0 |
org.apache.arrow | vetor de seta | 2.0.0 |
org.apache.avro | AVRO | 1.8.2 |
org.apache.avro | avro-ipc | 1.8.2 |
org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
org.apache.commons | compressa comum | 1,20 |
org.apache.commons | criptomoeda comum | 1.1.0 |
org.apache.commons | commons-lang3 | 3.10 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.commons | texto comum | 1,6 |
org.apache.curator | curador-cliente | 2.7.1 |
org.apache.curator | estrutura de curador | 2.7.1 |
org.apache.curator | receitas de curadores | 2.7.1 |
org.apache.derby | derby | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1,0,0-M20 |
org.apache.directory.api | utilitário de API | 1,0,0-M20 |
org.apache.directory.server | apacheds-i18n | 2,0,0-M15 |
org.apache.directory.server | codec apacheds-kerberos | 2,0,0-M15 |
org.apache.hadoop | hadoop-anotação | 2.7.4 |
org.apache.hadoop | autenticação hadoop | 2.7.4 |
org.apache.hadoop | cliente hadoop | 2.7.4 |
org.apache.hadoop | hadoop-comum | 2.7.4 |
org.apache.hadoop | hadoop-HDFS | 2.7.4 |
org.apache.hadoop | aplicativo cliente hadoop mapreduce | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.4 |
org.apache.hadoop | núcleo do cliente hadoop-mapreduce | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.4 |
org.apache.hadoop | API hadoop yarn | 2.7.4 |
org.apache.hadoop | cliente hadoop-yarn | 2.7.4 |
org.apache.hadoop | hadoop-yarn-common | 2.7.4 |
org.apache.hadoop | servidor hadoop-yarn-comum | 2.7.4 |
org.apache.hive | hive-beeline | 2.3.7 |
org.apache.hive | colmeia-CLI | 2.3.7 |
org.apache.hive | colmeia comum | 2.3.7 |
org.apache.hive | núcleo hive-exec-core | 2.3.7 |
org.apache.hive | hive-JDBC | 2.3.7 |
org.apache.hive | hive-llap-client | 2.3.7 |
org.apache.hive | hive-lap-common | 2.3.7 |
org.apache.hive | Hive metastore | 2.3.7 |
org.apache.hive | colmeia | 2.3.7 |
org.apache.hive | hive-shims | 2.3.7 |
org.apache.hive | API de armazenamento em nuvem | 2.7.2 |
org.apache.hive | geração de código vetorial hive | 2.3.7 |
org.apache.hive.shims | calços de colmeia - 0,23 | 2.3.7 |
org.apache.hive.shims | calços de colmeia comuns | 2.3.7 |
org.apache.hive.shims | hive-shims-programador | 2.3.7 |
org.apache.htrace | htrace-core | 3.1.0 - incubação |
org.apache.httpcomponents | cliente http | 4.5.6 |
org.apache.httpcomponents | httpcore | 4.4.12 |
org.apache.ivy | hera | 2.4.0 |
org.apache.mesos | protobuf sombreado em mesos | 1.4.0 |
org.apache.orc | núcleo orc | 1.5.12 |
org.apache.orc | orc-mapreduce | 1.5.12 |
org.apache.orc | calços de orc | 1.5.12 |
org.apache.parquet | coluna de parquete | 1.10.1 - blocos de dados 6 |
org.apache.parquet | parquete comum | 1.10.1 - blocos de dados 6 |
org.apache.parquet | codificação de parquet | 1.10.1 - blocos de dados 6 |
org.apache.parquet | formato de parquet | 2.4.0 |
org.apache.parquet | parquet-hadoop | 1.10.1 - blocos de dados 6 |
org.apache.parquet | parquet-jackson | 1.10.1 - blocos de dados 6 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.velocity | velocidade | 1.5 |
org.apache.xbean | xbean-asm7-shaded | 4,15 |
org.apache.yetus | audiência-anotação | 0.5.0 |
org.apache.zookeeper | tratador | 3.4.14 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxers | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | compilador common | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | núcleo de dados-api-jdo | 4.2.4 |
org.datanucleus | núcleo de dados | 4.1.17 |
org.datanucleus | núcleo de dados-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3,2,0-m3 |
org.Eclipse.jetty | jetty-client | 9.4.34.v20201102 |
org.Eclipse.jetty | continuação do cais | 9.4.34.v20201102 |
org.Eclipse.jetty | jetty-http | 9.4.34.v20201102 |
org.Eclipse.jetty | jetty-io | 9.4.34.v20201102 |
org.Eclipse.jetty | jetty-jndi | 9.4.34.v20201102 |
org.Eclipse.jetty | jetty-plus | 9.4.34.v20201102 |
org.Eclipse.jetty | jetty-proxy | 9.4.34.v20201102 |
org.Eclipse.jetty | segurança do cais | 9.4.34.v20201102 |
org.Eclipse.jetty | servidor jetty-server | 9.4.34.v20201102 |
org.Eclipse.jetty | jutty-servlet | 9.4.34.v20201102 |
org.Eclipse.jetty | píer de servlets | 9.4.34.v20201102 |
org.Eclipse.jetty | jetty-util | 9.4.34.v20201102 |
org.Eclipse.jetty | aplicativo web jetty- | 9.4.34.v20201102 |
org.Eclipse.jetty | jetty-xml | 9.4.34.v20201102 |
org.fusesource.leveldbjni | leveldbjni-tudo | 1,8 |
org.glassfish.hk2 | API hk2 | 2.6.1 |
org.glassfish.hk2 | localizador hk2 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-recurso-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance - reembalado | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | servlet de contêiner de camisa | 2,30 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2,30 |
org.glassfish.jersey.core | cliente de camisa | 2,30 |
org.glassfish.jersey.core | camiseta comum | 2,30 |
org.glassfish.jersey.core | servidor de camisa | 2,30 |
org.glassfish.jersey.inject | camiseta-hk2 | 2,30 |
org.glassfish.jersey.media | jersey-media-jaxb | 2,30 |
org.hibernate.validator | validador de hibernação | 6.1.0. Final |
org.javassist | javassist | 3,25,0 GA |
org.jboss.logging | registro de jboss-logging | 3.3.2. Final |
org.jdbi | jdbi | 2.63,1 |
org.joda | conversor de joda | 1.7 |
org.jodd | núcleo nodular | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3,7,0 M5 |
org.json4s | json4s-core_2.12 | 3,7,0 M5 |
org.json4s | json4s-jackson_2.12 | 3,7,0 M5 |
org.json4s | json4s-scalap_2.12 | 3,7,0 M5 |
org.lz4 | lz4-java | 1.7.1 |
org.mariadb.JDBC | cliente mariadb-java | 2.1.2 |
org.objenesis | objênese | 2.5.1 |
org.postgresql | PostgreSQL | 42,14 |
org.roaringbitmap | Mapa de bits estrondoso | 0.9.0 |
org.roaringbitmap | calços | 0.9.0 |
org.rocksdb | rocksdbjni | 6.2.2 |
org.rosuda.rEngine | Motor | 2.1.0 |
org.Scala-lang | Scala-compiler_2.12 | 2.12.10 |
org.Scala-lang | Scala-biblioteca.12 | 2.12.10 |
org.Scala-lang | Scala-reflect_2.12 | 2.12.10 |
org.Scala-lang.modules | Scala-collection-compat_2.12 | 2.1.1 |
org.Scala-lang.modules | Scala-parser-combinators_2.12 | 1.1.2 |
org.Scala-lang.modules | Scala-xml_2.12 | 1.2.0 |
org.Scala-sbt | interface de teste | 1,0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1,0 |
org.scalanlp | breeze_2.12 | 1,0 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1,7.30 |
org.slf4j | jul-a-slf4j | 1,7.30 |
org.slf4j | slf4j-api | 1,7.30 |
org.slf4j | slf4j-log4j12 | 1,7.30 |
org.spark-project.spark | não utilizado | 1.0.0 |
org.springframework | núcleo de mola | 4.1.4. LANÇAMENTO |
org.springframework | teste de primavera | 4.1.4. LANÇAMENTO |
org.threeten | treze e mais | 1.5.0 |
org.tukaani | xz | 1.5 |
org.typelevel | álgebra_2.12 | 2,0,0-M2 |
org.typelevel | cats-kernel_2.12 | 2,0,0-M4 |
org.typelevel | maquinista_2.12 | 0.6.8 |
org.typelevel | macro-compat_2,12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0,17.0-M1 |
org.typelevel | spire-platform_2.12 | 0,17.0-M1 |
org.typelevel | spire-util_2.12 | 0,17.0-M1 |
org.typelevel | spire_2.12 | 0,17.0-M1 |
org.wildfly.openssl | wildfly-openssl | 1.0.7. Final |
org.xerial | sqlite-JDBC | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.2 |
org.yaml | snakeyaml | 1,24 |
oro | oro | 2.0.8 |
pt.edu.icm | Matrizes JLarge | 1.5 |
software.Amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0,52 |