Databricks Runtime 10,0 (EoS)
O suporte para essa versão do Databricks Runtime foi encerrado. Para saber a data do fim do suporte, consulte Histórico do fim do suporte. Para conhecer todas as versões compatíveis do site Databricks Runtime, consulte Databricks Runtime notas sobre as versões e a compatibilidade.
As notas a seguir sobre a versão fornecem informações sobre Databricks Runtime 10.0 e Databricks Runtime 10.0 Photon, alimentado por Apache Spark 3.2.0. A Databricks lançou essa versão em outubro de 2021. O Photon está em visualização pública.
Novos recursos e melhorias
- Nova versão do Apache Spark
- A instrução SELECT agora suporta a cláusula QUALIFY para filtrar os resultados da função da janela
- suporte a clustering para JDK 11 (visualização pública)
- O Auto Loader agora trata os esquemas como anuláveis
Nova versão do Apache Spark
O Databricks Runtime 10.0 e o Databricks Runtime 10.0 Photon incluem o Apache Spark 3.2.0. Para obter detalhes, consulte Apache Spark.
A instrução SELECT agora suporta a cláusula QUALIFY para filtrar os resultados da função da janela
A declaração SELECT agora suporta a cláusula QUALIFY. QUALIFY pode ser usado para filtrar os resultados das funções da janela. Uma ou mais funções de janela devem estar presentes na lista SELECT ou na condição QUALIFY. Por exemplo:
SELECT * FROM t QUALIFY SUM(c2) OVER (PARTITION BY c1) > 0;
suporte a clustering para JDK 11 (visualização pública)
Databricks agora oferece suporte a clustering para o Java Development Kit (JDK) 11.
Ao criar um clustering, o senhor pode especificar que o clustering use o JDK 11 (para o driver e para executor). Para fazer isso, adicione a seguinte variável de ambiente a Advanced Options > Spark > variável de ambiente :
JNAME=zulu11-ca-amd64
O Auto Loader agora trata os esquemas como anuláveis
Auto Loader agora trata todos os esquemas inferidos e fornecidos pelo usuário como anuláveis por default. Isso evita a possível corrupção de dados nos casos em que os dados contêm campos nulos para colunas não anuláveis. Uma nova configuração é introduzida para rastrear esse comportamento, spark.databricks.cloudFiles.schema.forceNullable. Por default, essa configuração contém a definição de spark.sql.streaming.fileSource.schema.forceNullable, que o FileStreamSource em Apache Spark usa e é definido como true por default.
Alterações importantes
Mudanças significativas para todos os usuários do Spark SQL
- Nova configuração
spark.databricks.behaviorChange.SC78546CorrelatedPredicate.enabled: quando definida comotrue, permite um subconjunto de predicados de igualdade correlacionados quando uma subconsulta é agregada. A configuração default étrue. - Nova configuração
spark.databricks.behaviorChange.SC82201BlockAutoAlias.enabled: quando definida comotrue, bloqueia a geração automática de aliases quando a visualização é criada. A configuração default étrue. - Nova configuração
spark.databricks.behaviorChange.SC81078CTASWithLocation.enabled: quando definida comotrue, não permiteCREATE TABLE AS SELECTcom um local não vazio. A configuração default étrue. Observe que quandospark.sql.legacy.allowNonEmptyLocationInCTAStambém está definido comotrue, essa configuração não tem efeito, eCREATE TABLE AS SELECTcom um local não vazio é sempre permitido.
Mudanças significativas para usuários do Spark SQL que ativam o modo ANSI
Para obter informações sobre o modo ANSI, consulte ANSI compliance em Databricks Runtime.
-
Nova configuração
spark.databricks.behaviorChange.SC83587NextDayDOW.enabled: quando definido comotrue, um argumentodayOfWeekinválido para a funçãonext_daygera umIllegalArgumentExceptionno modo ANSI; caso contrário, ele retornanull. A configuração default étrue. -
Nova configuração
spark.databricks.behaviorChange.SC83796CanCast.enabled: quando definida comotrue, habilita novas regras explícitas de sintaxe de conversão no modo ANSI. A configuração default étrue. -
Nova configuração
spark.databricks.behaviorChange.SC79099CastStringToBoolean.enabled: quando definida comotrue, é lançada uma exceção de erro de análise ao converter uma string em Boolean; caso contrário, retornanull. A configuração default étrue. -
Nova configuração
spark.databricks.behaviorChange.SC79064AbsOutsideRange.enabled: quando definida comotrue, a funçãoabslança uma exceção se a entrada estiver fora do alcance. A configuração default étrue.
Mudanças significativas para todos os usuários do Python
- O Python API
delta.tables.DeltaTable.convertToDeltaagora retorna o objetoDeltaTablePython correto que pode ser usado para executar o Delta Lake comando. Anteriormente, ele retornava um objeto interno que não podia ser chamado diretamente.
Atualizações da biblioteca
Atualização do Apache Hadoop 3
- O Databricks Runtime 10.0 atualiza a dependência do Hadoop do Hadoop 2.7.4 para o Hadoop 3.3.1.
Mudanças de comportamento
-
Hadoop 3 usa as bibliotecas hadoop-client-api e hadoop-client-runtime em vez da biblioteca hadoop-common, que protege determinadas dependências de terceiros que poderiam ser usadas em Hadoop public APIs ou extensões.
-
As opções de configuração do Hadoop 3 foram alteradas desde o Hadoop 2. Para conhecer as opções do Hadoop 3.3.1, consulte core-default.xml.
-
Databricks atualizou algumas das configurações do default para que o Hadoop 3 seja consistente com o Hadoop 2, para garantir que os conectores de armazenamento tenham as mesmas configurações de autenticação e níveis de desempenho do default:
fs.azure.authorization.caching.enable=falsefs.s3a.attempts.maximum=10fs.s3a.block.size=67108864fs.s3a.connection.timeout=50000fs.s3a.max.total.tasks=1000fs.s3a.retry.limit=20fs.s3a.retry.throttle.interval=500msfs.s3a.assumed.role.credentials.provider=com.amazonaws.auth.InstanceProfileCredentialsProviderfs.s3a.aws.credentials.provider=BasicAWSCredentialsProvider, DatabricksInstanceProfileCredentialsProvider, EnvironmentVariableCredentialsProvider, AnonymousAWSCredentialsProvider
-
O conector do Google Cloud Storage (GCS) foi atualizado para a versão 2.1.6 para 2.2.2.
-
O conector do Amazon Redshift agora usa o esquema
s3a://. O esquemas3n://está obsoleto. -
Trata os nomes das classes OSS para a API do Amazon S3 MetadataStore, além das classes sombreadas. Isso permite processar as configurações do OSS sem exigir os nomes de classes sombreados.
- Por exemplo, o senhor pode especificar a classe
org.apache.hadoop.fs.s3a.s3guard.NullMetadataStorena configuração do Hadoop.
- Por exemplo, o senhor pode especificar a classe
-
Torna o
new Configuration()e osparkContext.hadoopConfigurationconsistentes.- Agora, toda vez que uma nova configuração do Hadoop for criada, ela será consistente com a configuração predefinida do Hadoop em
sparkContext.hadoopConfigurationno Databricks Runtime, incluindo os esquemas do sistema de arquivos e sua configuração do default.
- Agora, toda vez que uma nova configuração do Hadoop for criada, ela será consistente com a configuração predefinida do Hadoop em
-
Embora os conectores de armazenamento do Hadoop incluídos no Databricks Runtime sejam totalmente compatíveis com o Hadoop 3.3.1, não é garantido que estejam em sincronia com os conectores OSS Hadoop 3.3.1 e podem ter um comportamento diferente.
- O conector do Amazon S3 ainda permite (embora com um aviso) que o usuário nos URLs do S3, em comparação com o HADOOP-14833, que o remove.
-
GlobStatus agora sempre retorna resultados ordenados (HADOOP-10798)
-
Adicionado fs.s3a.endpoint se não for definido e fs.s3a.endpoint region for nulo(SPARK-35878)
- A resolução automática da região do Amazon S3 fornecida pelo Databricks pode não ser acionada em alguns casos, devido à definição do endpoint global. Isso não é um problema, pois o AWS SDK resolverá a região corretamente.
-
Adicione fs.s3a.downgrade.syncable.exceptions se não estiver definido (SPARK-35868)
-
Os codecs LZ4 e Snappy não dependem da biblioteca nativa do Hadoop(HADOOP-17125)
Problemas conhecidos
- SPARK-36681 O uso do SnappyCodec para gravar um arquivo de sequência falhará com UnsatisfiedLinkError devido a um problema conhecido no Hadoop 3.3.1(HADOOP-17891)
Apache Spark
O Databricks Runtime 10.0 inclui o Apache Spark 3.2.0.
Nesta secção:
Destaques
- Suporte à camada API do Pandas no PySpark(SPARK-34849)
- Sessão baseada em EventTime (janela de sessão) (SPARK-10816)
- Suporte a tipos ANSI SQL INTERVAL(SPARK-27790)
- Modo ANSI GA (SPARK-35030)
- Padronizar mensagens de exceção no Spark(SPARK-33539)
Núcleo e Spark SQL
Aprimoramentos de compatibilidade com ANSI SQL
- Suporte a tipos ANSI SQL INTERVAL(SPARK-27790)
- Novas regras de sintaxe de coerção de tipo no modo ANSI (SPARK-34246)
Aprimoramentos de desempenho
-
Otimização de consultas
- Remova agregados redundantes no Optimizer (SPARK-33122)
- Limite de redução por meio de projeto com união(SPARK-34622)
- Estimativa de cardinalidade do operador de união, classificação e intervalo (SPARK-33411)
- Suporte de comparação binária UnwrapCastinBinary no predicado/Inset (SPARK-35316)
- Mantenha as estatísticas necessárias após a remoção da partição (SPARK-34119)
-
Execução da consulta
- Habilitar o buffer Zstandard pool por default(SPARK-34340, SPARK-34390)
- Adicionar code-gen para todos os tipos de join do tipo merge join(SPARK-34705)
- Loop aninhado de transmissão join improvement(SPARK-34706)
- Suporta dois níveis de mapas de hash para agregação final de hash (SPARK-35141)
- Permitir que os gravadores de concorrente gravem partições dinâmicas e tabelas de balde(SPARK-26164)
- Melhorar o desempenho do processamento de FETCH_PRIOR no Thriftserver(SPARK-33655)
Aprimoramentos do conector
-
PARQUET
- Atualização do Parquet para a versão 1.12.1(SPARK-36726)
- read.parquet Tipos sem sinal que são armazenados como tipo físico int32 em Parquet(SPARK-34817)
- read.parquet tipo lógico int64 sem sinal que é armazenado como tipo físico int64 com sinal para decimal(20, 0)(SPARK-34786)
- Aprimorar o Parquet no pushdown do filtro(SPARK-32792)
-
ORC
- Atualize o ORC para a versão 1.6.11(SPARK-36482)
- Suporte à evolução posicional forçada do ORC(SPARK-32864)
- Suporte a colunas aninhadas no leitor vetorizado ORC(SPARK-34862)
- Suporte à compactação ZSTD e LZ4 em ORC fonte de dados(SPARK-33978, SPARK-35612)
-
AVRO
- Atualize o Avro para a versão 1.10.2(SPARK-34778)
- Suporte à evolução do esquema Avro para tabelas particionadas do Hive com "avro.schema.literal"(SPARK-26836)
- Adicionar novas opções Avro fonte de dados para controlar o rebaseamento de data/hora na leitura(SPARK-34404)
- Adição de suporte para url de esquema fornecido pelo usuário no Avro(SPARK-34416)
- Adicionar suporte para correspondência de esquema de catalisador posicional com AVRO (SPARK-34365)
-
JSON
- Atualize Jackson para a versão 2.12.3 (SPARK-35550)
- Permitir que a JSON fonte de dados escreva caracteres não-ascii como pontos de código(SPARK-35047)
-
JDBC
-
Hive metastore filtro de suporte por não entrada(SPARK-34538)
aprimoramentos de recursos
-
Subconsulta
-
Novas funções integradas
- semelhante (SPARK-36674, SPARK-36736)
- usuário_atual (SPARK-21957)
- produto(SPARK-33678)
- regexp_like, regexp (SPARK-33597,SPARK-34376)
- tente_adicionar (SPARK-35162)
- try_divide (SPARK-35162)
- bit_get (SPARK-33245)
-
Use Apache Hadoop 3.3.1 por default (SPARK-29250)
-
Adicionar soma de verificação para blocos aleatórios (SPARK-35275)
-
Habilitar o spark.storage.replication.proactive em default(SPARK-33870)
-
Suporte à limpeza de armazenamento de fallback durante a interrupção do SparkContext(SPARK-34142)
-
Suporte a Java enums do conjunto de dados Scala API(SPARK-23862)
-
O ADD JAR com coordenadas ivy deve ser compatível com o comportamento transitivo do Hive(SPARK-34506)
-
Suporte ao comando ADD ARCHIVE e LIST ARCHIVES(SPARK-34603)
-
Suporte a vários caminhos para o comando ADD FILE/JAR/ARCHIVE(SPARK-35105)
-
Suporte a arquivos compactados como recurso para a sintaxe CREATE FUNCTION USING(SPARK-35236)
-
Carregando SparkSessionExtensions do ServiceLoader (SPARK-35380)
-
Adicione a função de frases a functions.{Scala,py}(SPARK-35418)
-
Aplique spark.sql.hive.metastorePartitionPruning para tabelas nãoHive que usam Hive metastore para gerenciamento de partições(SPARK-36128)
-
Propague o motivo da perda de execução para a interface do usuário da Web (SPARK-34764)
-
Suporte para analisar todas as tabelas em um banco de dados específico (SPARK-33687)
-
Padronizar mensagens de exceção no Spark(SPARK-33539)
-
Suporte (IGNORE | RESPECT) NULLS para LEAD/LAG/NTH_VALUE/FIRST_VALUE/LAST_VALUE (SPARK-30789)
Outras mudanças notáveis
-
Monitoramento
- Novas métricas para o ExternalShuffleService(SPARK-35258)
- Adicionar novos parâmetros e APIs REST em nível de estágio(SPARK-26399)
- Suporte a tarefas e executor métricas Distribuições métricas Distribuições no REST API(SPARK-34488)
- Adicionar métricas de fallback para agregados de hash(SPARK-35529)
-
Adicionar count_distinct como uma opção para dataset#summary(SPARK-34165)
-
Torne o tempo limite de pulsação do driver BlockManagerMaster configurável (SPARK-34278)
-
Tornar o nome do serviço shuffle configurável no lado do cliente e permitir a substituição da configuração baseada em classpath no lado do servidor(SPARK-34828)
-
Substitua if pela cláusula de filtro em RewriteDistinctAggregates (SPARK-34882)
-
Correção de falha ao aplicar CostBasedJoinReorder em autojoin(SPARK-34354).
-
O CREATE TABLE LIKE deve respeitar as propriedades reservadas da tabela(SPARK-34935)
-
Envie o arquivo ivySettings para o driver no modo de clustering YARN(SPARK-34472)
-
Resolver colunas comuns duplicadas da união USING/NATURAL(SPARK-34527)
-
Ocultar as propriedades internas do site view para descrever a tabela cmd(SPARK-35318)
-
Suporte à resolução de attrs ausentes para a dica de distribuição/agrupamento por/repartição(SPARK-35331)
-
Ignore o erro ao verificar o caminho em FileStreamSink.hasMetadata (SPARK-34526)
-
Melhore o suporte ao s3a magic committer inferindo as configurações ausentes (SPARK-35383)
-
Permitir omitir : nas cadeias de caracteres do tipo STRUCT(SPARK-35706)
-
Adicione um novo operador para distinguir se o AQE pode otimizar com segurança (SPARK-35786)
-
Introduzir uma nova API no FileCommitProtocol para permitir a nomeação flexível de arquivos(SPARK-33298)
Mudanças de comportamento
Consulte o guia de migração de cada componente: Spark Core.
transmissão estruturada
Recurso principal
- Sessão baseada em EventTime (janela de sessão) (SPARK-10816)
- Atualize o cliente Kafka para a versão 2.8.0(SPARK-33913)
- Trigger.AvailableNow para executar consultas de transmissão como Trigger.Once em vários lotes em Scala(SPARK-36533)
Outras mudanças notáveis
- Introduzir uma nova opção na fonte do Kafka para especificar um número mínimo de registros a serem lidos por acionador(SPARK-35312)
- Adicione as últimas compensações ao progresso da fonte (SPARK-33955)
PySpark
Projeto Zen
-
API do Pandas no Spark(SPARK-34849)
- Habilitar mypy para pandas-on-Spark(SPARK-34941)
- Implemente o suporte ao CategoricalDType(SPARK-35997, SPARK-36185)
- Concluir as operações básicas de séries e índices(SPARK-36103, SPARK-36104, SPARK-36192)
- Comportamentos correspondentes a 1,3 Pandas(SPARK-36367)
- Corresponder comportamentos em séries com NaN para Pandas'(SPARK-36031, SPARK-36310)
- Implemente o operador unário 'invertido' da série integral e do índice (SPARK-36003)
- Implemente CategoricalIndex.map e DateTimeIndex.map (SPARK-36470)
- Implemente Index.map (SPARK-36469)
-
O suporte do faulthanlder para Python worker travou(SPARK-36062).
-
Usar a regra de nomenclatura Snake nas APIs de função(SPARK-34306)
-
Habilite o spark.sql.execution.PySpark.udf.simplifiedTraceback.enabled by default(SPARK-35419)
-
Suporte para inferir o dict aninhado como um struct ao criar um DataFrame(SPARK-35929)
Outras mudanças notáveis
- Habilitar o modo de rosca de pinos pelo site default(SPARK-35303)
- Adicionar suporte a NullType para execuções de Arrow (SPARK-33489)
- Adicionar suporte Arrow self_destruct ao TopAndas (SPARK-32953)
- Adicionar wrapper de destino de thread API para PySpark pin modo de thread(SPARK-35498)
Mudanças de comportamento
Consulte o guia de migração.
MLlib
Melhorias no desempenho
- Otimização de transformação LSH BucketedRandomProjectionLSH (SPARK-34220)
- otimização w2v FindSynonyms (SPARK-34189)
- otimize o GEMM esparso ignorando a verificação de limites (SPARK-35707)
- Melhorar o desempenho do ML ALS recommendForAll pelo GEMV(SPARK-33518)
Melhorias no treinamento de modelos
- Agregador logístico Refactor - suporte à centralização virtual (SPARK-34797)
- Regressão logística binária com centralização do suporte de interceptação(SPARK-34858, SPARK-34448)
- Regressão logística multinomial com centralização do suporte de interceptação (SPARK-34860)
Melhorias no BLAS
- Substitua totalmente com.github.fommil.netlib por dev.ludovic.netlib:2.0 (SPARK-35295)
- Adicionar uma implementação de BLAS vetorizada (SPARK-33882)
- Acelere o BLAS de fallback com dev.ludovic.netlib(SPARK-35150)
Outras mudanças notáveis
- A transformação OVR corrige possíveis conflitos de coluna (SPARK-34356)
Depreciações e remoções
- Descontinuar spark.launcher.childConnectionTimeout (SPARK-33717)
- descontinuar GROUP BY... GROUPING SETS (...) e promover GROUP BY GROUPING SETS (...) (SPARK-34932)
- Preterir a API ps.broadcast(SPARK-35810)
- Descontinuar o argumento
num_files(SPARK-35807) - Descontinuar Dataframe.to_SPARK_IO (SPARK-35811)
Atualizações de manutenção
Consulte Atualizações de manutenção do Databricks Runtime 10.0.
Ambiente do sistema
- Sistema operacional : Ubuntu 20.04.3 LTS
- Java : Zulu 8.56.0.21-CA-linux64
- Scala : 2.12.14
- Python : 3.8.10
- R : 4.1.1
- Delta Lake : 1.0.0
Instalado Python biblioteca
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
Antergos Linux | 2015.10 (versão ISO) | apronta | 1.4.4 | chamada de volta | 0.2.0 |
boto3 | 1,16.7 | botocore | 1.19,7 | certifi | 2020.12,5 |
chardet | 4.0.0 | ciclador | 0.10.0 | Cython | 0,29,23 |
dbus-Python | 1.2.16 | decorador | 5.0.6 | distlib | 0.3.3 |
informação da distribuição | 0,23 ubuntu 1 | visão geral das facetas | 1.0.0 | bloqueio de arquivo | 3.0.12 |
Índia | 2,10 | ipykernel | 5.3.4 | ipython | 7.22,0 |
ipython-genutils | 0.2.0 | jedi | 0,17.2 | jmespath | 0.10.0 |
joblib | 1.0.1 | cliente jupyter | 6.1.12 | núcleo jupyter | 4.7.1 |
solucionador de kiwi | 1.3.1 | coalas | 1.8.1 | Matplotlib | 3.4.2 |
entorpecido | 1.19.2 | Pandas | 1.2.4 | parso | 0.7.0 |
bode expiatório | 0.5.1 | esperar | 4.8.0 | picles | 0.7.5 |
Travesseiro | 8.2.0 | pip | 21.0.1 | Plotly | 5.1.0 |
kit de ferramentas de aviso | 3.0.17 | protobuf | 3.17.2 | psycopg2 | 2.8.5 |
processo pty | 0.7.0 | flecha | 4.0.0 | Pigmentos | 2.8.1 |
Objeto PYG | 3,36,0 | análise de pipa | 2.4.7 | Python-apt | 2.0.0+ubuntu0.20.4.6 |
Python-dateutil | 2.8.1 | pytz | 2020,5 | pizma | 20.0.0 |
pedidos | 2.25.1 | solicitações - soquete unix | 0.2.0 | transferência s3 | 0.3.7 |
scikit-learn | 0,24,1 | pegajoso | 1.6.2 | marítimo | 0.11.1 |
ferramentas de configuração | 52,0,0 | seis | 1,15.0 | ID de importação ssh | 5,10 |
modelos de estatísticas | 0.12.2 | tenacidade | 8.0.1 | threadpool ctl | 2.1.0 |
tornado | 6.1 | almôndegas | 5.0.5 | atualizações autônomas | 0,1 |
urllib3 | 1,25.11 | ambiente virtual | 20.4.1 | largura do wc | 0.2.5 |
Python wheel | 0,36,2 |
Instalada a R biblioteca
O R biblioteca é instalado a partir do Snapshot Microsoft CRAN em 2021-09-21.
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
|---|---|---|---|---|---|
askpass | 1.1 | afirme que | 0.2.1 | portas traseiras | 1.2.1 |
base | 4.1.1 | base64enc | 0,1-3 | pouco | 4.0.4 |
bit64 | 4.0.5 | bolha | 1.2.2 | inicialização | 1,3-28 |
fermentar | 1,0-6 | brio | 1.1.2 | vassoura | 0.7.9 |
babião | 0.3.0 | cachem | 1.0.6 | chamador | 3.7.0 |
cursor | 6,0-88 | guarda de celas | 1.1.0 | crono | 2,3-56 |
Aula | 7,3-19 | CLIPE | 3.0.1 | clipe | 0.7.1 |
Cluster | 2.1.2 | ferramentas de código | 0,2-18 | espaço de cores | 2,0-2 |
marca comum | 1.7 | compilador | 4.1.1 | configuração | 0.3.1 |
cpp11 | 0.3.1 | giz de cera | 1.4.1 | Credenciais | 1.3.1 |
cacho | 4.3.2 | data.tabela | 1,14.0 | conjunto de dados | 4.1.1 |
DBI | 1.1.1 | dbplyr | 2.1.1 | desc | 1.3.0 |
ferramentas de desenvolvimento | 2.4.2 | diff | 0.3.4 | digerir | 0,6.27 |
dplyr | 1.0.7 | dtplyr | 1.1.0 | reticências | 0.3.2 |
avalie | 0,14 | fansi | 0.5.0 | colorista | 2.1.0 |
mapa rápido | 1.1.0 | para gatos | 0.5.1 | para cada um | 1.5.1 |
estrangeira | 0,8-81 | forjar | 0.2.0 | fs | 1.5.0 |
futuro | 1.22.1 | futuro.aplique | 1.8.1 | gargarejar | 1.2.0 |
genéricas | 0.1.0 | obter | 1.4.1 | ggplot2 | 3.3.5 |
gh | 1.3.0 | gitcreds | 0.1.1 | glmnet | 4,1-2 |
globais | 0.14.0 | cola | 1.4.2 | google drive | 2.0.0 |
planilhas do Google 4 | 1.0.0 | goleiro | 0.2.2 | gráficos | 4.1.1 |
Dispositivos GR | 4.1.1 | grade | 4.1.1 | Grid Extra | 2.3 |
gsubfn | 0,7 | mesa | 0.3.0 | refúgio | 2.4.3 |
mais alto | 0,9 | HMS | 1.1.0 | ferramentas html | 0.5.2 |
widgets html | 1.5.4 | http.uv | 1.6.3 | httr | 1.4.2 |
escritor | 1.3.2 | HWriter Plus | 1,0-3 | IDs | 1.0.1 |
mini | 0.3.1 | ipred | 0,9-12 | isóbanda | 0.2.5 |
iteradores | 1,0.13 | jquerylib | 0.1.4 | jsonlite | 1.7.2 |
Kern Smooth | 2,23-20 | tricotar | 1,34 | rótulo | 0.4.2 |
posteriormente | 1.3.0 | treliça | 0,20-44 | lava | 1.6.10 |
ciclo de vida | 1.0.0 | ouvindo | 0,8.0 | lubrificar | 1.7.10 |
magritter | 2.0.1 | Markdown | 1.1 | MASSA | 7,3-54 |
Matriz | 1,3-4 | memoise | 2.0.0 | métodos | 4.1.1 |
mgcv | 1,8-37 | mímica | 0,11 | Métricas do modelo | 1.2.2.2 |
modelar | 0.1.8 | munsell | 0.5.0 | nome | 3,1-152 |
net | 7,3-16 | Número Deriv | 2016,8-1,1 | openssl | 1.4.5 |
paralelo | 4.1.1 | paralelamente | 1.28,1 | pilar | 1.6.2 |
pkgbuild | 1.2.0 | pkgconfig | 2.0.3 | carregamento de pacotes | 1.2.2 |
plogr | 0.2.0 | plyr | 1.8.6 | elogio | 1.0.0 |
unidades bonitas | 1.1.1 | ProC | 1,18.0 | processa | 3.5.2 |
prodlim | 13/11/2019 | progresso | 1.2.2 | progressista | 0,8.0 |
promessas | 1.2.0.1 | proto | 1.0.0 | ps | 1.6.0 |
ronronar | 0.3.4 | r2d3 | 0.2.5 | R6 | 2.5.1 |
Floresta aleatória | 4,6-14 | corredeiras | 0.3.3 | rcmdcheck | 1.3.3 |
Cervejaria RColor | 1,1-2 | Rcpp | 1.0.7 | leitor | 2.0.1 |
readxl | 1.3.1 | receitas | 0,1,16 | revanche | 1.0.1 |
revanche 2 | 2.1.2 | controles remotos | 2.4.0 | reprex | 2.0.1 |
remodelar 2 | 1.4.4 | rlang | 0.4.11 | rmarkdown | 2,11 |
RODBC | 1,3-19 | roxigênio2 | 7.1.2 | rpartem | 4,1-15 |
rprojroot | 2.0.2 | Reservar | 1,8-8 | RSQLite | 2.2.8 |
API do estúdio | 0,13 | reversões | 2.1.1 | colete | 1.0.1 |
atrevimento | 0.4.0 | escala | 1.1.1 | seletor | 0,4-2 |
informações da sessão | 1.1.1 | forma | 1.4.6 | brilhante | 1.6.0 |
ferramentas de origem | 0.1.7 | Sparklyr | 1.7.2 | SparkR | 3.2.0 |
espacial | 7,3-11 | splines | 4.1.1 | sqldf | 0,4-11 |
QUADRADO | 2021,1 | estatísticas | 4.1.1 | estatísticas4 | 4.1.1 |
stringi | 1.7.4 | longarina | 1.4.0 | sobrevivência | 3,2-13 |
diz | 3.4 | tcltk | 4.1.1 | Demonstrações de ensino | 2,10 |
teste isso | 3.0.4 | petiscar | 3.1.4 | arrumado | 1.1.3 |
seleção arrumada | 1.1.1 | tidyverso | 1.3.1 | Hora/Data | 3043,102 |
tinytex | 0,33 | Ferramentas | 4.1.1 | tzdb | 0.1.2 |
use isso | 2.0.1 | utf 8 | 1.2.2 | utilidades | 4.1.1 |
uuid | 0,1-4 | vctrs | 0.3.8 | Viridis Lite | 0.4.0 |
vadouro | 1.5.5 | waldo | 0.3.1 | bigode | 0,4 |
murchar | 2.4.2 | diversão | 0,26 | xml2 | 1.3.2 |
xopen | 1.0.0 | x estável | 1,8-4 | yaml | 2.2.1 |
compactar | 2.2.0 |
Instalei Java e Scala biblioteca (versão de clusteringScala 2.12)
ID do grupo | ID do artefato | Versão |
|---|---|---|
chifre | chifre | 2.7.7 |
com.amazonaws | Amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscale | 1,11.655 |
com.amazonaws | formação de nuvem aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-cloudfront | 1,11.655 |
com.amazonaws | aws-java-sdk-cloudhsm | 1,11.655 |
com.amazonaws | aws-java-sdk-cloudsearch | 1,11.655 |
com.amazonaws | aws-java-sdk-cloudtrail | 1,11.655 |
com.amazonaws | aws-java-sdk-cloudwatch | 1,11.655 |
com.amazonaws | métricas aws-java-sdk-cloudwatch | 1,11.655 |
com.amazonaws | aws-java-sdk-codedeploy | 1,11.655 |
com.amazonaws | identidade cognitiva aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-cognitosync | 1,11.655 |
com.amazonaws | aws-java-sdk-config | 1,11.655 |
com.amazonaws | aws-java-sdk-core | 1,11.655 |
com.amazonaws | pipeline de dados aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-conexão direta | 1,11.655 |
com.amazonaws | diretório aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-dynamodb | 1,11.655 |
com.amazonaws | aws-java-sdk-ec2 | 1,11.655 |
com.amazonaws | aws-java-sdk-ecs | 1,11.655 |
com.amazonaws | aws-java-sdk-efs | 1,11.655 |
com.amazonaws | aws-java-sdk-elasticache | 1,11.655 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1,11.655 |
com.amazonaws | balanceamento de carga elástico aws-java-sdk | 1,11.655 |
com.amazonaws | transcodificador elástico aws-java-sdk- | 1,11.655 |
com.amazonaws | aws-java-sdk-emr | 1,11.655 |
com.amazonaws | aws-java-sdk-glacier | 1,11.655 |
com.amazonaws | aws-java-sdk-glue | 1,11.655 |
com.amazonaws | aws-java-sdk-iam | 1,11.655 |
com.amazonaws | aws-java-sdk-importação/exportação | 1,11.655 |
com.amazonaws | aws-java-sdk-kinesis | 1,11.655 |
com.amazonaws | aws-java-sdk-kms | 1,11.655 |
com.amazonaws | aws-java-sdk-lambda | 1,11.655 |
com.amazonaws | aws-java-sdk-logs | 1,11.655 |
com.amazonaws | aws-java-sdk - aprendizado de máquina | 1,11.655 |
com.amazonaws | aws-java-sdk-opsworks | 1,11.655 |
com.amazonaws | aws-java-sdk-rds | 1,11.655 |
com.amazonaws | aws-java-sdk-redshift | 1,11.655 |
com.amazonaws | aws-java-sdk-route53 | 1,11.655 |
com.amazonaws | aws-java-sdk-s3 | 1,11.655 |
com.amazonaws | aws-java-sdk-ses | 1,11.655 |
com.amazonaws | aws-java-sdk-simpledb | 1,11.655 |
com.amazonaws | aws-java-sdk - fluxo de trabalho simples | 1,11.655 |
com.amazonaws | aws-java-sdk-sns | 1,11.655 |
com.amazonaws | aws-java-sdk-sqs | 1,11.655 |
com.amazonaws | aws-java-sdk-ssm | 1,11.655 |
com.amazonaws | gateway de armazenamento aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-sts | 1,11.655 |
com.amazonaws | suporte aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-swf-biblioteca | 1.11.22 |
com.amazonaws | aws-java-sdk-workspace | 1,11.655 |
com.amazonaws | jmespath-java | 1,11.655 |
com.chuusai | sem forma_2.12 | 2.3.3 |
com.clearspring.analítica | transmissão | 2.9.6 |
com.databricks | Reservar | 1,8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | plugin_2.12 do compilador | 0,4,15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0,4,15-10 |
com.esotérico software | crio-sombreado | 4.0.2 |
com.esotérico software | minlog | 1.3.0 |
com.fasterxml | colega de classe | 1.3.4 |
com.fasterxml.jackson.core | jackson-anotação | 2.12.2 |
com.fasterxml.jackson.core | jackson-core | 2.12.2 |
com.fasterxml.jackson.core | vinculação de dados jackson | 2.12.2 |
formato de dados com.fasterxml.jackson. | formato de dados jackson-cbor | 2.12.2 |
com.fasterxml.jackson.tipo de dados | jackson-datatype-joda | 2.12.2 |
com.fasterxml.jackson.module | parâmetro do módulo jackson | 2.12.2 |
com.fasterxml.jackson.module | jackson-module-Scala.12 | 2.12.2 |
com.github.ben-manes.cafeína | cafeína | 2.3.4 |
com.github.fommil | descarregador | 1.1 |
com.github.fommil.netlib | abdômen | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-nativos | 1.1 |
com.github.fommil.netlib | sistema_nativo-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1,5,0-4 |
com.github.wendykierp | JTransforma | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | eu acho | 1.6.0 |
com.google.flatbuffers | tampões planos-java | 1.9.0 |
com.google.goiaba | goiaba | 15,0 |
com.google.protobuf | protobuf-java | 2.6.1 |
banco de dados com.h2 | h2 | 1,4,195 |
com.helger | perfilador | 1.1.1 |
com.jcraft | jsch | 0,1,50 |
com.jolbox | bonecp | VERSÃO 0.8.0. |
com.lihaoyi | código-fonte_2.12 | 0.1.9 |
com.microsoft.sqlserver | mssql-JDBC | 9.2.1. jre8 |
com.microsoft.azure | azure-data lake-store-sdk | 2.3.9 |
comendo | comprimir-lzf | 1.0.3 |
com.sun.istack | istack-commons-runtime | 3.0.8 |
com.sun.mail | javax.mail | 1.5.2 |
com.trunning | JSON | 1,8 |
com.thoughtworks.paranamer | paranâmero | 2.8 |
com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
com.Twitter | chill-java | 0.10.0 |
com.Twitter | chill_2.12 | 0.10.0 |
com.Twitter | util-app_2.12 | 7.1.0 |
com.Twitter | util-core_2.12 | 7.1.0 |
com.Twitter | função-útil_2.12 | 7.1.0 |
com.Twitter | util-jvm_2.12 | 7.1.0 |
com.Twitter | util-lint_2.12 | 7.1.0 |
com.Twitter | util-registry_2.12 | 7.1.0 |
com.Twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | configuração | 1.2.1 |
com.typesafe.Scala-logging | Scala-logging_2.12 | 3.7.2 |
com.univocidade | analisadores de univocidade | 2.9.1 |
com.zaxxer | HikaricP | 3.1.0 |
comum-CLI | comum-CLI | 1.2 |
codec comum | codec comum | 1,15 |
coleções comuns | coleções comuns | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
upload de arquivo commons | upload de arquivo commons | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.8.0 |
linguagem comum | linguagem comum | 2.6 |
registro de bens comuns | registro de bens comuns | 1.1.3 |
commons-net | commons-net | 3.1 |
comum-pool | comum-pool | 1.5.4 |
dev.ludovic.netlib | mochila | 1.3.2 |
dev.ludovic.netlib | blás | 1.3.2 |
dev.ludovic.netlib | lapack | 1.3.2 |
hive-2.3__hadoop-3.2 | jets3t-0.7 | liball_deps_2,12 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io. airlift | compressor de ar | 0,19 |
io.delta | delta-compartilhamento-spark_2.12 | 0.1.0 |
io.dropwizard.métricas | núcleo de métricas | 4.1.1 |
io.dropwizard.métricas | métricas-grafite | 4.1.1 |
io.dropwizard.métricas | métricas-healthchecks | 4.1.1 |
io.dropwizard.métricas | métricas-jetty9 | 4.1.1 |
io.dropwizard.métricas | métricas-jmx | 4.1.1 |
io.dropwizard.métricas | métricas-JSON | 4.1.1 |
io.dropwizard.métricas | métricas-JVM | 4.1.1 |
io.dropwizard.métricas | métricas-servlets | 4.1.1 |
io.netty | tudo | 4.1.63. Final |
io. prometheus | cliente simples | 0.7.0 |
io. prometheus | simpleclient_common | 0.7.0 |
io. prometheus | simpleclient_dropwizard | 0.7.0 |
io. prometheus | gateway client_push simples | 0.7.0 |
io. prometheus | client_servlet simples | 0.7.0 |
io.prometheus.jmx | coletor | 0.12.0 |
jakarta.anotação | jakarta.anotação-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validação | jakarta.validação-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.ativação | ativação | 1.1.1 |
javax.anotação | javax.anotação-api | 1.3.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | API de transação | 1.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.transmissão | stax-api | 1,0-2 |
javolução | javolução | 5.5.1 |
junte-se | junte-se | 2.14.6 |
hora do dia | hora do dia | 2.10.5 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
Maven-árvores | hive-2.3__hadoop-3.2 | liball_deps_2,12 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pirolita | 4,30 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | supercsv | 2.2.0 |
net.snowflake | SDK de ingestão de flocos de neve | 0.9.6 |
net.snowflake | floco de neve-JDBC | 3.13.3 |
net.snowflake | floco de neve faísca_2.12 | 2.9.0-spark_3.1 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | chá remoto - oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4,8 |
org.antlr | modelo de string | 3.2.1 |
org.apache.ant | formiga | 1.9.2 |
org.apache.ant | formiga | 1.9.2 |
org.apache.ant | lançador de formigas | 1.9.2 |
org.apache.arrow | formato de seta | 2.0.0 |
org.apache.arrow | núcleo de memória de seta | 2.0.0 |
org.apache.arrow | rede de memória de seta | 2.0.0 |
org.apache.arrow | vetor de seta | 2.0.0 |
org.apache.avro | AVRO | 1.10.2 |
org.apache.avro | avro-ipc | 1.10.2 |
org.apache.avro | mapeado automaticamente | 1.10.2 |
org.apache.commons | compressa comum | 1,20 |
org.apache.commons | criptomoeda comum | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.commons | texto comum | 1,6 |
org.apache.curator | curador-cliente | 2.13.0 |
org.apache.curator | estrutura de curador | 2.13.0 |
org.apache.curator | receitas de curadores | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | tempo de execução do cliente hadoop | 3.3.1 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | colmeia-CLI | 2.3.9 |
org.apache.hive | hive-JDBC | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-lap-common | 2.3.9 |
org.apache.hive | colmeia | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | API de armazenamento em nuvem | 2.7.2 |
org.apache.hive.shims | calços de colmeia - 0,23 | 2.3.9 |
org.apache.hive.shims | calços de colmeia comuns | 2.3.9 |
org.apache.hive.shims | hive-shims-programador | 2.3.9 |
org.apache.htrace | htrace-core4 | 4.1.0 - incubação |
org.apache.httpcomponents | cliente http | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.12 |
org.apache.ivy | hera | 2.5.0 |
org.apache.mesos | protobuf sombreado em mesos | 1.4.0 |
org.apache.orc | núcleo orc | 1.6.10 |
org.apache.orc | orc-mapreduce | 1.6.10 |
org.apache.orc | calços de orc | 1.6.10 |
org.apache.parquet | coluna de parquete | 1.12.0-databricks-0003 |
org.apache.parquet | parquete comum | 1.12.0-databricks-0003 |
org.apache.parquet | codificação de parquet | 1.12.0-databricks-0003 |
org.apache.parquet | estruturas em formato de parquet | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-jackson | 1.12.0-databricks-0003 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4,20 |
org.apache.yetus | audiência-anotação | 0.5.0 |
org.apache.zookeeper | tratador | 3.6.2 |
org.apache.zookeeper | tratador de zoológico - juta | 3.6.2 |
org.checkerframework | xadrez igual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | compilador common | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | núcleo de dados-api-jdo | 4.2.4 |
org.datanucleus | núcleo de dados | 4.1.17 |
org.datanucleus | núcleo de dados-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3,2,0-m3 |
org.Eclipse.jetty | jetty-client | 9.4.40.v20210413 |
org.Eclipse.jetty | continuação do cais | 9.4.40.v20210413 |
org.Eclipse.jetty | jetty-http | 9.4.40.v20210413 |
org.Eclipse.jetty | jetty-io | 9.4.40.v20210413 |
org.Eclipse.jetty | jetty-jndi | 9.4.40.v20210413 |
org.Eclipse.jetty | jetty-plus | 9.4.40.v20210413 |
org.Eclipse.jetty | jetty-proxy | 9.4.40.v20210413 |
org.Eclipse.jetty | segurança do cais | 9.4.40.v20210413 |
org.Eclipse.jetty | servidor jetty-server | 9.4.40.v20210413 |
org.Eclipse.jetty | jutty-servlet | 9.4.40.v20210413 |
org.Eclipse.jetty | píer de servlets | 9.4.40.v20210413 |
org.Eclipse.jetty | jetty-util | 9.4.40.v20210413 |
org.Eclipse.jetty | jetty-util-ajax | 9.4.40.v20210413 |
org.Eclipse.jetty | aplicativo web jetty- | 9.4.40.v20210413 |
org.Eclipse.jetty | jetty-xml | 9.4.40.v20210413 |
org.Eclipse.jetty.websocket | API de websoquete | 9.4.40.v20210413 |
org.Eclipse.jetty.websocket | cliente websocket | 9.4.40.v20210413 |
org.Eclipse.jetty.websocket | websocket-comum | 9.4.40.v20210413 |
org.Eclipse.jetty.websocket | servidor websocket | 9.4.40.v20210413 |
org.Eclipse.jetty.websocket | servlet websocket | 9.4.40.v20210413 |
org.fusesource.leveldbjni | leveldbjni-tudo | 1,8 |
org.glassfish.hk2 | API hk2 | 2.6.1 |
org.glassfish.hk2 | localizador hk2 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-recurso-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance - reembalado | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jaxb | jaxb-runtime | 2.3.2 |
org.glassfish.jersey.containers | servlet de contêiner de camisa | 2,34 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2,34 |
org.glassfish.jersey.core | cliente de camisa | 2,34 |
org.glassfish.jersey.core | camiseta comum | 2,34 |
org.glassfish.jersey.core | servidor de camisa | 2,34 |
org.glassfish.jersey.inject | camiseta-hk2 | 2,34 |
org.hibernate.validator | validador de hibernação | 6.1.0. Final |
org.javassist | javassist | 3,25,0 GA |
org.jboss.logging | registro de jboss-logging | 3.3.2. Final |
org.jdbi | jdbi | 2.63,1 |
org.jetbrains | anotação | 17.0.0 |
org.joda | conversor de joda | 1.7 |
org.jodd | núcleo nodular | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3,7,0-M11 |
org.json4s | json4s-core_2.12 | 3,7,0-M11 |
org.json4s | json4s-jackson_2.12 | 3,7,0-M11 |
org.json4s | json4s-scalap_2.12 | 3,7,0-M11 |
org.lz4 | lz4-java | 1.7.1 |
org.mariadb.JDBC | cliente mariadb-java | 2.2.5 |
org.objenesis | objênese | 2.5.1 |
org.postgresql | PostgreSQL | 42,2,19 |
org.roaringbitmap | Mapa de bits estrondoso | 0,9.14 |
org.roaringbitmap | calços | 0,9.14 |
org.rocksdb | rocksdbjni | 6.20.3 |
org.rosuda.rEngine | Motor | 2.1.0 |
org.Scala-lang | Scala-compiler_2.12 | 2.12.14 |
org.Scala-lang | Scala-biblioteca.12 | 2.12.14 |
org.Scala-lang | Scala-reflect_2.12 | 2.12.14 |
org.Scala-lang.modules | Scala-collection-compat_2.12 | 2.4.3 |
org.Scala-lang.modules | Scala-parser-combinators_2.12 | 1.1.2 |
org.Scala-lang.modules | Scala-xml_2.12 | 1.2.0 |
org.Scala-sbt | interface de teste | 1,0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1,0 |
org.scalanlp | breeze_2.12 | 1,0 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1,7.30 |
org.slf4j | jul-a-slf4j | 1,7.30 |
org.slf4j | slf4j-api | 1,7.30 |
org.slf4j | slf4j-log4j12 | 1,7.30 |
org.spark-project.spark | não utilizado | 1.0.0 |
org.springframework | núcleo de mola | 4.1.4. LANÇAMENTO |
org.springframework | teste de primavera | 4.1.4. LANÇAMENTO |
org.threeten | treze e mais | 1.5.0 |
org.tukaani | xz | 1,8 |
org.typelevel | álgebra_2.12 | 2,0,0-M2 |
org.typelevel | cats-kernel_2.12 | 2,0,0-M4 |
org.typelevel | maquinista_2.12 | 0.6.8 |
org.typelevel | macro-compat_2,12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0,17.0-M1 |
org.typelevel | spire-platform_2.12 | 0,17.0-M1 |
org.typelevel | spire-util_2.12 | 0,17.0-M1 |
org.typelevel | spire_2.12 | 0,17.0-M1 |
org.wildfly.openssl | wildfly-openssl | 1.0.7. Final |
org.xerial | sqlite-JDBC | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1,24 |
oro | oro | 2.0.8 |
pt.edu.icm | Matrizes JLarge | 1.5 |
software.Amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |