Databricks Runtime 10,0 (EoS)
O suporte para essa versão do Databricks Runtime foi encerrado. Para saber a data do fim do suporte, consulte Histórico do fim do suporte. Para conhecer todas as versões compatíveis do site Databricks Runtime, consulte Databricks Runtime notas sobre as versões e a compatibilidade.
As notas a seguir sobre a versão fornecem informações sobre Databricks Runtime 10.0 e Databricks Runtime 10.0 Photon, alimentado por Apache Spark 3.2.0. A Databricks lançou essa versão em outubro de 2021. O Photon está em visualização pública.
Novos recursos e melhorias
- Nova versão do Apache Spark
- A instrução SELECT agora suporta a cláusula QUALIFY para filtrar os resultados da função da janela
- suporte a clustering para JDK 11 (visualização pública)
- O Auto Loader agora trata os esquemas como anuláveis
Nova versão do Apache Spark
O Databricks Runtime 10.0 e o Databricks Runtime 10.0 Photon incluem o Apache Spark 3.2.0. Para obter detalhes, consulte Apache Spark.
A instrução SELECT agora suporta a cláusula QUALIFY para filtrar os resultados da função da janela
A declaração SELECT
agora suporta a cláusula QUALIFY
. QUALIFY
pode ser usado para filtrar os resultados das funções da janela. Uma ou mais funções de janela devem estar presentes na lista SELECT
ou na condição QUALIFY
. Por exemplo:
SELECT * FROM t QUALIFY SUM(c2) OVER (PARTITION BY c1) > 0;
suporte a clustering para JDK 11 (visualização pública)
Databricks agora oferece suporte a clustering para o Java Development Kit (JDK) 11.
Ao criar um clustering, o senhor pode especificar que o clustering use o JDK 11 (para o driver e para executor). Para fazer isso, adicione a seguinte variável de ambiente a Advanced Options > Spark > variável de ambiente :
JNAME=zulu11-ca-amd64
O Auto Loader agora trata os esquemas como anuláveis
Auto Loader agora trata todos os esquemas inferidos e fornecidos pelo usuário como anuláveis por default. Isso evita a possível corrupção de dados nos casos em que os dados contêm campos nulos para colunas não anuláveis. Uma nova configuração é introduzida para rastrear esse comportamento, spark.databricks.cloudFiles.schema.forceNullable
. Por default, essa configuração contém a definição de spark.sql.streaming.fileSource.schema.forceNullable
, que o FileStreamSource em Apache Spark usa e é definido como true
por default.
Alterações importantes
Mudanças significativas para todos os usuários do Spark SQL
- Nova configuração
spark.databricks.behaviorChange.SC78546CorrelatedPredicate.enabled
: quando definida comotrue
, permite um subconjunto de predicados de igualdade correlacionados quando uma subconsulta é agregada. A configuração default étrue
. - Nova configuração
spark.databricks.behaviorChange.SC82201BlockAutoAlias.enabled
: quando definida comotrue
, bloqueia a geração automática de aliases quando a visualização é criada. A configuração default étrue
. - Nova configuração
spark.databricks.behaviorChange.SC81078CTASWithLocation.enabled
: quando definida comotrue
, não permiteCREATE TABLE AS SELECT
com um local não vazio. A configuração default étrue
. Observe que quandospark.sql.legacy.allowNonEmptyLocationInCTAS
também está definido comotrue
, essa configuração não tem efeito, eCREATE TABLE AS SELECT
com um local não vazio é sempre permitido.
Mudanças significativas para usuários do Spark SQL que ativam o modo ANSI
Para obter informações sobre o modo ANSI, consulte ANSI compliance em Databricks Runtime.
-
Nova configuração
spark.databricks.behaviorChange.SC83587NextDayDOW.enabled
: quando definido comotrue
, um argumentodayOfWeek
inválido para a funçãonext_day
gera umIllegalArgumentException
no modo ANSI; caso contrário, ele retornanull
. A configuração default étrue
. -
Nova configuração
spark.databricks.behaviorChange.SC83796CanCast.enabled
: quando definida comotrue
, habilita novas regras explícitas de sintaxe de conversão no modo ANSI. A configuração default étrue
. -
Nova configuração
spark.databricks.behaviorChange.SC79099CastStringToBoolean.enabled
: quando definida comotrue
, é lançada uma exceção de erro de análise ao converter uma string em Boolean; caso contrário, retornanull
. A configuração default étrue
. -
Nova configuração
spark.databricks.behaviorChange.SC79064AbsOutsideRange.enabled
: quando definida comotrue
, a funçãoabs
lança uma exceção se a entrada estiver fora do alcance. A configuração default étrue
.
Mudanças significativas para todos os usuários do Python
- O Python API
delta.tables.DeltaTable.convertToDelta
agora retorna o objetoDeltaTable
Python correto que pode ser usado para executar o Delta Lake comando. Anteriormente, ele retornava um objeto interno que não podia ser chamado diretamente.
Atualizações da biblioteca
Atualização do Apache Hadoop 3
- O Databricks Runtime 10.0 atualiza a dependência do Hadoop do Hadoop 2.7.4 para o Hadoop 3.3.1.
Mudanças de comportamento
-
Hadoop 3 usa as bibliotecas hadoop-client-api e hadoop-client-runtime em vez da biblioteca hadoop-common, que protege determinadas dependências de terceiros que poderiam ser usadas em Hadoop public APIs ou extensões.
-
As opções de configuração do Hadoop 3 foram alteradas desde o Hadoop 2. Para conhecer as opções do Hadoop 3.3.1, consulte core-default.xml.
-
Databricks atualizou algumas das configurações do default para que o Hadoop 3 seja consistente com o Hadoop 2, para garantir que os conectores de armazenamento tenham as mesmas configurações de autenticação e níveis de desempenho do default:
fs.azure.authorization.caching.enable
=false
fs.s3a.attempts.maximum
=10
fs.s3a.block.size
=67108864
fs.s3a.connection.timeout
=50000
fs.s3a.max.total.tasks
=1000
fs.s3a.retry.limit
=20
fs.s3a.retry.throttle.interval
=500ms
fs.s3a.assumed.role.credentials.provider
=com.amazonaws.auth.InstanceProfileCredentialsProvider
fs.s3a.aws.credentials.provider
=BasicAWSCredentialsProvider, DatabricksInstanceProfileCredentialsProvider, EnvironmentVariableCredentialsProvider, AnonymousAWSCredentialsProvider
-
O conector do Google Cloud Storage (GCS) foi atualizado para a versão 2.1.6 para 2.2.2.
-
O conector do Amazon Redshift agora usa o esquema
s3a://
. O esquemas3n://
está obsoleto. -
Trata os nomes das classes OSS para a API do Amazon S3 MetadataStore, além das classes sombreadas. Isso permite processar as configurações do OSS sem exigir os nomes de classes sombreados.
- Por exemplo, o senhor pode especificar a classe
org.apache.hadoop.fs.s3a.s3guard.NullMetadataStore
na configuração do Hadoop.
- Por exemplo, o senhor pode especificar a classe
-
Torna o
new Configuration()
e osparkContext.hadoopConfiguration
consistentes.- Agora, toda vez que uma nova configuração do Hadoop for criada, ela será consistente com a configuração predefinida do Hadoop em
sparkContext.hadoopConfiguration
no Databricks Runtime, incluindo os esquemas do sistema de arquivos e sua configuração do default.
- Agora, toda vez que uma nova configuração do Hadoop for criada, ela será consistente com a configuração predefinida do Hadoop em
-
Embora os conectores de armazenamento do Hadoop incluídos no Databricks Runtime sejam totalmente compatíveis com o Hadoop 3.3.1, não é garantido que estejam em sincronia com os conectores OSS Hadoop 3.3.1 e podem ter um comportamento diferente.
- O conector do Amazon S3 ainda permite (embora com um aviso) que o usuário nos URLs do S3, em comparação com o HADOOP-14833, que o remove.
-
GlobStatus agora sempre retorna resultados ordenados (HADOOP-10798)
-
Adicionado fs.s3a.endpoint se não for definido e fs.s3a.endpoint region for nulo(SPARK-35878)
- A resolução automática da região do Amazon S3 fornecida pelo Databricks pode não ser acionada em alguns casos, devido à definição do endpoint global. Isso não é um problema, pois o AWS SDK resolverá a região corretamente.
-
Adicione fs.s3a.downgrade.syncable.exceptions se não estiver definido (SPARK-35868)
-
Os codecs LZ4 e Snappy não dependem da biblioteca nativa do Hadoop(HADOOP-17125)
Problemas conhecidos
- SPARK-36681 O uso do SnappyCodec para gravar um arquivo de sequência falhará com UnsatisfiedLinkError devido a um problema conhecido no Hadoop 3.3.1(HADOOP-17891)
Apache Spark
O Databricks Runtime 10.0 inclui o Apache Spark 3.2.0.
Nesta secção:
Destaques
- Suporte à camada API do Pandas no PySpark(SPARK-34849)
- Sessão baseada em EventTime (janela de sessão) (SPARK-10816)
- Suporte a tipos ANSI SQL INTERVAL(SPARK-27790)
- Modo ANSI GA (SPARK-35030)
- Padronizar mensagens de exceção no Spark(SPARK-33539)
Núcleo e Spark SQL
Aprimoramentos de compatibilidade com ANSI SQL
- Suporte a tipos ANSI SQL INTERVAL(SPARK-27790)
- Novas regras de sintaxe de coerção de tipo no modo ANSI (SPARK-34246)
Aprimoramentos de desempenho
-
Otimização de consultas
- Remova agregados redundantes no Optimizer (SPARK-33122)
- Limite de redução por meio de projeto com união(SPARK-34622)
- Estimativa de cardinalidade do operador de união, classificação e intervalo (SPARK-33411)
- Suporte de comparação binária UnwrapCastinBinary no predicado/Inset (SPARK-35316)
- Mantenha as estatísticas necessárias após a remoção da partição (SPARK-34119)
-
Execução da consulta
- Habilitar o buffer Zstandard pool por default(SPARK-34340, SPARK-34390)
- Adicionar code-gen para todos os tipos de join do tipo merge join(SPARK-34705)
- Loop aninhado de transmissão join improvement(SPARK-34706)
- Suporta dois níveis de mapas de hash para agregação final de hash (SPARK-35141)
- Permitir que os gravadores de concorrente gravem partições dinâmicas e tabelas de balde(SPARK-26164)
- Melhorar o desempenho do processamento de FETCH_PRIOR no Thriftserver(SPARK-33655)
Aprimoramentos do conector
-
PARQUET
- Atualização do Parquet para a versão 1.12.1(SPARK-36726)
- read.parquet Tipos sem sinal que são armazenados como tipo físico int32 em Parquet(SPARK-34817)
- read.parquet tipo lógico int64 sem sinal que é armazenado como tipo físico int64 com sinal para decimal(20, 0)(SPARK-34786)
- Aprimorar o Parquet no pushdown do filtro(SPARK-32792)
-
ORC
- Atualize o ORC para a versão 1.6.11(SPARK-36482)
- Suporte à evolução posicional forçada do ORC(SPARK-32864)
- Suporte a colunas aninhadas no leitor vetorizado ORC(SPARK-34862)
- Suporte à compactação ZSTD e LZ4 em ORC fonte de dados(SPARK-33978, SPARK-35612)
-
AVRO
- Atualize o Avro para a versão 1.10.2(SPARK-34778)
- Suporte à evolução do esquema Avro para tabelas particionadas do Hive com "avro.schema.literal"(SPARK-26836)
- Adicionar novas opções Avro fonte de dados para controlar o rebaseamento de data/hora na leitura(SPARK-34404)
- Adição de suporte para url de esquema fornecido pelo usuário no Avro(SPARK-34416)
- Adicionar suporte para correspondência de esquema de catalisador posicional com AVRO (SPARK-34365)
-
JSON
- Atualize Jackson para a versão 2.12.3 (SPARK-35550)
- Permitir que a JSON fonte de dados escreva caracteres não-ascii como pontos de código(SPARK-35047)
-
JDBC
-
Hive metastore filtro de suporte por não entrada(SPARK-34538)
aprimoramentos de recursos
-
Subconsulta
-
Novas funções integradas
- semelhante (SPARK-36674, SPARK-36736)
- usuário_atual (SPARK-21957)
- produto(SPARK-33678)
- regexp_like, regexp (SPARK-33597,SPARK-34376)
- tente_adicionar (SPARK-35162)
- try_divide (SPARK-35162)
- bit_get (SPARK-33245)
-
Use Apache Hadoop 3.3.1 por default (SPARK-29250)
-
Adicionar soma de verificação para blocos aleatórios (SPARK-35275)
-
Habilitar o spark.storage.replication.proactive em default(SPARK-33870)
-
Suporte à limpeza de armazenamento de fallback durante a interrupção do SparkContext(SPARK-34142)
-
Suporte a Java enums do conjunto de dados Scala API(SPARK-23862)
-
O ADD JAR com coordenadas ivy deve ser compatível com o comportamento transitivo do Hive(SPARK-34506)
-
Suporte ao comando ADD ARCHIVE e LIST ARCHIVES(SPARK-34603)
-
Suporte a vários caminhos para o comando ADD FILE/JAR/ARCHIVE(SPARK-35105)
-
Suporte a arquivos compactados como recurso para a sintaxe CREATE FUNCTION USING(SPARK-35236)
-
Carregando SparkSessionExtensions do ServiceLoader (SPARK-35380)
-
Adicione a função de frases a functions.{Scala,py}(SPARK-35418)
-
Aplique spark.sql.hive.metastorePartitionPruning para tabelas nãoHive que usam Hive metastore para gerenciamento de partições(SPARK-36128)
-
Propague o motivo da perda de execução para a interface do usuário da Web (SPARK-34764)
-
Suporte para analisar todas as tabelas em um banco de dados específico (SPARK-33687)
-
Padronizar mensagens de exceção no Spark(SPARK-33539)
-
Suporte (IGNORE | RESPECT) NULLS para LEAD/LAG/NTH_VALUE/FIRST_VALUE/LAST_VALUE (SPARK-30789)
Outras mudanças notáveis
-
Monitoramento
- Novas métricas para o ExternalShuffleService(SPARK-35258)
- Adicionar novos parâmetros e APIs REST em nível de estágio(SPARK-26399)
- Suporte a tarefas e executor métricas Distribuições métricas Distribuições no REST API(SPARK-34488)
- Adicionar métricas de fallback para agregados de hash(SPARK-35529)
-
Adicionar count_distinct como uma opção para dataset#summary(SPARK-34165)
-
Torne o tempo limite de pulsação do driver BlockManagerMaster configurável (SPARK-34278)
-
Tornar o nome do serviço shuffle configurável no lado do cliente e permitir a substituição da configuração baseada em classpath no lado do servidor(SPARK-34828)
-
Substitua if pela cláusula de filtro em RewriteDistinctAggregates (SPARK-34882)
-
Correção de falha ao aplicar CostBasedJoinReorder em autojoin(SPARK-34354).
-
O CREATE TABLE LIKE deve respeitar as propriedades reservadas da tabela(SPARK-34935)
-
Envie o arquivo ivySettings para o driver no modo de clustering YARN(SPARK-34472)
-
Resolver colunas comuns duplicadas da união USING/NATURAL(SPARK-34527)
-
Ocultar as propriedades internas do site view para descrever a tabela cmd(SPARK-35318)
-
Suporte à resolução de attrs ausentes para a dica de distribuição/agrupamento por/repartição(SPARK-35331)
-
Ignore o erro ao verificar o caminho em FileStreamSink.hasMetadata (SPARK-34526)
-
Melhore o suporte ao s3a magic committer inferindo as configurações ausentes (SPARK-35383)
-
Permitir omitir : nas cadeias de caracteres do tipo STRUCT(SPARK-35706)
-
Adicione um novo operador para distinguir se o AQE pode otimizar com segurança (SPARK-35786)
-
Introduzir uma nova API no FileCommitProtocol para permitir a nomeação flexível de arquivos(SPARK-33298)
Mudanças de comportamento
Consulte o guia de migração de cada componente: Spark Core.
transmissão estruturada
Recurso principal
- Sessão baseada em EventTime (janela de sessão) (SPARK-10816)
- Atualize o cliente Kafka para a versão 2.8.0(SPARK-33913)
- Trigger.AvailableNow para executar consultas de transmissão como Trigger.Once em vários lotes em Scala(SPARK-36533)
Outras mudanças notáveis
- Introduzir uma nova opção na fonte do Kafka para especificar um número mínimo de registros a serem lidos por acionador(SPARK-35312)
- Adicione as últimas compensações ao progresso da fonte (SPARK-33955)
PySpark
Projeto Zen
-
API do Pandas no Spark(SPARK-34849)
- Habilitar mypy para pandas-on-Spark(SPARK-34941)
- Implemente o suporte ao CategoricalDType(SPARK-35997, SPARK-36185)
- Concluir as operações básicas de séries e índices(SPARK-36103, SPARK-36104, SPARK-36192)
- Comportamentos correspondentes a 1,3 Pandas(SPARK-36367)
- Corresponder comportamentos em séries com NaN para Pandas'(SPARK-36031, SPARK-36310)
- Implemente o operador unário 'invertido' da série integral e do índice (SPARK-36003)
- Implemente CategoricalIndex.map e DateTimeIndex.map (SPARK-36470)
- Implemente Index.map (SPARK-36469)
-
O suporte do faulthanlder para Python worker travou(SPARK-36062).
-
Usar a regra de nomenclatura Snake nas APIs de função(SPARK-34306)
-
Habilite o spark.sql.execution.PySpark.udf.simplifiedTraceback.enabled by default(SPARK-35419)
-
Suporte para inferir o dict aninhado como um struct ao criar um DataFrame(SPARK-35929)
Outras mudanças notáveis
- Habilitar o modo de rosca de pinos pelo site default(SPARK-35303)
- Adicionar suporte a NullType para execuções de Arrow (SPARK-33489)
- Adicionar suporte Arrow self_destruct ao TopAndas (SPARK-32953)
- Adicionar wrapper de destino de thread API para PySpark pin modo de thread(SPARK-35498)
Mudanças de comportamento
Consulte o guia de migração.
MLlib
Melhorias no desempenho
- Otimização de transformação LSH BucketedRandomProjectionLSH (SPARK-34220)
- otimização w2v FindSynonyms (SPARK-34189)
- otimize o GEMM esparso ignorando a verificação de limites (SPARK-35707)
- Melhorar o desempenho do ML ALS recommendForAll pelo GEMV(SPARK-33518)
Melhorias no treinamento de modelos
- Agregador logístico Refactor - suporte à centralização virtual (SPARK-34797)
- Regressão logística binária com centralização do suporte de interceptação(SPARK-34858, SPARK-34448)
- Regressão logística multinomial com centralização do suporte de interceptação (SPARK-34860)
Melhorias no BLAS
- Substitua totalmente com.github.fommil.netlib por dev.ludovic.netlib:2.0 (SPARK-35295)
- Adicionar uma implementação de BLAS vetorizada (SPARK-33882)
- Acelere o BLAS de fallback com dev.ludovic.netlib(SPARK-35150)
Outras mudanças notáveis
- A transformação OVR corrige possíveis conflitos de coluna (SPARK-34356)
Depreciações e remoções
- Descontinuar spark.launcher.childConnectionTimeout (SPARK-33717)
- descontinuar GROUP BY... GROUPING SETS (...) e promover GROUP BY GROUPING SETS (...) (SPARK-34932)
- Preterir a API ps.broadcast(SPARK-35810)
- Descontinuar o argumento
num_files
(SPARK-35807) - Descontinuar Dataframe.to_SPARK_IO (SPARK-35811)
Atualizações de manutenção
Consulte Atualizações de manutenção do Databricks Runtime 10.0.
Ambiente do sistema
- Sistema operacional : Ubuntu 20.04.3 LTS
- Java : Zulu 8.56.0.21-CA-linux64
- Scala : 2.12.14
- Python : 3.8.10
- R : 4.1.1
- Delta Lake : 1.0.0
Instalado Python biblioteca
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
Antergos Linux | 2015.10 (versão ISO) | apronta | 1.4.4 | chamada de volta | 0.2.0 |
boto3 | 1,16.7 | botocore | 1.19,7 | certifi | 2020.12,5 |
chardet | 4.0.0 | ciclador | 0.10.0 | Cython | 0,29,23 |
dbus-Python | 1.2.16 | decorador | 5.0.6 | distlib | 0.3.3 |
informação da distribuição | 0,23 ubuntu 1 | visão geral das facetas | 1.0.0 | bloqueio de arquivo | 3.0.12 |
Índia | 2,10 | ipykernel | 5.3.4 | ipython | 7.22,0 |
ipython-genutils | 0.2.0 | jedi | 0,17.2 | jmespath | 0.10.0 |
joblib | 1.0.1 | cliente jupyter | 6.1.12 | núcleo jupyter | 4.7.1 |
solucionador de kiwi | 1.3.1 | coalas | 1.8.1 | Matplotlib | 3.4.2 |
entorpecido | 1.19.2 | Pandas | 1.2.4 | parso | 0.7.0 |
bode expiatório | 0.5.1 | esperar | 4.8.0 | picles | 0.7.5 |
Travesseiro | 8.2.0 | pip | 21.0.1 | Plotly | 5.1.0 |
kit de ferramentas de aviso | 3.0.17 | protobuf | 3.17.2 | psycopg2 | 2.8.5 |
processo pty | 0.7.0 | flecha | 4.0.0 | Pigmentos | 2.8.1 |
Objeto PYG | 3,36,0 | análise de pipa | 2.4.7 | Python-apt | 2.0.0+ubuntu0.20.4.6 |
Python-dateutil | 2.8.1 | pytz | 2020,5 | pizma | 20.0.0 |
pedidos | 2.25.1 | solicitações - soquete unix | 0.2.0 | transferência s3 | 0.3.7 |
scikit-learn | 0,24,1 | pegajoso | 1.6.2 | marítimo | 0.11.1 |
ferramentas de configuração | 52,0,0 | seis | 1,15.0 | ID de importação ssh | 5,10 |
modelos de estatísticas | 0.12.2 | tenacidade | 8.0.1 | threadpool ctl | 2.1.0 |
tornado | 6.1 | almôndegas | 5.0.5 | atualizações autônomas | 0,1 |
urllib3 | 1,25.11 | ambiente virtual | 20.4.1 | largura do wc | 0.2.5 |
Python wheel | 0,36,2 |
Instalada a R biblioteca
O R biblioteca é instalado a partir do Snapshot Microsoft CRAN em 2021-09-21.
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
askpass | 1.1 | afirme que | 0.2.1 | portas traseiras | 1.2.1 |
base | 4.1.1 | base64enc | 0,1-3 | pouco | 4.0.4 |
bit64 | 4.0.5 | bolha | 1.2.2 | inicialização | 1,3-28 |
fermentar | 1,0-6 | brio | 1.1.2 | vassoura | 0.7.9 |
babião | 0.3.0 | cachem | 1.0.6 | chamador | 3.7.0 |
cursor | 6,0-88 | guarda de celas | 1.1.0 | crono | 2,3-56 |
Aula | 7,3-19 | CLIPE | 3.0.1 | clipe | 0.7.1 |
Cluster | 2.1.2 | ferramentas de código | 0,2-18 | espaço de cores | 2,0-2 |
marca comum | 1.7 | compilador | 4.1.1 | configuração | 0.3.1 |
cpp11 | 0.3.1 | giz de cera | 1.4.1 | Credenciais | 1.3.1 |
cacho | 4.3.2 | data.tabela | 1,14.0 | conjunto de dados | 4.1.1 |
DBI | 1.1.1 | dbplyr | 2.1.1 | desc | 1.3.0 |
ferramentas de desenvolvimento | 2.4.2 | diff | 0.3.4 | digerir | 0,6.27 |
dplyr | 1.0.7 | dtplyr | 1.1.0 | reticências | 0.3.2 |
avalie | 0,14 | fansi | 0.5.0 | colorista | 2.1.0 |
mapa rápido | 1.1.0 | para gatos | 0.5.1 | para cada um | 1.5.1 |
estrangeira | 0,8-81 | forjar | 0.2.0 | fs | 1.5.0 |
futuro | 1.22.1 | futuro.aplique | 1.8.1 | gargarejar | 1.2.0 |
genéricas | 0.1.0 | obter | 1.4.1 | ggplot2 | 3.3.5 |
gh | 1.3.0 | gitcreds | 0.1.1 | glmnet | 4,1-2 |
globais | 0.14.0 | cola | 1.4.2 | google drive | 2.0.0 |
planilhas do Google 4 | 1.0.0 | goleiro | 0.2.2 | gráficos | 4.1.1 |
Dispositivos GR | 4.1.1 | grade | 4.1.1 | Grid Extra | 2.3 |
gsubfn | 0,7 | mesa | 0.3.0 | refúgio | 2.4.3 |
mais alto | 0,9 | HMS | 1.1.0 | ferramentas html | 0.5.2 |
widgets html | 1.5.4 | http.uv | 1.6.3 | httr | 1.4.2 |
escritor | 1.3.2 | HWriter Plus | 1,0-3 | IDs | 1.0.1 |
mini | 0.3.1 | ipred | 0,9-12 | isóbanda | 0.2.5 |
iteradores | 1,0.13 | jquerylib | 0.1.4 | jsonlite | 1.7.2 |
Kern Smooth | 2,23-20 | tricotar | 1,34 | rótulo | 0.4.2 |
posteriormente | 1.3.0 | treliça | 0,20-44 | lava | 1.6.10 |
ciclo de vida | 1.0.0 | ouvindo | 0,8.0 | lubrificar | 1.7.10 |
magritter | 2.0.1 | Markdown | 1.1 | MASSA | 7,3-54 |
Matriz | 1,3-4 | memoise | 2.0.0 | métodos | 4.1.1 |
mgcv | 1,8-37 | mímica | 0,11 | Métricas do modelo | 1.2.2.2 |
modelar | 0.1.8 | munsell | 0.5.0 | nome | 3,1-152 |
net | 7,3-16 | Número Deriv | 2016,8-1,1 | openssl | 1.4.5 |
paralelo | 4.1.1 | paralelamente | 1.28,1 | pilar | 1.6.2 |
pkgbuild | 1.2.0 | pkgconfig | 2.0.3 | carregamento de pacotes | 1.2.2 |
plogr | 0.2.0 | plyr | 1.8.6 | elogio | 1.0.0 |
unidades bonitas | 1.1.1 | ProC | 1,18.0 | processa | 3.5.2 |
prodlim | 13/11/2019 | progresso | 1.2.2 | progressista | 0,8.0 |
promessas | 1.2.0.1 | proto | 1.0.0 | ps | 1.6.0 |
ronronar | 0.3.4 | r2d3 | 0.2.5 | R6 | 2.5.1 |
Floresta aleatória | 4,6-14 | corredeiras | 0.3.3 | rcmdcheck | 1.3.3 |
Cervejaria RColor | 1,1-2 | Rcpp | 1.0.7 | leitor | 2.0.1 |
readxl | 1.3.1 | receitas | 0,1,16 | revanche | 1.0.1 |
revanche 2 | 2.1.2 | controles remotos | 2.4.0 | reprex | 2.0.1 |
remodelar 2 | 1.4.4 | rlang | 0.4.11 | rmarkdown | 2,11 |
RODBC | 1,3-19 | roxigênio2 | 7.1.2 | rpartem | 4,1-15 |
rprojroot | 2.0.2 | Reservar | 1,8-8 | RSQLite | 2.2.8 |
API do estúdio | 0,13 | reversões | 2.1.1 | colete | 1.0.1 |
atrevimento | 0.4.0 | escala | 1.1.1 | seletor | 0,4-2 |
informações da sessão | 1.1.1 | forma | 1.4.6 | brilhante | 1.6.0 |
ferramentas de origem | 0.1.7 | Sparklyr | 1.7.2 | SparkR | 3.2.0 |
espacial | 7,3-11 | splines | 4.1.1 | sqldf | 0,4-11 |
QUADRADO | 2021,1 | estatísticas | 4.1.1 | estatísticas4 | 4.1.1 |
stringi | 1.7.4 | longarina | 1.4.0 | sobrevivência | 3,2-13 |
diz | 3.4 | tcltk | 4.1.1 | Demonstrações de ensino | 2,10 |
teste isso | 3.0.4 | petiscar | 3.1.4 | arrumado | 1.1.3 |
seleção arrumada | 1.1.1 | tidyverso | 1.3.1 | Hora/Data | 3043,102 |
tinytex | 0,33 | Ferramentas | 4.1.1 | tzdb | 0.1.2 |
use isso | 2.0.1 | utf 8 | 1.2.2 | utilidades | 4.1.1 |
uuid | 0,1-4 | vctrs | 0.3.8 | Viridis Lite | 0.4.0 |
vadouro | 1.5.5 | waldo | 0.3.1 | bigode | 0,4 |
murchar | 2.4.2 | diversão | 0,26 | xml2 | 1.3.2 |
xopen | 1.0.0 | x estável | 1,8-4 | yaml | 2.2.1 |
compactar | 2.2.0 |
Instalei Java e Scala biblioteca (versão de clusteringScala 2.12)
ID do grupo | ID do artefato | Versão |
---|---|---|
chifre | chifre | 2.7.7 |
com.amazonaws | Amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscale | 1,11.655 |
com.amazonaws | formação de nuvem aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-cloudfront | 1,11.655 |
com.amazonaws | aws-java-sdk-cloudhsm | 1,11.655 |
com.amazonaws | aws-java-sdk-cloudsearch | 1,11.655 |
com.amazonaws | aws-java-sdk-cloudtrail | 1,11.655 |
com.amazonaws | aws-java-sdk-cloudwatch | 1,11.655 |
com.amazonaws | métricas aws-java-sdk-cloudwatch | 1,11.655 |
com.amazonaws | aws-java-sdk-codedeploy | 1,11.655 |
com.amazonaws | identidade cognitiva aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-cognitosync | 1,11.655 |
com.amazonaws | aws-java-sdk-config | 1,11.655 |
com.amazonaws | aws-java-sdk-core | 1,11.655 |
com.amazonaws | pipeline de dados aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-conexão direta | 1,11.655 |
com.amazonaws | diretório aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-dynamodb | 1,11.655 |
com.amazonaws | aws-java-sdk-ec2 | 1,11.655 |
com.amazonaws | aws-java-sdk-ecs | 1,11.655 |
com.amazonaws | aws-java-sdk-efs | 1,11.655 |
com.amazonaws | aws-java-sdk-elasticache | 1,11.655 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1,11.655 |
com.amazonaws | balanceamento de carga elástico aws-java-sdk | 1,11.655 |
com.amazonaws | transcodificador elástico aws-java-sdk- | 1,11.655 |
com.amazonaws | aws-java-sdk-emr | 1,11.655 |
com.amazonaws | aws-java-sdk-glacier | 1,11.655 |
com.amazonaws | aws-java-sdk-glue | 1,11.655 |
com.amazonaws | aws-java-sdk-iam | 1,11.655 |
com.amazonaws | aws-java-sdk-importação/exportação | 1,11.655 |
com.amazonaws | aws-java-sdk-kinesis | 1,11.655 |
com.amazonaws | aws-java-sdk-kms | 1,11.655 |
com.amazonaws | aws-java-sdk-lambda | 1,11.655 |
com.amazonaws | aws-java-sdk-logs | 1,11.655 |
com.amazonaws | aws-java-sdk - aprendizado de máquina | 1,11.655 |
com.amazonaws | aws-java-sdk-opsworks | 1,11.655 |
com.amazonaws | aws-java-sdk-rds | 1,11.655 |
com.amazonaws | aws-java-sdk-redshift | 1,11.655 |
com.amazonaws | aws-java-sdk-route53 | 1,11.655 |
com.amazonaws | aws-java-sdk-s3 | 1,11.655 |
com.amazonaws | aws-java-sdk-ses | 1,11.655 |
com.amazonaws | aws-java-sdk-simpledb | 1,11.655 |
com.amazonaws | aws-java-sdk - fluxo de trabalho simples | 1,11.655 |
com.amazonaws | aws-java-sdk-sns | 1,11.655 |
com.amazonaws | aws-java-sdk-sqs | 1,11.655 |
com.amazonaws | aws-java-sdk-ssm | 1,11.655 |
com.amazonaws | gateway de armazenamento aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-sts | 1,11.655 |
com.amazonaws | suporte aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-swf-biblioteca | 1.11.22 |
com.amazonaws | aws-java-sdk-workspace | 1,11.655 |
com.amazonaws | jmespath-java | 1,11.655 |
com.chuusai | sem forma_2.12 | 2.3.3 |
com.clearspring.analítica | transmissão | 2.9.6 |
com.databricks | Reservar | 1,8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | plugin_2.12 do compilador | 0,4,15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0,4,15-10 |
com.esotérico software | crio-sombreado | 4.0.2 |
com.esotérico software | minlog | 1.3.0 |
com.fasterxml | colega de classe | 1.3.4 |
com.fasterxml.jackson.core | jackson-anotação | 2.12.2 |
com.fasterxml.jackson.core | jackson-core | 2.12.2 |
com.fasterxml.jackson.core | vinculação de dados jackson | 2.12.2 |
formato de dados com.fasterxml.jackson. | formato de dados jackson-cbor | 2.12.2 |
com.fasterxml.jackson.tipo de dados | jackson-datatype-joda | 2.12.2 |
com.fasterxml.jackson.module | parâmetro do módulo jackson | 2.12.2 |
com.fasterxml.jackson.module | jackson-module-Scala.12 | 2.12.2 |
com.github.ben-manes.cafeína | cafeína | 2.3.4 |
com.github.fommil | descarregador | 1.1 |
com.github.fommil.netlib | abdômen | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-nativos | 1.1 |
com.github.fommil.netlib | sistema_nativo-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1,5,0-4 |
com.github.wendykierp | JTransforma | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | eu acho | 1.6.0 |
com.google.flatbuffers | tampões planos-java | 1.9.0 |
com.google.goiaba | goiaba | 15,0 |
com.google.protobuf | protobuf-java | 2.6.1 |
banco de dados com.h2 | h2 | 1,4,195 |
com.helger | perfilador | 1.1.1 |
com.jcraft | jsch | 0,1,50 |
com.jolbox | bonecp | VERSÃO 0.8.0. |
com.lihaoyi | código-fonte_2.12 | 0.1.9 |
com.microsoft.sqlserver | mssql-JDBC | 9.2.1. jre8 |
com.microsoft.azure | azure-data lake-store-sdk | 2.3.9 |
comendo | comprimir-lzf | 1.0.3 |
com.sun.istack | istack-commons-runtime | 3.0.8 |
com.sun.mail | javax.mail | 1.5.2 |
com.trunning | JSON | 1,8 |
com.thoughtworks.paranamer | paranâmero | 2.8 |
com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
com.Twitter | chill-java | 0.10.0 |
com.Twitter | chill_2.12 | 0.10.0 |
com.Twitter | util-app_2.12 | 7.1.0 |
com.Twitter | util-core_2.12 | 7.1.0 |
com.Twitter | função-útil_2.12 | 7.1.0 |
com.Twitter | util-jvm_2.12 | 7.1.0 |
com.Twitter | util-lint_2.12 | 7.1.0 |
com.Twitter | util-registry_2.12 | 7.1.0 |
com.Twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | configuração | 1.2.1 |
com.typesafe.Scala-logging | Scala-logging_2.12 | 3.7.2 |
com.univocidade | analisadores de univocidade | 2.9.1 |
com.zaxxer | HikaricP | 3.1.0 |
comum-CLI | comum-CLI | 1.2 |
codec comum | codec comum | 1,15 |
coleções comuns | coleções comuns | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
upload de arquivo commons | upload de arquivo commons | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.8.0 |
linguagem comum | linguagem comum | 2.6 |
registro de bens comuns | registro de bens comuns | 1.1.3 |
commons-net | commons-net | 3.1 |
comum-pool | comum-pool | 1.5.4 |
dev.ludovic.netlib | mochila | 1.3.2 |
dev.ludovic.netlib | blás | 1.3.2 |
dev.ludovic.netlib | lapack | 1.3.2 |
hive-2.3__hadoop-3.2 | jets3t-0.7 | liball_deps_2,12 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io. airlift | compressor de ar | 0,19 |
io.delta | delta-compartilhamento-spark_2.12 | 0.1.0 |
io.dropwizard.métricas | núcleo de métricas | 4.1.1 |
io.dropwizard.métricas | métricas-grafite | 4.1.1 |
io.dropwizard.métricas | métricas-healthchecks | 4.1.1 |
io.dropwizard.métricas | métricas-jetty9 | 4.1.1 |
io.dropwizard.métricas | métricas-jmx | 4.1.1 |
io.dropwizard.métricas | métricas-JSON | 4.1.1 |
io.dropwizard.métricas | métricas-JVM | 4.1.1 |
io.dropwizard.métricas | métricas-servlets | 4.1.1 |
io.netty | tudo | 4.1.63. Final |
io. prometheus | cliente simples | 0.7.0 |
io. prometheus | simpleclient_common | 0.7.0 |
io. prometheus | simpleclient_dropwizard | 0.7.0 |
io. prometheus | gateway client_push simples | 0.7.0 |
io. prometheus | client_servlet simples | 0.7.0 |
io.prometheus.jmx | coletor | 0.12.0 |
jakarta.anotação | jakarta.anotação-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validação | jakarta.validação-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.ativação | ativação | 1.1.1 |
javax.anotação | javax.anotação-api | 1.3.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | API de transação | 1.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.transmissão | stax-api | 1,0-2 |
javolução | javolução | 5.5.1 |
junte-se | junte-se | 2.14.6 |
hora do dia | hora do dia | 2.10.5 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
Maven-árvores | hive-2.3__hadoop-3.2 | liball_deps_2,12 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pirolita | 4,30 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | supercsv | 2.2.0 |
net.snowflake | SDK de ingestão de flocos de neve | 0.9.6 |
net.snowflake | floco de neve-JDBC | 3.13.3 |
net.snowflake | floco de neve faísca_2.12 | 2.9.0-spark_3.1 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | chá remoto - oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4,8 |
org.antlr | modelo de string | 3.2.1 |
org.apache.ant | formiga | 1.9.2 |
org.apache.ant | formiga | 1.9.2 |
org.apache.ant | lançador de formigas | 1.9.2 |
org.apache.arrow | formato de seta | 2.0.0 |
org.apache.arrow | núcleo de memória de seta | 2.0.0 |
org.apache.arrow | rede de memória de seta | 2.0.0 |
org.apache.arrow | vetor de seta | 2.0.0 |
org.apache.avro | AVRO | 1.10.2 |
org.apache.avro | avro-ipc | 1.10.2 |
org.apache.avro | mapeado automaticamente | 1.10.2 |
org.apache.commons | compressa comum | 1,20 |
org.apache.commons | criptomoeda comum | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.commons | texto comum | 1,6 |
org.apache.curator | curador-cliente | 2.13.0 |
org.apache.curator | estrutura de curador | 2.13.0 |
org.apache.curator | receitas de curadores | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | tempo de execução do cliente hadoop | 3.3.1 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | colmeia-CLI | 2.3.9 |
org.apache.hive | hive-JDBC | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-lap-common | 2.3.9 |
org.apache.hive | colmeia | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | API de armazenamento em nuvem | 2.7.2 |
org.apache.hive.shims | calços de colmeia - 0,23 | 2.3.9 |
org.apache.hive.shims | calços de colmeia comuns | 2.3.9 |
org.apache.hive.shims | hive-shims-programador | 2.3.9 |
org.apache.htrace | htrace-core4 | 4.1.0 - incubação |
org.apache.httpcomponents | cliente http | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.12 |
org.apache.ivy | hera | 2.5.0 |
org.apache.mesos | protobuf sombreado em mesos | 1.4.0 |
org.apache.orc | núcleo orc | 1.6.10 |
org.apache.orc | orc-mapreduce | 1.6.10 |
org.apache.orc | calços de orc | 1.6.10 |
org.apache.parquet | coluna de parquete | 1.12.0-databricks-0003 |
org.apache.parquet | parquete comum | 1.12.0-databricks-0003 |
org.apache.parquet | codificação de parquet | 1.12.0-databricks-0003 |
org.apache.parquet | estruturas em formato de parquet | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-jackson | 1.12.0-databricks-0003 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4,20 |
org.apache.yetus | audiência-anotação | 0.5.0 |
org.apache.zookeeper | tratador | 3.6.2 |
org.apache.zookeeper | tratador de zoológico - juta | 3.6.2 |
org.checkerframework | xadrez igual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | compilador common | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | núcleo de dados-api-jdo | 4.2.4 |
org.datanucleus | núcleo de dados | 4.1.17 |
org.datanucleus | núcleo de dados-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3,2,0-m3 |
org.Eclipse.jetty | jetty-client | 9.4.40.v20210413 |
org.Eclipse.jetty | continuação do cais | 9.4.40.v20210413 |
org.Eclipse.jetty | jetty-http | 9.4.40.v20210413 |
org.Eclipse.jetty | jetty-io | 9.4.40.v20210413 |
org.Eclipse.jetty | jetty-jndi | 9.4.40.v20210413 |
org.Eclipse.jetty | jetty-plus | 9.4.40.v20210413 |
org.Eclipse.jetty | jetty-proxy | 9.4.40.v20210413 |
org.Eclipse.jetty | segurança do cais | 9.4.40.v20210413 |
org.Eclipse.jetty | servidor jetty-server | 9.4.40.v20210413 |
org.Eclipse.jetty | jutty-servlet | 9.4.40.v20210413 |
org.Eclipse.jetty | píer de servlets | 9.4.40.v20210413 |
org.Eclipse.jetty | jetty-util | 9.4.40.v20210413 |
org.Eclipse.jetty | jetty-util-ajax | 9.4.40.v20210413 |
org.Eclipse.jetty | aplicativo web jetty- | 9.4.40.v20210413 |
org.Eclipse.jetty | jetty-xml | 9.4.40.v20210413 |
org.Eclipse.jetty.websocket | API de websoquete | 9.4.40.v20210413 |
org.Eclipse.jetty.websocket | cliente websocket | 9.4.40.v20210413 |
org.Eclipse.jetty.websocket | websocket-comum | 9.4.40.v20210413 |
org.Eclipse.jetty.websocket | servidor websocket | 9.4.40.v20210413 |
org.Eclipse.jetty.websocket | servlet websocket | 9.4.40.v20210413 |
org.fusesource.leveldbjni | leveldbjni-tudo | 1,8 |
org.glassfish.hk2 | API hk2 | 2.6.1 |
org.glassfish.hk2 | localizador hk2 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-recurso-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance - reembalado | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jaxb | jaxb-runtime | 2.3.2 |
org.glassfish.jersey.containers | servlet de contêiner de camisa | 2,34 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2,34 |
org.glassfish.jersey.core | cliente de camisa | 2,34 |
org.glassfish.jersey.core | camiseta comum | 2,34 |
org.glassfish.jersey.core | servidor de camisa | 2,34 |
org.glassfish.jersey.inject | camiseta-hk2 | 2,34 |
org.hibernate.validator | validador de hibernação | 6.1.0. Final |
org.javassist | javassist | 3,25,0 GA |
org.jboss.logging | registro de jboss-logging | 3.3.2. Final |
org.jdbi | jdbi | 2.63,1 |
org.jetbrains | anotação | 17.0.0 |
org.joda | conversor de joda | 1.7 |
org.jodd | núcleo nodular | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3,7,0-M11 |
org.json4s | json4s-core_2.12 | 3,7,0-M11 |
org.json4s | json4s-jackson_2.12 | 3,7,0-M11 |
org.json4s | json4s-scalap_2.12 | 3,7,0-M11 |
org.lz4 | lz4-java | 1.7.1 |
org.mariadb.JDBC | cliente mariadb-java | 2.2.5 |
org.objenesis | objênese | 2.5.1 |
org.postgresql | PostgreSQL | 42,2,19 |
org.roaringbitmap | Mapa de bits estrondoso | 0,9.14 |
org.roaringbitmap | calços | 0,9.14 |
org.rocksdb | rocksdbjni | 6.20.3 |
org.rosuda.rEngine | Motor | 2.1.0 |
org.Scala-lang | Scala-compiler_2.12 | 2.12.14 |
org.Scala-lang | Scala-biblioteca.12 | 2.12.14 |
org.Scala-lang | Scala-reflect_2.12 | 2.12.14 |
org.Scala-lang.modules | Scala-collection-compat_2.12 | 2.4.3 |
org.Scala-lang.modules | Scala-parser-combinators_2.12 | 1.1.2 |
org.Scala-lang.modules | Scala-xml_2.12 | 1.2.0 |
org.Scala-sbt | interface de teste | 1,0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1,0 |
org.scalanlp | breeze_2.12 | 1,0 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1,7.30 |
org.slf4j | jul-a-slf4j | 1,7.30 |
org.slf4j | slf4j-api | 1,7.30 |
org.slf4j | slf4j-log4j12 | 1,7.30 |
org.spark-project.spark | não utilizado | 1.0.0 |
org.springframework | núcleo de mola | 4.1.4. LANÇAMENTO |
org.springframework | teste de primavera | 4.1.4. LANÇAMENTO |
org.threeten | treze e mais | 1.5.0 |
org.tukaani | xz | 1,8 |
org.typelevel | álgebra_2.12 | 2,0,0-M2 |
org.typelevel | cats-kernel_2.12 | 2,0,0-M4 |
org.typelevel | maquinista_2.12 | 0.6.8 |
org.typelevel | macro-compat_2,12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0,17.0-M1 |
org.typelevel | spire-platform_2.12 | 0,17.0-M1 |
org.typelevel | spire-util_2.12 | 0,17.0-M1 |
org.typelevel | spire_2.12 | 0,17.0-M1 |
org.wildfly.openssl | wildfly-openssl | 1.0.7. Final |
org.xerial | sqlite-JDBC | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1,24 |
oro | oro | 2.0.8 |
pt.edu.icm | Matrizes JLarge | 1.5 |
software.Amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |