Databricks Runtime 10.4 (EoS) LTS
O suporte para essa versão do Databricks Runtime foi encerrado. Para saber a data do fim do suporte, consulte Histórico do fim do suporte. Para conhecer todas as versões compatíveis do site Databricks Runtime, consulte Databricks Runtime notas sobre as versões e a compatibilidade.
As notas a seguir sobre a versão fornecem informações sobre Databricks Runtime 10.4 e Databricks Runtime 10.4 Photon, alimentado por Apache Spark 3.2.1. O Photon está em visualização pública. A Databricks lançou essa versão em março de 2022.
Estas notas sobre a versão podem incluir referências a recursos que não estão disponíveis no Google Cloud a partir desta versão.
Para ver as notas sobre a versão das versões do site Databricks Runtime que chegaram ao fim do suporte (EoS), consulte Fim do suporte Databricks Runtime notas sobre a versão. As versões do EoS Databricks Runtime foram retiradas e podem não ser atualizadas.
Novos recursos e melhorias
- Conversor de tabela Apache Iceberg para Delta (visualização pública)
- As reversões de compactação automática agora são ativadas por default
- A mesclagem Low Shuffle agora é ativada por default
- As tags de ordem de inserção agora são preservadas para
UPDATE
s eDELETE
s - O HikariCP agora é a conexão default Hive metastore pool
- O conector do Azure Synapse agora permite a definição do número máximo de linhas de rejeição permitidas
- O ponto de verificação de estado assíncrono agora está disponível ao público em geral
- O parâmetro padrão agora pode ser especificado para as funções definidas pelo usuário do site SQL
- Novas funções Spark SQL
- Novo diretório de trabalho para cluster de alta simultaneidade
- O suporte a colunas de identidade em tabelas Delta agora está disponível de forma geral
Conversor de tabela Apache Iceberg para Delta (visualização pública)
O Convert to Delta agora suporta a conversão de uma tabela Apache Iceberg em uma tabela Delta no local. Ele faz isso usando metadados nativos do Iceberg e manifestos de arquivos. Ver Convert to Delta Lake.
As reversões de compactação automática agora são ativadas por default
Esta versão melhora o comportamento das gravações em Delta Lake que commit quando há transações concomitantes de compactação automática. Antes desta versão, essas gravações eram frequentemente interrompidas devido a modificações concomitantes em uma tabela. Agora, as gravações serão bem-sucedidas mesmo se houver transações de compactação automática concorrente.
A mesclagem Low Shuffle agora é ativada por default
O comando MERGE INTO
agora sempre usa a nova implementação de baixo shuffle. Esse comportamento melhora significativamente o desempenho do comando MERGE INTO
na maioria das cargas de trabalho. A definição de configuração que era usada anteriormente para ativar esse recurso foi removida. Veja Low shuffle merge em Databricks.
As tags de ordem de inserção agora são preservadas para UPDATE
s e DELETE
s
Os comandos UPDATE
e DELETE
agora preservam as informações existentes em clustering (incluindo Z-ordering) para arquivos que são atualizados ou excluídos. Esse comportamento é a melhor abordagem, e essa abordagem não se aplica aos casos em que os arquivos são tão pequenos que esses arquivos são combinados durante a atualização ou a exclusão.
O HikariCP agora é a conexão default Hive metastore pool
O HikariCP traz muitas melhorias de estabilidade para o acesso Hive metastore, mantendo menos conexões em comparação com a implementação anterior da conexão BoneCP pool. O HikariCP é ativado por default em qualquer clustering Databricks Runtime que use o Databricks Hive metastore (por exemplo, quando spark.sql.hive.metastore.jars
não está definido). O senhor também pode mudar explicitamente para outras implementações de pool de conexões, por exemplo, BoneCP, definindo spark.databricks.hive.metastore.client.pool.type
.
O conector do Azure Synapse agora permite a definição do número máximo de linhas de rejeição permitidas
O conector do Azure Synapse agora suporta uma opção maxErrors DataFrame. Essa atualização permite que o senhor configure o número máximo de linhas rejeitadas que são permitidas durante as leituras e gravações antes que as operações de carregamento sejam canceladas. Todas as linhas rejeitadas são ignoradas. Por exemplo, se dois em cada dez registros tiverem erros, somente oito registros serão processados.
Essa opção mapeia diretamente a opção REJECT_VALUE
para a instrução CREATE EXTERNAL TABLE
no PolyBase e a opção MAXERRORS
para o comando COPY
do conector do Azure Synapse.
Por default, o valor de maxErrors
é definido como 0
: espera-se que todos os registros sejam válidos.
O ponto de verificação de estado assíncrono agora está disponível ao público em geral
O senhor pode ativar o checkpointing de estado assíncrono em consultas de transmissão com estado com grandes atualizações de estado. Isso pode reduzir a latência de micro-lotes de ponta a ponta. Esse recurso já está disponível para todos. Consulte Ponto de verificação de estado assíncrono para consultas com estado.
O parâmetro padrão agora pode ser especificado para as funções definidas pelo usuário do site SQL
Quando o senhor cria uma função definida pelo usuário SQL (SQL UDF), agora é possível especificar expressões default para os parâmetros SQL UDF' s. O senhor pode então chamar o SQL UDF sem fornecer argumentos para esses parâmetros, e o Databricks preencherá os valores do default para esses parâmetros. Consulte CREATE FUNCTION (SQL e Python).
Novas funções Spark SQL
As seguintes funções do Spark SQL agora estão disponíveis nesta versão:
- try_multiply: retorna
multiplier
multiplicado pormultiplicand
ouNULL
em caso de estouro. - try_subtract: retorna a subtração de
expr2
deexpr1
ouNULL
em caso de estouro.
Novo diretório de trabalho para cluster de alta simultaneidade
No cluster de alta simultaneidade com o controle de acesso da tabela ou a passagem de credenciais ativada, o diretório de trabalho atual do Notebook agora é o diretório inicial do usuário. Anteriormente, o diretório de trabalho era /databricks/driver
.
O suporte a colunas de identidade em tabelas Delta agora está disponível de forma geral
O Delta Lake agora suporta colunas de identidade. Quando o senhor escreve em uma tabela Delta que define uma coluna de identidade e não fornece valores para essa coluna, o Delta agora atribui automaticamente um valor exclusivo e estatisticamente crescente ou decrescente. Consulte CREATE TABLE [USING].
Atualizações da biblioteca
-
Atualizado Python biblioteca:
- filelock de 3.4.2 a 3.6.0
-
Biblioteca R atualizada:
- fermentar de 1,0-6 a 1,0-7
- vassoura de 0.7.11 a 0.7.12
- CLI a partir da versão 3.1.0 para 3.2.0
- clipr de 0.7.1 a 0.8.0
- espaço de cores de 2,0-2 a 2,0-3
- giz de cera de 1.4.2 a 1.5.0
- dplyr de 1.0.7 a 1.0.8
- dtplyr de 1.2.0 a 1.2.1
- avaliar de 0,14 a 0,15
- foreach de 1.5.1 a 1.5.2
- futuro de 1.23.0 a 1.24.0
- genéricos de 0.1.1 a 0.1.2
- cola de 1.6.0 a 1.6.1
- aumentou de 0.2.2 para 1.0.0
- iteradores de 1.0.13 a 1.0.14
- jsonlite de 1.7.3 a 1.8.0
- magrittr de 2.0.1 a 2.0.2
- mgcv de 1,8-38 a 1,8-39
- pilar de 1.6.4 a 1.7.0
- RandomForest de 4,6-14 a 4,7-1
- leitor de 2.1.1 a 2.1.2
- receitas de 0.1.17 para 0.2.0
- rlang de 0.4.12 a 1.0.1
- rpart de 4.1-15 a 4.1.16
- RSQLite de 2.2.9 a 2.2.10
- Sparklyr da versão 1.7.4 para a 1.7.5
- testthat de 3.1.1 a 3.1.2
- tidyr a partir da 1.1.4 para 1.2.0
- tidyselect de 1.1.1 a 1.1.2
- tinytex de 0,36 a 0,37
- yaml de 2.2.1 a 2.3.5
-
Atualizado Java biblioteca:
- io.delta.delta-compartilhamento-spark_2.12 de 0.3.0 para 0.4.0
Apache Spark
O Databricks Runtime 10.4 LTS inclui o Apache Spark 3.2.1. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 10.3 (EoS), bem como as seguintes correções de bugs e melhorias adicionais feitas no Spark:
- [SPARK-38322] [SQL] passo query de suporte mostra estatísticas Runtime no modo de explicação formatado
- [SPARK-38162] [SQL] Otimizar o plano de uma linha no normal e no AQE Optimizer
- [SPARK-38229] [SQL] Não deve verificar temp/external/ifNotExists com visitReplaceTable quando o analisador
- [SPARK-34183] [SS] DataSource V2: Distribuição e ordenação necessárias na execução de micro-lotes
- [SPARK-37932] [SQL]Esperar para resolver atributos ausentes antes de aplicar DeduplicateRelations
- [SPARK-37904] [SQL] Aprimorar o RebalancePartitions nas regras do Otimizador
- [SPARK-38236] [SQL][3.2][3.1] Verifique se a localização da tabela é absoluta por “new Path (LocationUri) .isAbsolute” em criar/alterar tabela
- [SPARK-38035] [SQL] Adicionar testes Docker para o dialeto integrado JDBC
- [SPARK-38042] [SQL] Assegurar que o ScalaReflection.dataTypeFor funcione em tipos de matriz com alias
- [SPARK-38273] [SQL] Os iteradores do
decodeUnsafeRows
devem fechar a transmissão de entrada subjacente - [SPARK-38311] [SQL] Corrigir DynamicPartitionPruning/BucketedReadSuite/ExpressionInfoSuite no modo ANSI
- [SPARK-38305] [CORE] Verifique explicitamente se a fonte existe em unpack () antes de chamar os métodos FileUtil
- [SPARK-38275] [SS] Incluir o uso de memória do writeBatch como o uso total de memória do RocksDB armazenamento do estado
- [SPARK-38132] [SQL] Remover regra
NotPropagation
- [SPARK-38286] [SQL] O maxRows e o maxRowsPerPartition da Union podem transbordar
- [SPARK-38306] [SQL] Corrigir ExplainSuite, StatisticsCollectionSuite e StringFunctionsSuite no modo ANSI
- [SPARK-38281] [SQL][tests] Corrigir o AnalysisSuite no modo ANSI
- [SPARK-38307] [SQL][tests] Corrigir ExpressionTypeCheckingSuite e CollectionExpressionsSuite no modo ANSI
- [SPARK-38300] [SQL] Use
ByteStreams.toByteArray
para simplificarfileToString
eresourceToBytes
em catalyst.util - [SPARK-38304] [SQL] Elt() deve retornar nulo se o índice for nulo no modo ANSI
- [SPARK-38271] PoissonSampler pode gerar mais linhas do que maxRows
- [SPARK-38297] [Python] Converta explicitamente o valor de retorno em DataFrame.to_numpy no POS
- [SPARK-38295] [SQL][tests] Corrigir o ArithmeticExpressionSuite no modo ANSI
- [SPARK-38290] [SQL] Corrigir o JsonSuite e o ParquetIOSuite no modo ANSI
- [SPARK-38299] [SQL] Limpar o uso obsoleto de
StringBuilder.newBuilder
- [SPARK-38060] [SQL] Respeitar allowNonNumericNumbers ao analisar valores citados de NaN e infinito no leitor JSON
- [SPARK-38276] [SQL] Adicionar planos TPCDS aprovados no modo ANSI
- [SPARK-38206] [SS] Ignorar a nulidade ao comparar o tipo de dados da chave join na transmissão-transmissão join
- [SPARK-37290] [SQL] - Tempo de planejamento exponencial no caso de função não determinística
- [SPARK-38232] [SQL] Explicar formatado não coleta subconsultas no estágio de consulta no AQE
- [SPARK-38283] [SQL] Teste a análise de data e hora inválida no modo ANSI
- [SPARK-38140] [SQL] As estatísticas da coluna Desc (min, max) para o tipo timestamp não são consistentes com os valores devido à diferença de fuso horário
- [SPARK-38227] [SQL][ss] Aplicar a nulidade estrita da coluna aninhada na janela de tempo / janela de sessão
- [SPARK-38221] [SQL] Iterar avidamente sobre groupingExpressions ao mover expressões de agrupamento complexas para fora de um nó Aggregate
- [SPARK-38216] [SQL] Falha antecipada se todas as colunas forem colunas particionadas ao criar uma tabela Hive
- [SPARK-38214] [SS] Não é necessário filtrar janelas quando windowDuration é múltiplo de slideDuration
- [SPARK-38182] [SQL] Corrigir NoSuchElementException se o filtro empurrado não contiver nenhuma referência
- [SPARK-38159] [SQL] Adicionar um novo FileSourceMetadataAttribute para os metadados de arquivos ocultos
- [SPARK-38123] [SQL] Uso unificado
DataType
comotargetType
deQueryExecutionErrors#castingCauseOverflowError
- [SPARK-38118] [SQL] Func(wrong data type) in HAVING clause should throw data mismatch error
- [SPARK-35173] [SQL][Python] Adicionar suporte à adição de várias colunas
- [SPARK-38177] [SQL] Corrigir transformExpressions erradas no Otimizador
- [SPARK-38228] [SQL] A atribuição de armazenamento legado não deve falhar por erro no modo ANSI
- [SPARK-38173] [SQL] A coluna citada não pode ser reconhecida corretamente quando quotedRegexColumnNa...
- [SPARK-38130] [SQL] Remover a verificação de entradas ordenáveis do array_sort
- [SPARK-38199] [SQL] Exclua o
dataType
não utilizado especificado na definição doIntervalColumnAccessor
- [SPARK-38203] [SQL] Corrigir o SQLInsertTestSuite e o SchemaPruningSuite no modo ANSI
- [SPARK-38163] [SQL] Preserva a classe de erro de
SparkThrowable
durante a construção do construtor de funções - [SPARK-38157] [SQL] Defina explicitamente ANSI como falso no teste timestampNTZ/timestamp.sql e SQLQueryTestSuite para corresponder aos resultados dourados esperados
- [SPARK-38069] [SQL][ss] Aprimorar o cálculo da janela de tempo
- [SPARK-38164] [SQL] Novas funções SQL: try_subtract e try_multiply
- [SPARK-38176] [SQL] Modo ANSI: permitir a conversão implícita de strings em outros tipos simples
- [SPARK-37498] [Python] Adicionar eventualmente para test_reuse_worker_of_parallelize_range
- [SPARK-38198] [SQL][3.2] Corrigir QueryExecution.debug #toFile use o passado em maxFields quando explainMode é codeGenMode
- [SPARK-38131] [SQL] Use classes de erro somente em exceções voltadas para o usuário
- [SPARK-37652] [SQL] Adicionar teste para otimizar join enviesado por meio de união
- [SPARK-37585] [SQL] Atualizar InputMetric em DataSourceRDD com TaskCompletionListener
- [SPARK-38113] [SQL] Usar classes de erro nos erros de execução de pivotamento
- [SPARK-38178] [SS] Corrigir a lógica para medir o uso de memória do RocksDB
- [SPARK-37969] [SQL] O HiveFileFormat deve verificar o nome do campo
- [SPARK-37652] Revert "[SQL]Add test for optimize skewed join through union"
- [SPARK-38124] [SQL][ss] Introduzir StatefulOpClusteredDistribution e aplicar à transmissão-transmissão join
- [SPARK-38030] [SQL] A canonização não deve remover a nulidade do tipo de dados AttributeReference
- [SPARK-37907] [SQL] InvokeLike suporta ConstantFolding
- [SPARK-37891] [CORE] Adicionar verificação de scalastyle para desativar Scala.concorrente.ExecutionContext.Implicits.global
- [SPARK-38150] [SQL] Atualizar comentário de RelationConversions
- [SPARK-37943] [SQL] Usar classes de erro nos erros de compilação de agrupamento
- [SPARK-37652] [SQL]Adicionar teste para otimizar join enviesado por meio de união
- [SPARK-38056] [UI da Web] [3.2] Corrigir o problema da transmissão estruturada que não funciona no servidor de história ao usar o LevelDB
- [SPARK-38144] [CORE] Remova a configuração
spark.storage.safetyFraction
não utilizada - [SPARK-38120] [SQL] Corrigir HiveExternalCatalog.listPartitions quando o nome da coluna da partição é maiúsculo e há um ponto no valor da partição
- [SPARK-38122] [Docs] Atualizar a chave do aplicativo DocSearch
- [SPARK-37479] [SQL] Migrar DROP NAMESPACE para usar o comando V2 by default
- [SPARK-35703] [SQL] Relaxe a restrição para bucket join e remova o HashClusteredDistribution
- [SPARK-37983] [SQL] Voltar para as métricas de tempo de compilação do agregado de classificação
- [SPARK-37915] [SQL] Combine uniões se houver um projeto entre elas
- [SPARK-38105] [SQL] Usar classes de erro nos erros de análise de junção
- [SPARK-38073] [Python] Atualizar a função atexit para evitar problemas com a vinculação tardia
- [SPARK-37941] [SQL] Usar classes de erro nos erros de compilação de casting
- [SPARK-37937] [SQL] Usar classes de erro nos erros de análise da lateral join
- [SPARK-38100] [SQL] Remover método privado não utilizado em
Decimal
- [SPARK-37987] [SS] Corrige o teste instável StreamingAggregationSuite.Alterando o esquema de estado ao reiniciar a consulta
- [SPARK-38003] [SQL] A regra LookupFunctions deve procurar apenas funções do registro de funções escalares
- [SPARK-38075] [SQL] Corrigir
hasNext
no iterador de saída do processo deHiveScriptTransformationExec
- [SPARK-37965] [SQL] Remover o nome do campo de verificação ao ler/gravar dados existentes no Orc
- [SPARK-37922] [SQL] Combine com um cast se pudermos fazer um up-cast seguro de dois casts (para dbr-branch-10.x)
- [SPARK-37675] [SPARK-37793] Impedir a substituição de arquivos de mesclagem do push shuffle quando o shuffle for finalizado
- [SPARK-38011] [SQL] Remover configuração duplicada e inútil no ParquetFileFormat
- [SPARK-37929] [SQL] Suporte ao modo cascata para a API
dropNamespace
- [SPARK-37931] [SQL] Citar o nome da coluna, se necessário
- [SPARK-37990] [SQL] Suporte a TimestampNTZ em RowToColumnConverter
- [SPARK-38001] [SQL] Substitua as classes de erro relacionadas ao recurso não suportado por
UNSUPPORTED_FEATURE
- [SPARK-37839] [SQL] DS V2 suporta push-down de agregados parciais
AVG
- [SPARK-37878] [SQL] Migrar SHOW CREATE TABLE para usar o comando v2 by default
- [SPARK-37731] [SQL] Refatoração e limpeza da pesquisa de funções no Analyzer
- [SPARK-37979] [SQL] Mudar para classes de erro mais genéricas nas funções AES
- [SPARK-37867] [SQL] Compilar funções agregadas do dialeto integrado JDBC
- [SPARK-38028] [SQL] Expor o vetor de setas a partir de ArrowColumnVector
- [SPARK-30062] [SQL] Adicione a instrução IMMEDIATE à implementação de truncamento do dialeto DB2
- [SPARK-36649] [SQL] Suporte
Trigger.AvailableNow
em Kafka fonte de dados - [SPARK-38018] [SQL] Corrigir ColumnVectorUtils.populate para tratar corretamente o CalendarIntervalType
- [SPARK-38023] [CORE]
ExecutorMonitor.onExecutorRemoved
deve lidar comExecutorDecommission
como concluído - [SPARK-38019] [CORE] Torne
ExecutorMonitor.timedOutExecutors
determinístico - [SPARK-37957] [SQL] Passar corretamente o sinalizador determinístico para funções escalares V2
- [SPARK-37985] [SQL] Corrigir teste com falhas para o SPARK-37578
- [SPARK-37986] [SQL] Suporte a TimestampNTZ na classificação radix
- [SPARK-37967] [SQL] Literal.create suporta ObjectType
- [SPARK-37827] [SQL] Coloque algumas propriedades da tabela integrada em V1Table.propertie para adaptá-las ao comando V2
- [SPARK-37963] [SQL] Necessidade de atualizar o URI da partição após renomear a tabela no InMemoryCatalog
- [SPARK-35442] [SQL] Suporte à propagação de relação vazia por meio de agregação/união
- [SPARK-37933] [SQL] Alterar o método de passagem das regras de push down do V2ScanRelationPushDown
- [SPARK-37917] [SQL] Empurre para baixo o limite 1 para o lado direito do semi/anti join esquerdo se a condição join estiver vazia
- [SPARK-37959] [ML] Corrigir a norma de verificação do UT no KMeans & BiKMeans
- [SPARK-37906] [SQL] O spark-sql não deve passar o último comentário para o backend
- [SPARK-37627] [SQL] Adicionar coluna classificada em BucketTransform
Atualizações de manutenção
Consulte as atualizações de manutenção do Databricks Runtime 10.4 LTS.
Ambiente do sistema
-
Sistema operacional : Ubuntu 20.04.4 LTS
- Observação : esta é a versão do Ubuntu usada pelos contêineres do Databricks Runtime. Os contêineres DBR são executados nas máquinas virtuais do provedor de nuvem, que podem usar uma versão diferente do Ubuntu ou uma distribuição do Linux.
-
Java : Zulu 8.56.0.21-CA-linux64
-
Scala : 2.12.14
-
Python : 3.8.10
-
R : 4.1.2
-
Delta Lake : 1.1.0
Instalado Python biblioteca
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
Antergos Linux | 2015.10 (versão ISO) | apronta | 1.4.4 | argônio-2-cffi | 20.1.0 |
gerador assíncrono | 1,10 | atrai | 20,3,0 | chamada de volta | 0.2.0 |
bidita | 0,21,4 | cândida | 3.3.0 | boto3 | 1,16.7 |
botocore | 1.19,7 | certifi | 2020.12,5 | caffi | 1,14.5 |
chardet | 4.0.0 | ciclador | 0.10.0 | Cython | 0,29,23 |
dbus-Python | 1.2.16 | decorador | 5.0.6 | xml desfundido | 0.7.1 |
distlib | 0.3.4 | informação da distribuição | 0,23 ubuntu 1 | pontos de entrada | 0,3 |
visão geral das facetas | 1.0.0 | bloqueio de arquivo | 3.6.0 | Índia | 2,10 |
ipykernel | 5.3.4 | ipython | 7.22,0 | ipython-genutils | 0.2.0 |
ipywidgets | 7.6.3 | jedi | 0,17.2 | Jinja 2 | 2.11.3 |
jmespath | 0.10.0 | joblib | 1.0.1 | esquema json | 3.2.0 |
cliente jupyter | 6.1.12 | núcleo jupyter | 4.7.1 | pigmentos jupyterlab | 0.1.2 |
widgets jupyterlab | 1.0.0 | solucionador de kiwi | 1.3.1 | coalas | 1.8.2 |
MarkupSafe | 2.0.1 | Matplotlib | 3.4.2 | confundir | 0,8.4 |
cliente nb | 0.5.3 | nbconvert | 6.0.7 | formato nb | 5.1.3 |
nest-assíncio | 1.5.1 | notebook | 6.3.0 | entorpecido | 1.20.1 |
fazendo às malas | 20,9 | Pandas | 1.2.4 | filtros pandóicos | 1.4.3 |
parso | 0.7.0 | bode expiatório | 0.5.1 | esperar | 4.8.0 |
picles | 0.7.5 | Travesseiro | 8.2.0 | pip | 21.0.1 |
Plotly | 5.5.0 | cliente prometheus | 0.10.1 | kit de ferramentas de aviso | 3.0.17 |
protobuf | 3.17.2 | psycopg2 | 2.8.5 | processo pty | 0.7.0 |
flecha | 4.0.0 | pycparser | 2,20 | Pigmentos | 2.8.1 |
Objeto PYG | 3,36,0 | análise de pipa | 2.4.7 | persistente | 0,17.3 |
Python-apt | 2.0.0+ubuntu0.20.4.7 | Python-dateutil | 2.8.1 | Python-engineio | 4.3.0 |
Python-socketio | 5.4.1 | pytz | 2020,5 | pizma | 20.0.0 |
pedidos | 2.25.1 | solicitações - soquete unix | 0.2.0 | transferência s3 | 0.3.7 |
scikit-learn | 0,24,1 | pegajoso | 1.6.2 | marítimo | 0.11.1 |
Enviar 2 lixeiras | 1.5.0 | ferramentas de configuração | 52,0,0 | seis | 1,15.0 |
ID de importação ssh | 5,10 | modelos de estatísticas | 0.12.2 | tenacidade | 8.0.1 |
terminado | 0.9.4 | caminho de teste | 0.4.4 | threadpool ctl | 2.1.0 |
tornado | 6.1 | almôndegas | 5.0.5 | atualizações autônomas | 0,1 |
urllib3 | 1,25.11 | ambiente virtual | 20.4.1 | largura do wc | 0.2.5 |
codificações da web | 0.5.1 | Python wheel | 0,36,2 | extensão widgetsnb | 3.5.1 |
Instalada a R biblioteca
As bibliotecas R são instaladas a partir do Snapshot Microsoft CRAN em 2022-02-24. O Snapshot não está mais disponível.
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
askpass | 1.1 | afirme que | 0.2.1 | portas traseiras | 1.4.1 |
base | 4.1.2 | base64enc | 0,1-3 | pouco | 4.0.4 |
bit64 | 4.0.5 | bolha | 1.2.2 | inicialização | 1,3-28 |
fermentar | 1,0-7 | brio | 1.1.3 | vassoura | 0,7.12 |
babião | 0.3.1 | cachem | 1.0.6 | chamador | 3.7.0 |
cursor | 6,0-90 | guarda de celas | 1.1.0 | crono | 2,3-56 |
Aula | 7,3-20 | CLIPE | 3.2.0 | clipe | 0,8.0 |
Cluster | 2.1.2 | ferramentas de código | 0,2-18 | espaço de cores | 2,0-3 |
marca comum | 1.7 | compilador | 4.1.2 | configuração | 0.3.1 |
cpp11 | 0.4.2 | giz de cera | 1.5.0 | Credenciais | 1.3.2 |
cacho | 4.3.2 | data.tabela | 1.14.2 | conjunto de dados | 4.1.2 |
DBI | 1.1.2 | dbplyr | 2.1.1 | desc | 1.4.0 |
ferramentas de desenvolvimento | 2.4.3 | diff | 0.3.5 | digerir | 0,6.29 |
dplyr | 1,0.8 | dtplyr | 1.2.1 | e1071 | 1,7-9 |
reticências | 0.3.2 | avalie | 0,15 | fansi | 1.0.2 |
colorista | 2.1.0 | mapa rápido | 1.1.0 | fontawesome | 0.2.2 |
para gatos | 0.5.1 | para cada um | 1.5.2 | Externo | 0,8-82 |
forjar | 0.2.0 | fs | 1.5.2 | futuro | 1.24.0 |
futuro.aplique | 1.8.1 | gargarejar | 1.2.0 | genéricas | 0.1.2 |
obter | 1.5.0 | ggplot2 | 3.3.5 | gh | 1.3.0 |
gitcreds | 0.1.1 | glmnet | 4,1-3 | globais | 0.14.0 |
cola | 1.6.1 | google drive | 2.0.0 | planilhas do Google 4 | 1.0.0 |
goleiro | 1.0.0 | gráficos | 4.1.2 | Dispositivos GR | 4.1.2 |
grade | 4.1.2 | Grid Extra | 2.3 | gsubfn | 0,7 |
mesa | 0.3.0 | capacete | 0.2.0 | refúgio | 2.4.3 |
mais alto | 0,9 | HMS | 1.1.1 | ferramentas html | 0.5.2 |
widgets html | 1.5.4 | http.uv | 1.6.5 | httr | 1.4.2 |
escritor | 1.3.2 | HWriter Plus | 1,0-3 | IDs | 1.0.1 |
mini | 0.3.1 | ipred | 0,9-12 | isóbanda | 0.2.5 |
iteradores | 1,0.14 | jquerylib | 0.1.4 | jsonlite | 1.8.0 |
Kern Smooth | 2,23-20 | tricotar | 1,37 | rótulo | 0.4.2 |
posteriormente | 1.3.0 | treliça | 0,20-45 | lava | 1.6.10 |
ciclo de vida | 1.0.1 | ouvindo | 0,8.0 | lubrificar | 1.8.0 |
magritter | 2.0.2 | Markdown | 1.1 | MASSA | 7,3-55 |
Matriz | 1,4-0 | memoise | 2.0.1 | métodos | 4.1.2 |
mgcv | 1,8-39 | mímica | 0,12 | Métricas do modelo | 1.2.2.2 |
modelar | 0.1.8 | munsell | 0.5.0 | nome | 3,1-155 |
net | 7,3-17 | Número Deriv | 2016,8-1,1 | openssl | 1.4.6 |
paralelo | 4.1.2 | paralelamente | 1.30,0 | pilar | 1.7.0 |
pkgbuild | 1.3.1 | pkgconfig | 2.0.3 | carregamento de pacotes | 1.2.4 |
plogr | 0.2.0 | plyr | 1.8.6 | elogio | 1.0.0 |
unidades bonitas | 1.1.1 | ProC | 1,18.0 | processa | 3.5.2 |
prodlim | 13/11/2019 | progresso | 1.2.2 | progressista | 0.10.0 |
promessas | 1.2.0.1 | proto | 1.0.0 | proxy | 0,4-26 |
ps | 1.6.0 | ronronar | 0.3.4 | r2d3 | 0.2.5 |
R6 | 2.5.1 | Floresta aleatória | 4,7-1 | corredeiras | 0.3.3 |
rcmdcheck | 1.4.0 | Cervejaria RColor | 1,1-2 | Rcpp | 1,0.8 |
RCP Pegen | 0.3.3.9.1 | leitor | 2.1.2 | readxl | 1.3.1 |
receitas | 0.2.0 | revanche | 1.0.1 | revanche 2 | 2.1.2 |
controles remotos | 2.4.2 | reprex | 2.0.1 | remodelar 2 | 1.4.4 |
rlang | 1.0.1 | rmarkdown | 2,11 | RODBC | 1,3-19 |
roxigênio2 | 7.1.2 | rpartem | 4.1.16 | rprojroot | 2.0.2 |
Reservar | 1,8-10 | RSQLite | 2.2.10 | API do estúdio | 0,13 |
reversões | 2.1.1 | colete | 1.0.2 | atrevimento | 0.4.0 |
escala | 1.1.1 | seletor | 0,4-2 | informações da sessão | 1.2.2 |
forma | 1.4.6 | brilhante | 1.7.1 | ferramentas de origem | 0.1.7 |
Sparklyr | 1.7.5 | SparkR | 3.2.0 | espacial | 7,3-11 |
splines | 4.1.2 | sqldf | 0,4-11 | QUADRADO | 2021,1 |
estatísticas | 4.1.2 | estatísticas4 | 4.1.2 | stringi | 1.7.6 |
longarina | 1.4.0 | sobrevivência | 3,2-13 | diz | 3.4 |
tcltk | 4.1.2 | Demonstrações de ensino | 2,10 | teste isso | 3.1.2 |
petiscar | 3.1.6 | arrumado | 1.2.0 | seleção arrumada | 1.1.2 |
tidyverso | 1.3.1 | Hora/Data | 3043,102 | tinytex | 0,37 |
Ferramentas | 4.1.2 | tzdb | 0.2.0 | use isso | 2.1.5 |
utf 8 | 1.2.2 | utilidades | 4.1.2 | uuid | 1,0-3 |
vctrs | 0.3.8 | Viridis Lite | 0.4.0 | vadouro | 1.5.7 |
waldo | 0.3.1 | bigode | 0,4 | murchar | 2.4.3 |
diversão | 0,29 | xml2 | 1.3.3 | xopen | 1.0.0 |
x estável | 1,8-4 | yaml | 2.3.5 | compactar | 2.2.0 |
Instalei Java e Scala biblioteca (versão de clusteringScala 2.12)
ID do grupo | ID do artefato | Versão |
---|---|---|
chifre | chifre | 2.7.7 |
com.amazonaws | Amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscale | 1,11.655 |
com.amazonaws | formação de nuvem aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-cloudfront | 1,11.655 |
com.amazonaws | aws-java-sdk-cloudhsm | 1,11.655 |
com.amazonaws | aws-java-sdk-cloudsearch | 1,11.655 |
com.amazonaws | aws-java-sdk-cloudtrail | 1,11.655 |
com.amazonaws | aws-java-sdk-cloudwatch | 1,11.655 |
com.amazonaws | métricas aws-java-sdk-cloudwatch | 1,11.655 |
com.amazonaws | aws-java-sdk-codedeploy | 1,11.655 |
com.amazonaws | identidade cognitiva aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-cognitosync | 1,11.655 |
com.amazonaws | aws-java-sdk-config | 1,11.655 |
com.amazonaws | aws-java-sdk-core | 1,11.655 |
com.amazonaws | pipeline de dados aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-conexão direta | 1,11.655 |
com.amazonaws | diretório aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-dynamodb | 1,11.655 |
com.amazonaws | aws-java-sdk-ec2 | 1,11.655 |
com.amazonaws | aws-java-sdk-ecs | 1,11.655 |
com.amazonaws | aws-java-sdk-efs | 1,11.655 |
com.amazonaws | aws-java-sdk-elasticache | 1,11.655 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1,11.655 |
com.amazonaws | balanceamento de carga elástico aws-java-sdk | 1,11.655 |
com.amazonaws | transcodificador elástico aws-java-sdk- | 1,11.655 |
com.amazonaws | aws-java-sdk-emr | 1,11.655 |
com.amazonaws | aws-java-sdk-glacier | 1,11.655 |
com.amazonaws | aws-java-sdk-glue | 1,11.655 |
com.amazonaws | aws-java-sdk-iam | 1,11.655 |
com.amazonaws | aws-java-sdk-importação/exportação | 1,11.655 |
com.amazonaws | aws-java-sdk-kinesis | 1,11.655 |
com.amazonaws | aws-java-sdk-kms | 1,11.655 |
com.amazonaws | aws-java-sdk-lambda | 1,11.655 |
com.amazonaws | aws-java-sdk-logs | 1,11.655 |
com.amazonaws | aws-java-sdk - aprendizado de máquina | 1,11.655 |
com.amazonaws | aws-java-sdk-opsworks | 1,11.655 |
com.amazonaws | aws-java-sdk-rds | 1,11.655 |
com.amazonaws | aws-java-sdk-redshift | 1,11.655 |
com.amazonaws | aws-java-sdk-route53 | 1,11.655 |
com.amazonaws | aws-java-sdk-s3 | 1,11.655 |
com.amazonaws | aws-java-sdk-ses | 1,11.655 |
com.amazonaws | aws-java-sdk-simpledb | 1,11.655 |
com.amazonaws | aws-java-sdk - fluxo de trabalho simples | 1,11.655 |
com.amazonaws | aws-java-sdk-sns | 1,11.655 |
com.amazonaws | aws-java-sdk-sqs | 1,11.655 |
com.amazonaws | aws-java-sdk-ssm | 1,11.655 |
com.amazonaws | gateway de armazenamento aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-sts | 1,11.655 |
com.amazonaws | suporte aws-java-sdk | 1,11.655 |
com.amazonaws | aws-java-sdk-swf-biblioteca | 1.11.22 |
com.amazonaws | aws-java-sdk-workspace | 1,11.655 |
com.amazonaws | jmespath-java | 1,11.655 |
com.chuusai | sem forma_2.12 | 2.3.3 |
com.clearspring.analítica | transmissão | 2.9.6 |
com.databricks | Reservar | 1,8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | plugin_2.12 do compilador | 0,4,15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0,4,15-10 |
com.esotérico software | crio-sombreado | 4.0.2 |
com.esotérico software | minlog | 1.3.0 |
com.fasterxml | colega de classe | 1.3.4 |
com.fasterxml.jackson.core | jackson-anotação | 2.12.3 |
com.fasterxml.jackson.core | jackson-core | 2.12.3 |
com.fasterxml.jackson.core | vinculação de dados jackson | 2.12.3 |
formato de dados com.fasterxml.jackson. | formato de dados jackson-cbor | 2.12.3 |
com.fasterxml.jackson.tipo de dados | jackson-datatype-joda | 2.12.3 |
com.fasterxml.jackson.module | parâmetro do módulo jackson | 2.12.3 |
com.fasterxml.jackson.module | módulo jackson scala_2.12 | 2.12.3 |
com.github.ben-manes.cafeína | cafeína | 2.3.4 |
com.github.fommil | descarregador | 1.1 |
com.github.fommil.netlib | abdômen | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-nativos | 1.1 |
com.github.fommil.netlib | sistema_nativo-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1,5,0-4 |
com.github.wendykierp | JTransforma | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | eu acho | 1.6.0 |
com.google.flatbuffers | tampões planos-java | 1.9.0 |
com.google.goiaba | goiaba | 15,0 |
com.google.protobuf | protobuf-java | 2.6.1 |
banco de dados com.h2 | h2 | 1,4,195 |
com.helger | perfilador | 1.1.1 |
com.jcraft | jsch | 0,1,50 |
com.jolbox | bonecp | VERSÃO 0.8.0. |
com.lihaoyi | código-fonte_2.12 | 0.1.9 |
com.microsoft.azure | azure-data lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-JDBC | 9.2.1. jre8 |
comendo | comprimir-lzf | 1.0.3 |
com.sun.istack | istack-commons-runtime | 3.0.8 |
com.sun.mail | javax.mail | 1.5.2 |
com.trunning | JSON | 1,8 |
com.thoughtworks.paranamer | paranâmero | 2.8 |
com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
com.Twitter | chill-java | 0.10.0 |
com.Twitter | chill_2.12 | 0.10.0 |
com.Twitter | util-app_2.12 | 7.1.0 |
com.Twitter | util-core_2.12 | 7.1.0 |
com.Twitter | função-útil_2.12 | 7.1.0 |
com.Twitter | util-jvm_2.12 | 7.1.0 |
com.Twitter | util-lint_2.12 | 7.1.0 |
com.Twitter | util-registry_2.12 | 7.1.0 |
com.Twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | configuração | 1.2.1 |
com.typesafe.Scala-logging | Scala-logging_2.12 | 3.7.2 |
com.univocidade | analisadores de univocidade | 2.9.1 |
com.zaxxer | HikaricP | 4.0.3 |
comum-CLI | comum-CLI | 1.2 |
codec comum | codec comum | 1,15 |
coleções comuns | coleções comuns | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
upload de arquivo commons | upload de arquivo commons | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.8.0 |
linguagem comum | linguagem comum | 2.6 |
registro de bens comuns | registro de bens comuns | 1.1.3 |
commons-net | commons-net | 3.1 |
comum-pool | comum-pool | 1.5.4 |
dev.ludovic.netlib | mochila | 2.2.1 |
dev.ludovic.netlib | blás | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
hive-2.3__hadoop-3.2 | jets3t-0.7 | liball_deps_2,12 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io. airlift | compressor de ar | 0,21 |
io.delta | delta-compartilhamento-spark_2.12 | 0.4.0 |
io.dropwizard.métricas | núcleo de métricas | 4.1.1 |
io.dropwizard.métricas | métricas-grafite | 4.1.1 |
io.dropwizard.métricas | métricas-healthchecks | 4.1.1 |
io.dropwizard.métricas | métricas-jetty9 | 4.1.1 |
io.dropwizard.métricas | métricas-jmx | 4.1.1 |
io.dropwizard.métricas | métricas-JSON | 4.1.1 |
io.dropwizard.métricas | métricas-JVM | 4.1.1 |
io.dropwizard.métricas | métricas-servlets | 4.1.1 |
io.netty | tudo | 4.1.68. Final |
io. prometheus | cliente simples | 0.7.0 |
io. prometheus | simpleclient_common | 0.7.0 |
io. prometheus | simpleclient_dropwizard | 0.7.0 |
io. prometheus | gateway client_push simples | 0.7.0 |
io. prometheus | client_servlet simples | 0.7.0 |
io.prometheus.jmx | coletor | 0.12.0 |
jakarta.anotação | jakarta.anotação-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validação | jakarta.validação-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.ativação | ativação | 1.1.1 |
javax.anotação | javax.anotação-api | 1.3.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | API de transação | 1.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.transmissão | stax-api | 1,0-2 |
javolução | javolução | 5.5.1 |
junte-se | junte-se | 2.14.6 |
hora do dia | hora do dia | 2.10.10 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
Maven-árvores | hive-2.3__hadoop-3.2 | liball_deps_2,12 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pirolita | 4,30 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | supercsv | 2.2.0 |
net.snowflake | SDK de ingestão de flocos de neve | 0.9.6 |
net.snowflake | floco de neve-JDBC | 3.13.3 |
net.snowflake | floco de neve faísca_2.12 | 2.9.0-spark_3.1 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | chá remoto - oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4,8 |
org.antlr | modelo de string | 3.2.1 |
org.apache.ant | formiga | 1.9.2 |
org.apache.ant | formiga | 1.9.2 |
org.apache.ant | lançador de formigas | 1.9.2 |
org.apache.arrow | formato de seta | 2.0.0 |
org.apache.arrow | núcleo de memória de seta | 2.0.0 |
org.apache.arrow | rede de memória de seta | 2.0.0 |
org.apache.arrow | vetor de seta | 2.0.0 |
org.apache.avro | AVRO | 1.10.2 |
org.apache.avro | avro-ipc | 1.10.2 |
org.apache.avro | mapeado automaticamente | 1.10.2 |
org.apache.commons | compressa comum | 1,21 |
org.apache.commons | criptomoeda comum | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.commons | texto comum | 1,6 |
org.apache.curator | curador-cliente | 2.13.0 |
org.apache.curator | estrutura de curador | 2.13.0 |
org.apache.curator | receitas de curadores | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | API de cliente hadoop | 3.3.1 - blocos de dados |
org.apache.hadoop | tempo de execução do cliente hadoop | 3.3.1 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | colmeia-CLI | 2.3.9 |
org.apache.hive | hive-JDBC | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-lap-common | 2.3.9 |
org.apache.hive | colmeia | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | API de armazenamento em nuvem | 2.7.2 |
org.apache.hive.shims | calços de colmeia - 0,23 | 2.3.9 |
org.apache.hive.shims | calços de colmeia comuns | 2.3.9 |
org.apache.hive.shims | hive-shims-programador | 2.3.9 |
org.apache.htrace | htrace-core4 | 4.1.0 - incubação |
org.apache.httpcomponents | cliente http | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.12 |
org.apache.ivy | hera | 2.5.0 |
org.apache.mesos | protobuf sombreado em mesos | 1.4.0 |
org.apache.orc | núcleo orc | 1.6.12 |
org.apache.orc | orc-mapreduce | 1.6.12 |
org.apache.orc | calços de orc | 1.6.12 |
org.apache.parquet | coluna de parquete | 1.12.0-databricks-0003 |
org.apache.parquet | parquete comum | 1.12.0-databricks-0003 |
org.apache.parquet | codificação de parquet | 1.12.0-databricks-0003 |
org.apache.parquet | estruturas em formato de parquet | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-jackson | 1.12.0-databricks-0003 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4,20 |
org.apache.yetus | audiência-anotação | 0.5.0 |
org.apache.zookeeper | tratador | 3.6.2 |
org.apache.zookeeper | tratador de zoológico - juta | 3.6.2 |
org.checkerframework | xadrez igual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | compilador common | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | núcleo de dados-api-jdo | 4.2.4 |
org.datanucleus | núcleo de dados | 4.1.17 |
org.datanucleus | núcleo de dados-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3,2,0-m3 |
org.Eclipse.jetty | jetty-client | 9.4.43.v20210629 |
org.Eclipse.jetty | continuação do cais | 9.4.43.v20210629 |
org.Eclipse.jetty | jetty-http | 9.4.43.v20210629 |
org.Eclipse.jetty | jetty-io | 9.4.43.v20210629 |
org.Eclipse.jetty | jetty-jndi | 9.4.43.v20210629 |
org.Eclipse.jetty | jetty-plus | 9.4.43.v20210629 |
org.Eclipse.jetty | jetty-proxy | 9.4.43.v20210629 |
org.Eclipse.jetty | segurança do cais | 9.4.43.v20210629 |
org.Eclipse.jetty | servidor jetty-server | 9.4.43.v20210629 |
org.Eclipse.jetty | jutty-servlet | 9.4.43.v20210629 |
org.Eclipse.jetty | píer de servlets | 9.4.43.v20210629 |
org.Eclipse.jetty | jetty-util | 9.4.43.v20210629 |
org.Eclipse.jetty | jetty-util-ajax | 9.4.43.v20210629 |
org.Eclipse.jetty | aplicativo web jetty- | 9.4.43.v20210629 |
org.Eclipse.jetty | jetty-xml | 9.4.43.v20210629 |
org.Eclipse.jetty.websocket | API de websoquete | 9.4.43.v20210629 |
org.Eclipse.jetty.websocket | cliente websocket | 9.4.43.v20210629 |
org.Eclipse.jetty.websocket | websocket-comum | 9.4.43.v20210629 |
org.Eclipse.jetty.websocket | servidor websocket | 9.4.43.v20210629 |
org.Eclipse.jetty.websocket | servlet websocket | 9.4.43.v20210629 |
org.fusesource.leveldbjni | leveldbjni-tudo | 1,8 |
org.glassfish.hk2 | API hk2 | 2.6.1 |
org.glassfish.hk2 | localizador hk2 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-recurso-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance - reembalado | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jaxb | jaxb-runtime | 2.3.2 |
org.glassfish.jersey.containers | servlet de contêiner de camisa | 2,34 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2,34 |
org.glassfish.jersey.core | cliente de camisa | 2,34 |
org.glassfish.jersey.core | camiseta comum | 2,34 |
org.glassfish.jersey.core | servidor de camisa | 2,34 |
org.glassfish.jersey.inject | camiseta-hk2 | 2,34 |
org.hibernate.validator | validador de hibernação | 6.1.0. Final |
org.javassist | javassist | 3,25,0 GA |
org.jboss.logging | registro de jboss-logging | 3.3.2. Final |
org.jdbi | jdbi | 2.63,1 |
org.jetbrains | anotação | 17.0.0 |
org.joda | conversor de joda | 1.7 |
org.jodd | núcleo nodular | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3,7,0-M11 |
org.json4s | json4s-core_2.12 | 3,7,0-M11 |
org.json4s | json4s-jackson_2.12 | 3,7,0-M11 |
org.json4s | json4s-scalap_2.12 | 3,7,0-M11 |
org.lz4 | lz4-java | 1.7.1 |
org.mariadb.JDBC | cliente mariadb-java | 2.2.5 |
org.objenesis | objênese | 2.5.1 |
org.postgresql | PostgreSQL | 42,2,19 |
org.roaringbitmap | Mapa de bits estrondoso | 0,9.14 |
org.roaringbitmap | calços | 0,9.14 |
org.rocksdb | rocksdbjni | 6.20.3 |
org.rosuda.rEngine | Motor | 2.1.0 |
org.Scala-lang | Scala-compiler_2.12 | 2.12.14 |
org.Scala-lang | Scala-library_2.12 | 2.12.14 |
org.Scala-lang | Scala-reflect_2.12 | 2.12.14 |
org.Scala-lang.modules | Scala-collection-compat_2.12 | 2.4.3 |
org.Scala-lang.modules | Scala-parser-combinators_2.12 | 1.1.2 |
org.Scala-lang.modules | Scala-xml_2.12 | 1.2.0 |
org.Scala-sbt | interface de teste | 1,0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1,7.30 |
org.slf4j | jul-a-slf4j | 1,7.30 |
org.slf4j | slf4j-api | 1,7.30 |
org.slf4j | slf4j-log4j12 | 1,7.30 |
org.spark-project.spark | não utilizado | 1.0.0 |
org.threeten | treze e mais | 1.5.0 |
org.tukaani | xz | 1,8 |
org.typelevel | álgebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2,12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0,17.0 |
org.typelevel | spire-platform_2.12 | 0,17.0 |
org.typelevel | spire-util_2.12 | 0,17.0 |
org.typelevel | spire_2.12 | 0,17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7. Final |
org.xerial | sqlite-JDBC | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1,24 |
oro | oro | 2.0.8 |
pt.edu.icm | Matrizes JLarge | 1.5 |
software.Amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |