Share via


Databricks Runtime 11.3 LTS

As notas sobre a versão a seguir fornecem informações sobre o Databricks Runtime 11.3 LTS, da plataforma do Apache Spark 3.3.0. O Databricks lançou essas imagens em outubro de 2022.

Observação

LTS significa que essa versão possui suporte de longo prazo. Consulte Ciclo de vida da versão de LTS do Databricks Runtime.

Novos recursos e aprimoramentos

Gatilho de Streaming Estruturado depois de preterido

A configuração Trigger.Once foi preterida. O Databricks recomenda que você use Trigger.AvailableNow. Confira Configurar intervalos de gatilho do Streaming Estruturado

Alterar o caminho de origem para o Carregador Automático

Agora você pode alterar o caminho de entrada do diretório para o Carregador Automático configurado com o modo de listagem de diretórios sem precisar escolher um novo diretório de ponto de verificação. Confira Alterar o caminho de origem do Carregador Automático.

O conector Kinesis do Databricks agora dá suporte à leitura de fluxos de dados do Kinesis no modo EFO

Agora você pode usar a fonte de streaming estruturado Kinesis do Databricks no Databricks Runtime 11.3 LTS para executar consultas que leem a partir de fluxos de dados do Kinesis no modo fan-out avançado. Isso permite taxa de transferência dedicada por fragmento, por consumidor e registro de entrega no modo push.

Novas funções geoespaciais H3 e adição de suporte ao Photon para todas as funções H3

Apresentando quatro novas funções H3, h3_maxchild, h3_minchild, h3_pointash3 e h3_pointash3string. Essas funções estão disponíveis em SQL, Scala e Python. Agora, todas as expressões H3 têm suporte no Photon. Confira Funções geoespaciais H3

Novos recursos para E/S preditiva

O Photon dá suporte ao modo de intervalo para a execução de quadros, usando RANGE BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW. O Photon também dá suporte ao modo de intervalo para quadros crescentes, usando RANGE BETWEEN UNBOUNDED PRECEDING AND offset_stop { PRECEDING | FOLLOWING }.

Aumento de partições iniciais para verificar se há consultas seletivas

O valor das partições iniciais a serem verificados foi aumentado para 10 para consulta seletiva com take/tail/limit em clusters habilitados para Photon e LIMIT no SQL do Databricks. Com 10 partições, você pode evitar a sobrecarga de iniciar vários trabalhos pequenos e uma escala vertical lenta. Você também pode configurar isso por meio de spark.sql.limit.selectiveInitialNumPartitions.

Visualização de novas versões de plano da AQE

Apresentando versões do plano do AQE que permitem visualizar as atualizações do plano de runtime da AQE (execução de consulta adaptável).

Novos modos de rastreamento de progresso assíncrono e limpeza de log

Introdução aos modos de Streaming estruturado chamados de acompanhamento de progresso assíncrono e limpeza de log assíncrono. O modo de limpeza de log assíncrono reduz a latência de consultas de streaming removendo logs usados para acompanhamento de progresso em segundo plano.

Agora há suporte para o Streaming Estruturado no Catálogo do Unity display()

Agora você pode usar display() quando usa o Streaming estruturado para trabalhar com tabelas registradas no Catálogo do Unity.

Os eventos de pipeline agora estão conectados no formato JSON

O Azure Databricks agora grava eventos de pipeline no log de driver no formato JSON. Embora cada evento seja analisável no JSON, grandes eventos podem não conter todos os campos ou os campos podem ser truncados. Cada evento é registrado em uma única linha com o prefixo Event received: . Este é um evento de exemplo.

Event received: {"id":"some-event-id","origin":{"pipeline_id":"some-pipeline-id","cluster_id":"some-cluster id"},"message":"simple [truncated] message","level":"WARN"}

Processamento com estado arbitrário no Fluxo Estruturado com o Python

Introdução à função applyInPandasWithState que pode ser usada para executar processamento arbitrário com estado no PySpark. Isso é equivalente à função flatMapGroupsWithState na API Java.

Inferência de data nos arquivos CSV

Introduzindo uma inferência aprimorada de colunas de tipo de data em arquivos CSV. Quando o formato de data é consistente entre os registros de uma coluna, essas colunas podem ser inferidas como DateType. Você também pode ter uma combinação de formatos de data em diferentes colunas. O Azure Databricks pode inferir automaticamente o formato de data para cada coluna. As colunas de data nos arquivos CSV antes do Databricks Runtime 11.3 LTS são deixadas como StringType.

Suporte de clone para tabelas Apache Parquet e Apache Iceberg (Visualização Pública)

Agora, o clone pode ser usado para criar e atualizar incrementalmente tabelas Delta que espelham tabelas Apache Parquet e Apache Iceberg. Você pode atualizar sua tabela Parquet de origem e aplicar incrementalmente as alterações à tabela Delta clonada com o comando clone. Consulte Clonar incrementalmente tabelas Parquet e Iceberg no Delta Lake.

Uso de SQL para especificar locais de armazenamento no nível do esquema e do catálogo para tabelas gerenciadas do Catálogo do Unity

Agora você pode usar o comando SQL MANAGED LOCATION para especificar um local de armazenamento em nuvem para tabelas gerenciadas nos níveis de catálogo e esquema. Consulte CREATE CATALOG e CREATE SCHEMA.

Alterações de comportamento

Databricks Connect 11.3.2

A atualização 11.3.2 do cliente do Databricks Connect agora é suportada. Consulte o Databricks Connect e as notas sobre a versão do Databricks Connect.

Conector Snowflake do Azure Databricks atualizado

O conector Snowflake do Azure Databricks foi atualizado para a versão mais recente do código do repositório de código aberto, Fonte de dados Snowflake para Apache Spark. Agora ele é totalmente compatível com o Databricks Runtime 11.3 LTS, incluindo pushdown de predicado e pushdown do plano de consulta interno, mantendo todos os recursos da versão de código aberto.

Agora, o cache do Hadoop para S3A está desabilitado

O cache do Hadoop (FileSystem API Apache Hadoop Main 3.3.4) para S3A agora está desabilitado. Isso é para se alinhar com outros conectores de armazenamento em nuvem. Para cargas de trabalho que dependem do cache do sistema de arquivos, verifique se os sistemas de arquivos criados recentemente são fornecidos com as configurações corretas do Hadoop, incluindo provedores de credenciais.

O esquema de coleção de estatísticas do Delta Lake agora corresponde à ordem da coluna na definição do esquema de tabela

Essa alteração aborda um bug no protocolo Delta Lake em que as estatísticas não foram coletadas para colunas devido a uma incompatibilidade na ordenação de colunas do DataFrame e da tabela. Em alguns casos, você pode encontrar degradação de desempenho de gravação devido à coleção de estatísticas em campos não rastreados anteriormente. Consulte Ignorar dados no Delta Lake.

applyInPandasWithState gera um erro se a consulta tiver um embaralhamento após o operador

O operador applyInPandasWithState gera um erro se a consulta tiver shuffle após o operador. Isso acontece quando o usuário adiciona shuffle após a operação ou o otimizador ou o coletor adiciona shuffle implicitamente.

Atualizações da biblioteca

  • Bibliotecas do Python atualizadas:
    • distlib de 0.3.5 a 0.3.6
  • Bibliotecas do R atualizadas:
    • broom de 1.0.0 a 1.0.1
    • callr de 3.7.1 a 3.7.2
    • dplyr de 1.0.9 a 1.0.10
    • dtplyr de 1.2.1 para 1.2.2
    • forcats de 0.5.1 a 0.5.2
    • future de 1.27.0 a 1.28.0
    • future.apply de 1.9.0 a 1.9.1
    • gert de 1.7.0 a 1.8.0
    • globals de 0.16.0 a 0.16.1
    • gtable de 0.3.0 a 0.3.1
    • haven de 2.5.0 a 2.5.1
    • hms de 1.1.1 para 1.1.2
    • httr de 1.4.3 a 1.4.4
    • knitr de 1.39 a 1.40
    • modelr de 0.1.8 a 0.1.9
    • pillar de 1.8.0 a 1.8.1
    • progressr de 0.10.1 a 0.11.0
    • readxl de 1.4.0 a 1.4.1
    • reprex de 2.0.1 a 2.0.2
    • rlang de 1.0.4 a 1.0.5
    • rmarkdown de 2.14 a 2.16
    • RSQLite de 2.2.15 a 2.2.16
    • rstudioapi de 0.13 a 0.14
    • rversions de 2.1.1 a 2.1.2
    • rvest de 1.0.2 para 1.0.3
    • scales de 1.2.0 a 1.2.1
    • sparklyr de 1.7.7 a 1.7.8
    • stringr de 1.4.0 a 1.4.1
    • survival de 3.2-13 a 3.4-0
    • tinytex de 0.40 a 0.41
    • viridisLite de 0.4.0 a 0.4.1
  • Bibliotecas do Java atualizadas:
    • com.fasterxml.jackson.core.jackson-annotations de 2.13.3 a 2.13.4
    • com.fasterxml.jackson.core.jackson-core de 2.13.3 a 2.13.4
    • com.fasterxml.jackson.core.jackson-databind de 2.13.3 a 2.13.4
    • com.fasterxml.jackson.dataformat.jackson-dataformat-cbor de 2.13.3 a 2.13.4
    • com.fasterxml.jackson.datatype.jackson-datatype-joda de 2.13.3 a 2.13.4
    • com.fasterxml.jackson.datatype.jackson-datatype-jsr310 de 2.13.3 a 2.13.4
    • com.fasterxml.jackson.module.jackson-module-paranamer de 2.13.3 a 2.13.4
    • com.fasterxml.jackson.module.jackson-module-scala_2.12 de 2.13.3 a 2.13.4
    • org.apache.hadoop.hadoop-client-api de 3.3.2-databricks a 3.3.4-databricks
    • org.apache.hadoop.hadoop-client-runtime de 3.3.2 a 3.3.4
    • org.apache.orc.orc-core de 1.7.5 a 1.7.6
    • org.apache.orc.orc-mapreduce de 1.7.5 a 1.7.6
    • org.apache.orc.orc-shims de 1.7.5 a 1.7.6
    • org.apache.parquet.parquet-column de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
    • org.apache.parquet.parquet-common de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
    • org.apache.parquet.parquet-encoding de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
    • org.apache.parquet.parquet-format-structures de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
    • org.apache.parquet.parquet-hadoop de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
    • org.apache.parquet.parquet-jackson de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
    • org.glassfish.jersey.containers.jersey-container-servlet de 2.34 a 2.36
    • org.glassfish.jersey.containers.jersey-container-servlet-core de 2.34 a 2.36
    • org.glassfish.jersey.core.jersey-client de 2.34 a 2.36
    • org.glassfish.jersey.core.jersey-common de 2.34 a 2.36
    • org.glassfish.jersey.core.jersey-server de 2.34 a 2.36
    • org.glassfish.jersey.inject.jersey-hk2 de 2.34 a 2.36

Apache Spark

O Databricks Runtime 11.3 LTS inclui o Apache Spark 3.3.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 11.2 (sem suporte), bem como as seguintes correções de bugs e melhorias adicionais feitas no Spark:

  • [SPARK-39957] [WARMFIX][SC-111425][CORE] Atraso onDisconnected para habilitação O driver recebe ExecutorExitCode
  • [SPARK-39955] [WARMFIX][SC-111424][CORE] Aprimorar o processo LaunchTask para evitar falhas na etapa causadas por mensagens LaunchTask que não forem enviadas
  • [SPARK-40474] [SC-106248][Cherry-Pick] Comportamento correto de inferência do esquema CSV para colunas datetime e introdução de detecção automática para campos de data
  • [SPARK-40535] [SC-111243][SQL] Corrigir bug o buffer de AggregatingAccumulator não será criado se as linhas de entrada estiverem vazias
  • [SPARK-40434] [SC-111125][SC-111144][SC-111138][SPARK-40435][11.3][SS][PYTHON] Implementar applyInPandasWithState no PySpark
  • [SPARK-40460] [SC-110832][SS] Corrigir métricas de streaming ao selecionar _metadata
  • [SPARK-40324] [SC-109943][SQL] Fornecer um contexto de consulta de ParseException
  • [SPARK-40466] [SC-110899] [SS] Melhorar a mensagem de erro quando o DSv2 estiver desabilitado e o DSv1 não estiver disponível
  • [SPARK-40456] [SC-110848][SQL] PartitionIterator.hasNext deve ser barato para ser chamado repetidamente
  • [SPARK-40169] [SC-110772][SQL] Não efetuar pushdown de filtros Parquet sem referência ao esquema de dados
  • [SPARK-40467] [SC-110759][SS] Dividir FlatMapGroupsWithState em vários conjuntos de testes
  • [SPARK-40468] [SC-110813][SQL] Corrigir a remoção de coluna no CSV quando _corrupt_record estiver selecionado
  • [SPARK-40291] [SC-110085][SQL] Aprimorar a mensagem do erro a coluna não está no grupo pela cláusula
  • [SPARK-40398] [SC-110762][CORE][SQL] Usar o loop em vez da API Arrays.stream
  • [SPARK-40433] [SC-110684][SS][PYTHON] Adicionar a JVMRow no PythonSQLUtils para converter a linha PySpark processada pelo pickle em linha JVM
  • [SPARK-40414] [SC-110568][SQL][PYTHON] Tipo mais genérico em PythonArrowInput e PythonArrowOutput
  • [SPARK-40352] [SC-109945][SQL] Adicionar aliases de função: len, datepart, dateadd, date_diff e curdate
  • [SPARK-40470] [SC-110761][SQL] Identificar GetArrayStructFields e GetMapValue na função "arrays_zip"
  • [SPARK-40387] [SC-110685][SQL] Melhorar a implementação do Spark Decimal
  • [SPARK-40429] [SC-110675][SQL] Definir KeyGroupedPartitioning somente quando a coluna referenciada estiver na saída
  • [SPARK-40432] [SC-110716][SS][PYTHON] Introduzir GroupStateImpl e GroupStateTimeout no PySpark
  • [SPARK-39915] [SC-110496][SQL] Verificar se o particionamento de saída é especificado pelo usuário no AQE
  • [SPARK-29260] [SQL] Dar suporte a ALTER DATABASE SET LOCATION se o HMS der suporte
  • [SPARK-40185] [SC-110056][SQL] Remover sugestão de coluna quando a lista de candidatos estiver vazia
  • [SPARK-40362] [SC-110401][SQL] Corrigir a canonicalização BinaryComparison
  • [SPARK-40411] [SC-110381][SS] Refatorar FlatMapGroupsWithStateExec para ter uma característica pai
  • [SPARK-40293] [SC-110084][SQL] Tornar a mensagem de erro da tabela V2 mais significativa
  • [SPARK-38734] [SC-110383][SQL] Remover a classe de erro INDEX_OUT_OF_BOUNDS
  • [SPARK-40292] [SC-110300][SQL] Corrigir os nomes da coluna na função "arrays_zip" quando as matrizes forem referenciadas de structs aninhados
  • [SPARK-40276] [SC-109674][CORE] Reduzir o tamanho do resultado de RDD.takeOrdered
  • [SPARK-40197] [SC-109176][SQL] Substituir o plano de consulta pelo contexto para MULTI_VALUE_SUBQUERY_ERROR
  • [SPARK-40300] [SC-109942][SQL] Migrar para a classe de erro DATATYPE_MISMATCH
  • [SPARK-40149] [SC-110055][SQL] Propagar colunas de metadados pelo Projeto
  • [SPARK-40280] [SC-110146][SQL] Adicionar suporte à propagação de parquet para int e long anotados
  • [SPARK-40220] [SC-110143][SC-109175][SQL] Não gere o mapa vazio dos parâmetros da mensagem de erro
  • [SPARK-40295] [SC-110070][SQL] Permitir funções v2 com argumentos literais na distribuição/ordenação de gravação
  • [SPARK-40156] [SC-109264][SQL] url_decode() caso retorne uma classe de erro
  • [SPARK-39195] [SQL] Spark OutputCommitCoordinator deve anular a fase quando o arquivo confirmado não for consistente com o status da tarefa
  • [SPARK-40260] [SC-109424][SQL] Usar classes de erro nos erros de compilação de GROUP BY uma posição
  • [SPARK-40205] [SC-110144][SC-109082][SQL] Fornecer um contexto de consulta de ELEMENT_AT_BY_INDEX_ZERO
  • [SPARK-40112] [SC-109676][SQL] Melhorar a função TO_BINARY()
  • [SPARK-40209] [SC-109081][SQL] Não alterar o valor do intervalo de Decimal em changePrecision() nos erros
  • [SPARK-40319] [SC-109873][SQL] Remover método de erro de execução de consulta duplicado para PARSE_DATETIME_BY_NEW_PARSER
  • [SPARK-40222] [SC-109209][SQL] try_add/try_divide/try_subtract/try_multiply numérico deve gerar erro de seus filhos
  • [SPARK-40183] [SC-108907][SQL] Usar a classe de erro NUMERIC_VALUE_OUT_OF_RANGE para estouro na conversão decimal
  • [SPARK-40180] [SC-109069][SQL] Formatar mensagens de erro por spark-sql
  • [SPARK-40153] [SC-109165][SQL] Unificar as funções de resolução e funções com valor de tabela
  • [SPARK-40308] [SC-109880][SQL] Permitir que argumentos delimitadores não dobráveis para str_to_map funcionem
  • [SPARK-40219] [SC-110052][SC-109663][SQL] O plano lógico de exibição resolvido deve manter o esquema para evitar pesquisa redundante
  • [SPARK-40098] [SC-109939][SC-108693][SQL] Formatar mensagens de erro no Thrift Server
  • [SPARK-39917] [SC-109038][SQL] Usar classes de erro diferentes para estouro aritmético numérico/de intervalo
  • [SPARK-40033] [SC-109875][SQL] Suporte à remoção de esquema aninhado por meio de element_at
  • [SPARK-40194] [SC-109660][SQL] A função SPLIT na expressão regular vazia deve truncar a cadeia de caracteres vazia à direita.
  • [SPARK-40228] [SC-109835][SQL] Não simplificar multiLike se filho não for uma expressão barata
  • [SPARK-40039] [SC-109896][SC-109260][SS] Introduzindo um gerenciador de arquivos de ponto de verificação de streaming com base na interface anulável do Hadoop
  • [SPARK-40285] [SC-109679][SQL] Simplificar o roundTo[Numeric] para Spark Decimal
  • [SPARK-39896] [SC-109658][SQL] UnwrapCastInBinaryComparison deve funcionar quando o literal do downcast In/InSet falhou
  • [SPARK-40040] [SC-109662][SQL] Efetuar push do limite local para ambos os lados se a condição de junção estiver vazia
  • [SPARK-40055] [SC-109075][SQL] listCatalogs também devem retornar spark_catalog mesmo quando a implementação spark_catalog for defaultSessionCatalog
  • [SPARK-39915] [SC-109391][SQL] Dataset.repartition(N) pode não criar partições N não AQE
  • [SPARK-40207] [SC-109401][SQL] Especificar o nome da coluna quando o tipo de dados não for suportado pela fonte de dados
  • [SPARK-40245] [SC-109295][SQL] Corrigir a verificação de igualdade FileScan quando colunas de partição ou filtro de dados não forem lidos
  • [SPARK-40113] [SC-109405][SQL] Implementações da interface ParquetScanBuilder DataSourceV2 de reator
  • [SPARK-40211] [SC-109226][CORE][SQL] Permitir a personalização do número de partições iniciais no comportamento take()
  • [SPARK-40252] [SC-109379][SQL] Substituir Stream.collect(Collectors.joining) pela API StringJoiner
  • [SPARK-40247] [SC-109272][SQL] Corrigir a verificação de igualdade do BitSet
  • [SPARK-40067] [SQL] Usar Table#name() em vez de Scan#name() para preencher o nome da tabela no nó BatchScan no SparkUI
  • [SPARK-39966] [SQL] Usar o filtro V2 no SupportsDelete
  • [SPARK-39607] [SC-109268][SQL][DSV2] A distribuição e ordenação dão suporte à função V2 por escrito
  • [SPARK-40224] [SC-109271][SQL] Fazer com que ObjectHashAggregateExec libere a memória adiantadamente, quando voltar para baseado em classificação
  • [SPARK-40013] [SQL] As expressões DS V2 devem ter o padrão toString
  • [SPARK-40214] [SC-109079][PYTHON][SQL] adicionar 'get' às funções
  • [SPARK-40192] [SC-109089][SQL][ML] Remover groupby redundante
  • [SPARK-40146] [SC-108694][SQL] Simplificar a obtenção do valor do mapa pelo codegen
  • [SPARK-40109] [SQL] Nova função SQL: get()
  • [SPARK-39929] [SQL] O DS V2 dá suporte ao envio de funções de cadeia de caracteres (não ANSI)
  • [SPARK-39819] [SQL] A propagação da agregação do DS V2 pode funcionar com Top N ou Paginação (Classificar com expressões)
  • [SPARK-40213] [SC-109077][SQL] Suporte à conversão de valor ASCII para caracteres Latino-1
  • [SPARK-39887] [SQL] RemoveRedundantAliases deve manter os aliases que tornam a saída de nós de projeção exclusiva
  • [SPARK-39764] [SQL] Tornar PhysicalOperation igual a ScanOperation
  • [SPARK-39964] [SQL] O pushdown do DS V2 deve unificar o caminho da conversão
  • [SPARK-39528] [SQL] Usar o filtro V2 em SupportsRuntimeFiltering
  • [SPARK-40066] [SQL] Modo ANSI: sempre retornar nulo no acesso inválido à coluna do mapa
  • [SPARK-39912] [SPARK-39828][SQL] Refinar CatalogImpl
  • [SPARK-39833] [SC-108736][SQL] Desabilitar o índice da coluna Parquet no DSv1 para corrigir um problema de correção no caso de partição sobreposta e colunas de dados
  • [SPARK-39880] [SQL] O comando SHOW FUNCTIONS V2 deve imprimir o nome da função qualificada, como v1
  • [SPARK-39767] [SQL] Remover UnresolvedDBObjectName e adicionar UnresolvedIdentifier
  • [SPARK-40163] [SC-108740][SQL] feat: SparkSession.config(Map)
  • [SPARK-40136] [SQL] Corrigir o fragmento dos contextos de consulta SQL
  • [SPARK-40107] [SC-108689][SQL] Efetuar pull da conversão empty2null do FileFormatWriter
  • [SPARK-40121] [PYTHON][SQL] Inicializar a projeção usada para a UDF do Python
  • [SPARK-40128] [SQL] Fazer com que VectorizedColumnReader reconheça DELTA_LENGTH_BYTE_ARRAY como uma codificação de coluna autônoma
  • [SPARK-40132] [ML] Restaurar rawPredictionCol para MultilayerPerceptronClassifier.setParams
  • [SPARK-40050] [SC-108696][SQL] Aprimorar EliminateSorts para dar suporte à remoção de classificações por meio de LocalLimit
  • [SPARK-39629] [SQL] Dar suporte a SHOW FUNCTIONS v2
  • [SPARK-39925] [SC-108734][SQL] Adicionar sobrecarga array_sort(column, comparator) às operações do DataFrame
  • [SPARK-40117] [PYTHON][SQL] Converter a condição para java em DataFrameWriterV2.overwrite
  • [SPARK-40105] [SQL] Aprimorar a repartição em ReplaceCTERefWithRepartition
  • [SPARK-39503] [SQL] Adicionar o nome do catálogo da sessão para tabela e função de banco de dados v1
  • [SPARK-39889] [SQL] Usar classes de erro diferentes para numérico/intervalo dividido por 0
  • [SPARK-39741] [SQL] Dar suporte à codificação/decodificação de URL como função interna e arrumar funções relacionadas à URL
  • [SPARK-40102] [SQL] Usar SparkException em vez de IllegalStateException no SparkPlan
  • [SPARK-40014] [SQL] Dê suporte à conversão de decimais para intervalos ANSI
  • [SPARK-39776] [SQL][FOLLOW] Atualizar UT de PlanStabilitySuite no modo ANSI
  • [SPARK-39963] [SQL] Simplificar SimplifyCasts.isWiderCast

Atualizações de manutenção

Confira Atualizações de manutenção do Databricks Runtime 11.3.

Ambiente do sistema

  • Sistema operacional: Ubuntu 20.04.5 LTS
  • Java: Zulu 8.56.0.21-CA-linux64
  • Scala: 2.12.14
  • Python: 3.9.5
  • R: 4.1.3
  • Delta Lake: 2.1.0

Bibliotecas Python instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
argon2-cffi 20.1.0 async-generator 1,10 attrs 21.2.0
backcall 0.2.0 backports.entry-points-selectable 1.1.1 black 22.3.0
bleach 4.0.0 boto3 1.21.18 botocore 1.24.18
certifi 2021.10.8 cffi 1.14.6 chardet 4.0.0
charset-normalizer 2.0.4 clique 8.0.3 criptografia 3.4.8
cycler 0.10.0 Cython 0.29.24 dbus-python 1.2.16
debugpy 1.4.1 decorator 5.1.0 defusedxml 0.7.1
distlib 0.3.6 entrypoints 0.3 facets-overview 1.0.0
filelock 3.8.0 idna 3.2 ipykernel 6.12.1
ipython 7.32.0 ipython-genutils 0.2.0 ipywidgets 7.7.0
jedi 0.18.0 Jinja2 2.11.3 jmespath 0.10.0
joblib 1.0.1 jsonschema 3.2.0 jupyter-client 6.1.12
jupyter-core 4.8.1 jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0
kiwisolver 1.3.1 MarkupSafe 2.0.1 matplotlib 3.4.3
matplotlib-inline 0.1.2 mistune 0.8.4 mypy-extensions 0.4.3
nbclient 0.5.3 nbconvert 6.1.0 nbformat 5.1.3
nest-asyncio 1.5.1 notebook 6.4.5 numpy 1.20.3
empacotando 21.0 pandas 1.3.4 pandocfilters 1.4.3
parso 0.8.2 pathspec 0.9.0 patsy 0.5.2
pexpect 4.8.0 pickleshare 0.7.5 Pillow 8.4.0
pip 21.2.4 platformdirs 2.5.2 plotly 5.9.0
prometheus-client 0.11.0 prompt-toolkit 3.0.20 protobuf 4.21.5
psutil 5.8.0 psycopg2 2.9.3 ptyprocess 0.7.0
pyarrow 7.0.0 pycparser 2,20 Pygments 2.10.0
PyGObject 3.36.0 pyodbc 4.0.31 pyparsing 3.0.4
pyrsistent 0.18.0 python-dateutil 2.8.2 pytz 2021.3
pyzmq 22.2.1 solicitações 2.26.0 requests-unixsocket 0.2.0
s3transfer 0.5.2 scikit-learn 0.24.2 scipy 1.7.1
seaborn 0.11.2 Send2Trash 1.8.0 setuptools 58.0.4
six 1.16.0 ssh-import-id 5.10 statsmodels 0.12.2
tenacity 8.0.1 terminado 0.9.4 testpath 0.5.0
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tomli 2.0.1
tornado 6.1 traitlets 5.1.0 typing-extensions 3.10.0.2
unattended-upgrades 0,1 urllib3 1.26.7 virtualenv 20.8.0
wcwidth 0.2.5 webencodings 0.5.1 wheel 0.37.0
widgetsnbextension 3.6.0

Bibliotecas R instaladas

As bibliotecas R foram instaladas por meio do instantâneo CRAN da Microsoft em 08/09/2022.

Biblioteca Versão Biblioteca Versão Biblioteca Versão
askpass 1,1 assertthat 0.2.1 backports 1.4.1
base 4.1.3 base64enc 0.1-3 bit 4.0.4
bit64 4.0.5 blob 1.2.3 boot 1.3-28
brew 1.0-7 brio 1.1.3 broom 1.0.1
bslib 0.4.0 cachem 1.0.6 callr 3.7.2
sinal de interpolação 6.0-93 cellranger 1.1.0 chron 2.3-57
classe 7.3-20 cli 3.3.0 clipr 0.8.0
cluster 2.1.3 codetools 0.2-18 colorspace 2.0-3
commonmark 1.8.0 compiler 4.1.3 config 0.3.1
cpp11 0.4.2 crayon 1.5.1 credenciais 1.3.2
curl 4.3.2 data.table 1.14.2 conjuntos de dados 4.1.3
DBI 1.1.3 dbplyr 2.2.1 desc 1.4.1
devtools 2.4.4 diffobj 0.3.5 digest 0.6.29
downlit 0.4.2 dplyr 1.0.10 dtplyr 1.2.2
e1071 1.7-11 ellipsis 0.3.2 evaluate 0.16
fansi 1.0.3 farver 2.1.1 fastmap 1.1.0
fontawesome 0.3.0 forcats 0.5.2 foreach 1.5.2
foreign 0.8-82 forge 0.2.0 fs 1.5.2
future 1.28.0 future.apply 1.9.1 gargle 1.2.0
Genéricos 0.1.3 gert 1.8.0 ggplot2 3.3.6
gh 1.3.0 gitcreds 0.1.1 glmnet 4.1-4
globals 0.16.1 glue 1.6.2 googledrive 2.0.0
googlesheets4 1.0.1 gower 1.0.0 elemento gráfico 4.1.3
grDevices 4.1.3 grade 4.1.3 gridExtra 2.3
gsubfn 0.7 gtable 0.3.1 hardhat 1.2.0
haven 2.5.1 highr 0,9 hms 1.1.2
htmltools 0.5.3 htmlwidgets 1.5.4 httpuv 1.6.5
httr 1.4.4 ids 1.0.1 ini 0.3.1
ipred 0.9-13 isoband 0.2.5 iterators 1.0.14
jquerylib 0.1.4 jsonlite 1.8.0 KernSmooth 2.23-20
knitr 1.40 labeling 0.4.2 later 1.3.0
lattice 0.20-45 lava 1.6.10 ciclo de vida 1.0.1
listenv 0.8.0 lubridate 1.8.0 magrittr 2.0.3
markdown 1,1 MASS 7.3-56 Matriz 1.4-1
memoise 2.0.1 methods 4.1.3 mgcv 1.8-40
mime 0,12 miniUI 0.1.1.1 ModelMetrics 1.2.2.2
modelr 0.1.9 munsell 0.5.0 nlme 3.1-157
nnet 7.3-17 numDeriv 2016.8-1.1 openssl 2.0.2
parallel 4.1.3 parallelly 1.32.1 pillar 1.8.1
pkgbuild 1.3.1 pkgconfig 2.0.3 pkgdown 2.0.6
pkgload 1.3.0 plogr 0.2.0 plyr 1.8.7
praise 1.0.0 prettyunits 1.1.1 pROC 1.18.0
processx 3.7.0 prodlim 2019.11.13 profvis 0.3.7
progress 1.2.2 progressr 0.11.0 promises 1.2.0.1
proto 1.0.0 proxy 0.4-27 ps 1.7.1
purrr 0.3.4 r2d3 0.2.6 R6 2.5.1
ragg 1.2.2 randomForest 4.7-1.1 rappdirs 0.3.3
rcmdcheck 1.4.0 RColorBrewer 1.1-3 Rcpp 1.0.9
RcppEigen 0.3.3.9.2 readr 2.1.2 readxl 1.4.1
recipes 1.0.1 rematch 1.0.1 rematch2 2.1.2
remotes 2.4.2 reprex 2.0.2 reshape2 1.4.4
rlang 1.0.5 rmarkdown 2.16 RODBC 1.3-19
roxygen2 7.2.1 rpart 4.1.16 rprojroot 2.0.3
Rserve 1.8-11 RSQLite 2.2.16 rstudioapi 0,14
rversions 2.1.2 rvest 1.0.3 sass 0.4.2
scales 1.2.1 selectr 0.4-2 sessioninfo 1.2.2
shape 1.4.6 shiny 1.7.2 sourcetools 0.1.7
sparklyr 1.7.8 SparkR 3.3.0 spatial 7.3-11
splines 4.1.3 sqldf 0.4-11 SQUAREM 2021.1
stats 4.1.3 stats4 4.1.3 stringi 1.7.8
stringr 1.4.1 survival 3.4-0 sys 3.4
systemfonts 1.0.4 tcltk 4.1.3 testthat 3.1.4
textshaping 0.3.6 tibble 3.1.8 tidyr 1.2.0
tidyselect 1.1.2 tidyverse 1.3.2 timeDate 4021.104
tinytex 0,41 tools 4.1.3 tzdb 0.3.0
urlchecker 1.0.1 usethis 2.1.6 utf8 1.2.2
utils 4.1.3 uuid 1.1-0 vctrs 0.4.1
viridisLite 0.4.1 vroom 1.5.7 waldo 0.4.0
whisker 0,4 withr 2.5.0 xfun 0,32
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.5 zip 2.2.0

Bibliotecas do Java e do Scala instaladas (versão do cluster Scala 2.12)

ID do Grupo Artifact ID Versão
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws aws-java-sdk-cloudhsm 1.12.189
com.amazonaws aws-java-sdk-cloudsearch 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws aws-java-sdk-config 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws aws-java-sdk-ecs 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder 1.12.189
com.amazonaws aws-java-sdk-emr 1.12.189
com.amazonaws aws-java-sdk-glacier 1.12.189
com.amazonaws aws-java-sdk-glue 1.12.189
com.amazonaws aws-java-sdk-iam 1.12.189
com.amazonaws aws-java-sdk-importexport 1.12.189
com.amazonaws aws-java-sdk-kinesis 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-logs 1.12.189
com.amazonaws aws-java-sdk-machinelearning 1.12.189
com.amazonaws aws-java-sdk-opsworks 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm 1.12.189
com.amazonaws aws-java-sdk-storagegateway 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws aws-java-sdk-support 1.12.189
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics fluxo 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml classmate 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.13.4
com.fasterxml.jackson.core jackson-core 2.13.4
com.fasterxml.jackson.core jackson-databind 2.13.4
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-joda 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.13.4
com.fasterxml.jackson.module jackson-module-scala_2.12 2.13.4
com.github.ben-manes.caffeine caffeine 2.3.4
com.github.fommil jniloader 1,1
com.github.fommil.netlib core 1.1.2
com.github.fommil.netlib native_ref-java 1,1
com.github.fommil.netlib native_ref-java-natives 1,1
com.github.fommil.netlib native_system-java 1,1
com.github.fommil.netlib native_system-java-natives 1,1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1,1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1,1
com.github.luben zstd-jni 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.6
com.google.crypto.tink tink 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guava 15.0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger profiler 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 9.2.1.jre8
com.ning compress-lzf 1,1
com.sun.mail javax.mail 1.5.2
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 2.2.1
dev.ludovic.netlib blas 2.2.1
dev.ludovic.netlib lapack 2.2.1
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift aircompressor 0,21
io.delta delta-sharing-spark_2.12 0.5.1
io.dropwizard.metrics metrics-core 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics metrics-healthchecks 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics metrics-jmx 4.1.1
io.dropwizard.metrics metrics-json 4.1.1
io.dropwizard.metrics metrics-jvm 4.1.1
io.dropwizard.metrics metrics-servlets 4.1.1
io.netty netty-all 4.1.74.Final
io.netty netty-buffer 4.1.74.Final
io.netty netty-codec 4.1.74.Final
io.netty netty-common 4.1.74.Final
io.netty netty-handler 4.1.74.Final
io.netty netty-resolver 4.1.74.Final
io.netty netty-tcnative-classes 2.0.48.Final
io.netty netty-transport 4.1.74.Final
io.netty netty-transport-classes-epoll 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty netty-transport-native-epoll-linux-x86_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-native-unix-common 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx coletor 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activation 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1,1
javax.transaction transaction-api 1,1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.13
net.java.dev.jna jna 5.8.0
net.razorvine pickle 1,2
net.sf.jpam jpam 1,1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.14
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8
org.antlr stringtemplate 3.2.1
org.apache.ant ant 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow arrow-format 7.0.0
org.apache.arrow arrow-memory-core 7.0.0
org.apache.arrow arrow-memory-netty 7.0.0
org.apache.arrow arrow-vector 7.0.0
org.apache.avro avro 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapred 1.11.0
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.9
org.apache.curator curator-client 2.13.0
org.apache.curator curator-framework 2.13.0
org.apache.curator curator-recipes 2.13.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-client-api 3.3.4-databricks
org.apache.hadoop hadoop-client-runtime 3.3.4
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.7.2
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy ivy 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.18.0
org.apache.logging.log4j log4j-api 2.18.0
org.apache.logging.log4j log4j-core 2.18.0
org.apache.logging.log4j log4j-slf4j-impl 2.18.0
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.7.6
org.apache.orc orc-mapreduce 1.7.6
org.apache.orc orc-shims 1.7.6
org.apache.parquet parquet-column 1.12.0-databricks-0007
org.apache.parquet parquet-common 1.12.0-databricks-0007
org.apache.parquet parquet-encoding 1.12.0-databricks-0007
org.apache.parquet parquet-format-structures 1.12.0-databricks-0007
org.apache.parquet parquet-hadoop 1.12.0-databricks-0007
org.apache.parquet parquet-jackson 1.12.0-databricks-0007
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4.20
org.apache.yetus audience-annotations 0.5.0
org.apache.zookeeper zookeeper 3.6.2
org.apache.zookeeper zookeeper-jute 3.6.2
org.checkerframework checker-qual 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.46.v20220331
org.eclipse.jetty jetty-continuation 9.4.46.v20220331
org.eclipse.jetty jetty-http 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty jetty-plus 9.4.46.v20220331
org.eclipse.jetty jetty-proxy 9.4.46.v20220331
org.eclipse.jetty jetty-security 9.4.46.v20220331
org.eclipse.jetty jetty-server 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty jetty-util 9.4.46.v20220331
org.eclipse.jetty jetty-util-ajax 9.4.46.v20220331
org.eclipse.jetty jetty-webapp 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-api 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-client 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-common 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-server 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-core 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core jersey-common 2.36
org.glassfish.jersey.core jersey-server 2.36
org.glassfish.jersey.inject jersey-hk2 2.36
org.hibernate.validator hibernate-validator 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains annotations 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.mlflow mlflow-spark 1.27.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap shims 0.9.25
org.rocksdb rocksdbjni 6.24.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt test-interface 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1,2
org.scalanlp breeze_2.12 1,2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark unused 1.0.0
org.threeten threeten-extra 1.5.0
org.tukaani xz 1.8
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel macro-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1,24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1