Share via


Atualizações de manutenção para o Databricks Runtime (arquivado)

Esta página arquivada lista as atualizações de manutenção emitidas para versões do Databricks Runtime que não têm mais suporte. Para adicionar uma atualização de manutenção a um cluster existente, reinicie o cluster.

Para migrar para uma versão do Databricks Runtime com suporte, confira o guia de migração do Databricks Runtime.

Importante

Esta documentação foi desativada e pode não estar atualizada. Não há mais suporte para os produtos, serviços ou tecnologias mencionados neste conteúdo. Veja Versões e compatibilidade das notas de versão do Databricks Runtime.

Observação

Este artigo contém referências ao termo lista de permissão, que o Azure Databricks não usa mais. Quando o termo for removido do software, também o removeremos deste artigo.

Versões do Databricks Runtime

Atualizações de manutenção por versão:

Para obter as atualizações de manutenção em versões do Databricks Runtime com suporte, confira atualizações de manutenção do Databricks Runtime.

Databricks Runtime 14.0

Confira Databricks Runtime 14.0 (sem suporte).

  • 08 de fevereiro de 2024
    • [SPARK-46396] A inferência do carimbo de data/hora não deve gerar exceção.
    • [SPARK-46794] Remover subconsultas de restrições LogicalRDD.
    • [SPARK-45182] Ignorar a conclusão da tarefa do estágio antigo depois de tentar novamente o estágio indeterminado pai, conforme determinado pela soma de verificação.
    • [SPARK-46933] Adicionar a métrica de tempo de execução da consulta aos conectores que usam JDBCRDD.
    • [SPARK-45957] Evitar gerar um plano de execução para comandos não executáveis.
    • [SPARK-46861] Evitar deadlock no DAGScheduler.
    • [SPARK-46930] Adicionar suporte para um prefixo personalizado para campos de tipo de união no Avro.
    • [SPARK-46941] Não é possível inserir o nó de limite do grupo de janelas para a computação top-k se contiver SizeBasedWindowFunction.
    • [SPARK-45582] Verificar se a instância do repositório não é usada após chamar a confirmação dentro da agregação de streaming do modo de saída.
    • Atualizações de segurança do sistema operacional.
  • 31 de janeiro de 2024
    • [SPARK-46541] Corrigir a referência de coluna ambígua na autojunção.
    • [SPARK-46676] dropDuplicatesWithinWatermark não deve falhar na canonicalização do plano.
    • [SPARK-46769] Refinar a inferência de esquema relacionada ao carimbo de data/hora.
    • [SPARK-45498] Acompanhamento: Ignorar a conclusão da tarefa de tentativas do estágio antigo.
    • Reverter [SPARK-46769] Refinar inferência de esquema relacionada ao carimbo de data/hora.
    • [SPARK-46383] Reduzir o uso de heap do driver reduzindo o tempo de vida de TaskInfo.accumulables().
    • [SPARK-46633] Corrigir o leitor do Avro para manipular blocos de comprimento zero.
    • [SPARK-46677] Correção da resolução dataframe["*"].
    • [SPARK-46684] Corrigir CoGroup.applyInPandas/Arrow para passar argumentos corretamente.
    • [SPARK-46763] Corrigir a falha de declaração em ReplaceDeduplicateWithAggregate para atributos duplicados.
    • [SPARK-46610] Criar tabela deve gerar exceção se nenhum valor para uma chave for especificado nas opções.
    • Atualizações de segurança do sistema operacional.
  • 17 de janeiro de 2024
    • O nó shuffle do plano explicativo retornado por uma consulta do Photon é atualizado para adicionar o sinalizador causedBroadcastJoinBuildOOM=true quando ocorre um erro de falta de memória durante a operação de shuffle que faz parte de uma junção de transmissão.
    • Para evitar maior latência ao se comunicar pelo TLSv1.3, essa versão de manutenção inclui um patch para a instalação do JDK 8 para corrigir o bug JDK-8293562 do JDK.
    • [SPARK-46394] Corrige problemas do spark.catalog.listDatabases() em esquemas com caracteres especiais quando spark.sql.legacy.keepCommandOutputSchema está definido como “true”.
    • [SPARK-46250] Estabiliza test_parity_listener.
    • [SPARK-45814] Faz com que ArrowConverters.createEmptyArrowBatch chame close() para evitar perda de memória.
    • [SPARK-46173] Ignora a chamada trimAll durante a análise de data.
    • [SPARK-46484] Faz com que as funções auxiliares resolveOperators mantenham a ID do plano.
    • [SPARK-46466] O leitor vetorizado de Parquet nunca deve trocar base para o carimbo de data/hora ntz.
    • [SPARK-46056] Correção do NPE de leitura vetorizada do Parquet com valor padrão byteArrayDecimalType.
    • [SPARK-46058] Adiciona um sinalizador separado para privateKeyPassword.
    • [SPARK-46478] Reverte SPARK-43049 para usar oracle varchar(255) para cadeia de caracteres.
    • [SPARK-46132] Suporte a senha de chave para chaves JKS para SSL de RPC.
    • [SPARK-46417] Não gera falha ao chamar hive.getTable quando throwException for false.
    • [SPARK-46261]DataFrame.withColumnsRenamed deve manter a ordenação de dicionário/mapa.
    • [SPARK-46370] Corrige o bug ao consultar uma tabela depois de alterar os padrões de coluna.
    • [SPARK-46609] Evita a explosão exponencial em PartitioningPreservingUnaryExecNode.
    • [SPARK-46600] Move o código compartilhado entre SqlConf e SqlApiConf para SqlApiConfHelper.
    • [SPARK-46538] Corrige o problema de referência de coluna ambígua em ALSModel.transform.
    • [SPARK-46337] Faz CTESubstitution reter o PLAN_ID_TAG.
    • [SPARK-46602] Propaga allowExisting na criação da exibição quando a exibição/tabela não existir.
    • [SPARK-46260]DataFrame.withColumnsRenamed deve respeitar a ordem do dicionário.
    • [SPARK-46145] O spark.catalog.listTables não gera exceção quando a tabela ou exibição não é encontrada.
  • 14 de dezembro de 2023
    • Correção de um problema em que os sublinhados escapados nas operações getColumns provenientes de clientes JDBC ou ODBC eram tratados incorretamente e interpretados como curingas.
    • [SPARK-46255] Suporte para conversão de tipo complexo –> para cadeia de caracteres.
    • [SPARK-46028] Faz com que Column.__getitem__ aceite a coluna de entrada.
    • [SPARK-45920] “group by ordinal” deve ser idempotente.
    • [SPARK-45433] Corrige a inferência de esquema CSV/JSON quando os carimbos de data/hora não correspondem ao timestampFormat especificado.
    • [SPARK-45509] Corrigido comportamento de referência da coluna df para o Spark Connect.
    • Atualizações de segurança do sistema operacional.
  • 29 de novembro de 2023
    • Instalou um novo pacote pyarrow-hotfix para corrigir uma vulnerabilidade do PyArrow RCE.
    • Corrigido um problema em que os sublinhados com escape em operações de getColumns provenientes de clientes JDBC ou ODBC eram interpretados incorretamente como curingas.
    • Ao ingerir dados CSV usando o Carregador Automático ou Tabelas de Transmissão, os arquivos CSV grandes agora são dividíveis e podem ser processados em paralelo durante a inferência de esquema e o processamento de dados.
    • O conector Spark-Snowflake foi atualizado para 2.12.0.
    • [SPARK-45859] Tornou objetos UDF em ml.functions lentos.
    • Reverter [SPARK-45592].
    • [SPARK-45892] Validação do plano do otimizador de refatoração para desconectar validateSchemaOutput e validateExprIdUniqueness.
    • [SPARK-45592] Corrigido problema de correção no AQE com InMemoryTableScanExec.
    • [SPARK-45620] As APIs relacionadas ao UDF do Python agora usam camelCase.
    • [SPARK-44784] Tornou o teste do SBT hermético.
    • [SPARK-45770] Resolução de coluna corrigida com DataFrameDropColumns para Dataframe.drop.
    • [SPARK-45544] Suporte integrado a SSL em TransportContext.
    • [SPARK-45730] Restrições de tempo aprimoradas para ReloadingX509TrustManagerSuite.
    • Atualizações de segurança do sistema operacional.
  • 10 de novembro de 2023
    • Consultas de feed de dados alteradas em Tabelas de Streaming do Catálogo Unity e Exibições Materializadas para exibir mensagens de erro.
    • [SPARK-45545]SparkTransportConf herda SSLOptions na criação.
    • [SPARK-45584] Falha de execução corrigida de subconsulta com TakeOrderedAndProjectExec.
    • [SPARK-45427] Configurações adicionadas de RPC SSL para SSLOptions e SparkTransportConf.
    • [SPARK-45541]SSLFactory adicionado.
    • [SPARK-45430]FramelessOffsetWindowFunction não falha mais quando IGNORE NULLS e offset > rowCount.
    • [SPARK-45429] Classes auxiliares adicionadas para comunicação SSL RPC.
    • [SPARK-44219] Validações extras por regra adicionadas para regravações de otimização.
    • [SPARK-45543] Corrigido um problema em que InferWindowGroupLimit gerava um erro se as outras funções de janela não tivessem a mesma moldura de janela que as funções de classificação.
    • Atualizações de segurança do sistema operacional.
  • 23 de outubro de 2023
    • [SPARK-45426] Suporte adicionado para ReloadingX509TrustManager.
    • [SPARK-45396] Entrada de documento adicionada para o módulo PySpark.ml.connect e Evaluator adicionado a __all__ em ml.connect.
    • [SPARK-45256] Corrigido um problema em que DurationWriter falhava ao gravar mais valores do que a capacidade inicial.
    • [SPARK-45279]plan_id anexado a todos os planos lógicos.
    • [SPARK-45250] Suporte adicionado para perfil de recurso de tarefa em nível de estágio para clusters de fios quando a alocação dinâmica está desabilitada.
    • [SPARK-45182] Suporte adicionado para reverter o estágio do mapa aleatório para que todas as tarefas do estágio possam ser repetidas quando a saída do estágio for indeterminada.
    • [SPARK-45419] Evite reutilização de arquivos rocksdb sst em uma instância rocksdb diferente removendo as entradas do mapa de versão do arquivo de versões maiores.
    • [SPARK-45386] Corrigido um problema em que StorageLevel.NONE retornava incorretamente 0.
    • Atualizações de segurança do sistema operacional.
  • 13 de outubro de 2023
    • A dependência snowflake-jdbc foi atualizada de 3.13.29 para a 3.13.33.
    • A função array_insert é baseada em 1 para índices positivos e negativos, mas antes ela era baseada em 0 para índices negativos. Agora ela insere um novo elemento no final das matrizes de entrada para o índice -1. Para restaurar o comportamento anterior, defina spark.sql.legacy.negativeIndexInArrayInsert como true.
    • O Azure Databricks não ignora mais arquivos corrompidos quando uma inferência de esquema CSV com o Carregador Automático tiver habilitado ignoreCorruptFiles.
    • [SPARK-45227] Corrigido um problema sutil de thread-safety com CoarseGrainedExecutorBackend.
    • [SPARK-44658]ShuffleStatus.getMapStatus deve retornar None em vez de Some(null).
    • [SPARK-44910]Encoders.bean não dá suporte a superclasses com argumentos de tipo genérico.
    • [SPARK-45346] A inferência de esquema Parquet respeita sinalizadores que diferenciam maiúsculas de minúsculas ao mesclar o esquema.
    • Reverter [SPARK-42946].
    • [SPARK-42205] Atualizado o protocolo JSON para remover o registro em log de acumuladores em uma tarefa ou eventos de início de estágio.
    • [SPARK-45360] Construtor de sessão do Spark dá suporte à inicialização a partir de SPARK_REMOTE.
    • [SPARK-45316] Adicionar novos parâmetros ignoreCorruptFiles/ignoreMissingFiles para HadoopRDD e NewHadoopRDD.
    • [SPARK-44909] Ignorar o servidor de streaming de log do distribuidor de torch em execução quando ele não estiver disponível.
    • [SPARK-45084]StateOperatorProgress agora usa o número de partição de aleatório preciso.
    • [SPARK-45371] Corrigidos os problemas de sombreamento no cliente Scala do Spark Connect.
    • [SPARK-45178] Fallback para executar um lote único para Trigger.AvailableNow com fontes sem suporte em vez de usar o wrapper.
    • [SPARK-44840] Torna array_insert() baseado em 1 para índices negativos.
    • [SPARK-44551] Comentários editados para sincronizar com o OSS.
    • [SPARK-45078] Agora, a função ArrayInsert torna a conversão explícita quando o tipo de elemento não é igual ao tipo de componente derivado.
    • [SPARK-45339] Agora, o PySpark registra erros de repetição.
    • [SPARK-45057] Evita adquirir o bloqueio de leitura quando keepReadLock for falso.
    • [SPARK-44908] Corrigida a funcionalidade do parâmetro foldCol de validador cruzado.
    • Atualizações de segurança do sistema operacional.

Databricks Runtime 13.1

Confira Databricks Runtime 13.1 (sem suporte).

  • 29 de novembro de 2023
    • Corrigido um problema em que os sublinhados com escape em operações de getColumns provenientes de clientes JDBC ou ODBC eram interpretados incorretamente como curingas.
    • [SPARK-44846] Removidas expressões de agrupamento complexas após RemoveRedundantAggregates.
    • [SPARK-43802] Corrigido um problema em que o codegen para expressões unhex e unbase64 falhava.
    • [SPARK-43718] Corrigida a nulidade de chaves em junções de USING.
    • Atualizações de segurança do sistema operacional.
  • 14 de novembro de 2023
    • Os filtros de partição nas consultas de streaming do Delta Lake são empurrados para baixo antes do limite de taxa para obter uma melhor utilização.
    • Consultas de feed de dados alteradas em Tabelas de Streaming do Catálogo Unity e Exibições Materializadas para exibir mensagens de erro.
    • [SPARK-45584] Falha de execução corrigida de subconsulta com TakeOrderedAndProjectExec.
    • [SPARK-45430]FramelessOffsetWindowFunction não falha mais quando IGNORE NULLS e offset > rowCount.
    • [SPARK-45543] Corrigido um problema em que InferWindowGroupLimit causava um problema se as outras funções de janela não tivessem o mesmo quadro de janela que as funções de classificação.
    • Atualizações de segurança do sistema operacional.
  • 24 de outubro de 2023
    • [SPARK-43799] Adicionada a opção binária de descritor à API Protobuf do PySpark.
    • Reverter [SPARK-42946].
    • [SPARK-45346] Agora, a inferência do esquema Parquet respeita o sinalizador que diferencia maiúsculas de minúsculas ao mesclar um esquema.
    • Atualizações de segurança do sistema operacional.
  • 13 de outubro de 2023
    • A dependência snowflake-jdbc foi atualizada de 3.13.29 para a 3.13.33.
    • Não ignore mais arquivos corrompidos quando ignoreCorruptFiles estiver habilitado durante a inferência de esquema CSV com o Carregador Automático.
    • [SPARK-44658]ShuffleStatus.getMapStatus retorna None em vez de Some(null).
    • [SPARK-45178] Fallback para executar um lote único para Trigger.AvailableNow com fontes sem suporte em vez de usar o wrapper.
    • [SPARK-42205] Atualizado o protocolo JSON para remover o registro em log de acumuladores em uma tarefa ou eventos de início de estágio.
    • Atualizações de segurança do sistema operacional.
  • 12 de setembro de 2023
    • [SPARK-44718] Corresponder o padrão de configuração do modo de memória ColumnVector ao valor de configuração OffHeapMemoryMode.
    • SPARK-44878 Desabilitado o limite estrito do gerenciador de gravação do RocksDB para evitar a exceção de inserção no cache concluído.
    • Correções diversas.
  • 30 de agosto de 2023
    • [SPARK-44871] Comportamento percentile_disc corrigido.
    • [SPARK-44714] Facilidade de restrição da resolução LCA em relação às consultas.
    • [SPARK-44245] Os testes de documentação PySpark.sql.dataframe sample() agora são somente ilustrativos.
    • [SPARK-44818] Correção da disputa para interrupção de tarefa pendente emitida antes taskThread de ser inicializado.
    • Atualizações de segurança do sistema operacional.
  • 15 de agosto de 2023
    • [SPARK-44485]TreeNode.generateTreeString otimizado.
    • [SPARK-44643]Row.__repr__ corrigido quando a linha estiver vazia.
    • [SPARK-44504] A tarefa de manutenção agora limpa os provedores carregados em caso de erro de parada.
    • [SPARK-44479] Conversão de protobuf corrigida de um tipo de estrutura vazia.
    • [SPARK-44464]applyInPandasWithStatePythonRunner corrigido para linhas de saída que têm Null como o valor da primeira coluna.
    • Correções diversas.
  • 27 de julho de 2023
    • Foi corrigido um problema em que dbutils.fs.ls() retornava INVALID_PARAMETER_VALUE.LOCATION_OVERLAP quando chamado para um caminho de local de armazenamento que entrava em conflito com outro local de armazenamento externo ou gerenciado.
    • [SPARK-44199]CacheManager não atualiza mais o fileIndex desnecessariamente.
    • [SPARK-44448] Corrigido o bug de resultados errados de DenseRankLimitIterator e InferWindowGroupLimit.
    • Atualizações de segurança do sistema operacional.
  • 24 de julho de 2023
    • Reverter [SPARK-42323].
    • [SPARK-41848]Corrigido o problema de excesso de agendamento de tarefas com TaskResourceProfile.
    • [SPARK-44136] Corrigido um problema em que StateManager era materializado em um executor em vez do driver em FlatMapGroupsWithStateExec.
    • [SPARK-44337] Corrigido um problema em que qualquer campo definido como Any.getDefaultInstance causava erros de análise.
    • Atualizações de segurança do sistema operacional.
  • 27 de junho de 2023
    • Atualizações de segurança do sistema operacional.
  • 15 de junho de 2023
    • approx_count_distinct fotonizado.
    • Agora, o analisador de JSON no modo failOnUnknownFields descarta um registro no modo DROPMALFORMED e tem uma falha direta no modo FAILFAST.
    • A biblioteca Snowflake-jdbc foi atualizada para 3.13.29 para que fosse resolvido um problema de segurança.
    • Para uma serialização e a desserialização direta, o campo de atributos PubSubRecord é armazenado como JSON em vez de cadeia de caracteres de um mapa Scala.
    • Agora, o comando EXPLAIN EXTENDED retorna a qualificação do cache de resultados da consulta.
    • Aprimoramento do desempenho da atualizações incrementais com Iceberg e Parquet SHALLOW CLONE.
    • [SPARK-43032] Correção de bugs do SQM do Python.
    • [SPARK-43404] Ignorar a reutilização do arquivo SST para a mesma versão do armazenamento de estado do RocksDB para evitar erro de incompatibilidade de ID.
    • [SPARK-43340] Lidar com o campo de rastreamento de pilha ausente em eventlogs.
    • [SPARK-43527] Corrigido catalog.listCatalogs no PySpark.
    • [SPARK-43541] Propagar todas as marcas Project na resolução de expressões e colunas ausentes.
    • [SPARK-43300] O wrapper NonFateSharingCache para o cache Guava.
    • [SPARK-43378] Fechar corretamente os objetos de fluxo em deserializeFromChunkedBuffer.
    • [SPARK-42852] Reverter alterações relacionadas a NamedLambdaVariable de EquivalentExpressions.
    • [SPARK-43779] Agora, ParseToDate carrega EvalMode no thread principal.
    • [SPARK-43413] Corrigida a subconsulta IN da nulidade ListQuery.
    • [SPARK-43889] Adicionar uma verificação para o nome da coluna de __dir__() para filtrar nomes de coluna propensos a erros.
    • [SPARK-43043] Aprimoramento do desempenho de MapOutputTracker.updateMapOutput
    • [SPARK-43522] Corrigida a criação de nome da coluna struct com índice de matriz.
    • [SPARK-43457] Agente de usuário de argumento com versões do sistema operacional, Python e Spark.
    • [SPARK-43286] Modo CBC aes_encrypt atualizado para gerar IVs aleatórios.
    • [SPARK-42851] Proteger EquivalentExpressions.addExpr() com supportedExpression().
    • Reverter [SPARK-43183].
    • Atualizações de segurança do sistema operacional.

Databricks Runtime 12.2 LTS

Confira Databricks Runtime 12.2 LTS.

  • 29 de novembro de 2023
    • Corrigido um problema em que os sublinhados com escape em operações de getColumns provenientes de clientes JDBC ou ODBC eram interpretados incorretamente como curingas.
    • [SPARK-42205] Removidos os acumuladores de log nos eventos de início Stage e Task.
    • [SPARK-44846] Removidas expressões de agrupamento complexas após RemoveRedundantAggregates.
    • [SPARK-43718] Corrigida a nulidade de chaves em junções de USING.
    • [SPARK-45544] Suporte integrado a SSL em TransportContext.
    • [SPARK-43973] A interface do usuário do Fluxo Estruturado agora exibe corretamente as consultas com falha.
    • [SPARK-45730] Restrições de tempo aprimoradas para ReloadingX509TrustManagerSuite.
    • [SPARK-45859] Tornou objetos UDF em ml.functions lentos.
    • Atualizações de segurança do sistema operacional.
  • 14 de novembro de 2023
    • Os filtros de partição nas consultas de streaming do Delta Lake são empurrados para baixo antes do limite de taxa para obter uma melhor utilização.
    • [SPARK-45545]SparkTransportConf herda SSLOptions na criação.
    • [SPARK-45427] Configurações adicionadas de RPC SSL para SSLOptions e SparkTransportConf.
    • [SPARK-45584] Falha de execução corrigida de subconsulta com TakeOrderedAndProjectExec.
    • [SPARK-45541]SSLFactory adicionado.
    • [SPARK-45430]FramelessOffsetWindowFunction não falha mais quando IGNORE NULLS e offset > rowCount.
    • [SPARK-45429] Classes auxiliares adicionadas para comunicação SSL RPC.
    • Atualizações de segurança do sistema operacional.
  • 24 de outubro de 2023
    • [SPARK-45426] Suporte adicionado para ReloadingX509TrustManager.
    • Correções diversas.
  • 13 de outubro de 2023
    • A dependência snowflake-jdbc foi atualizada de 3.13.29 para a 3.13.33.
    • [SPARK-42553] Garantir pelo menos uma unidade de tempo após o intervalo.
    • [SPARK-45346] A inferência de esquema Parquet respeita o sinalizador que diferencia maiúsculas de minúsculas ao mesclar o esquema.
    • [SPARK-45178] Fallback para executar um lote único para Trigger.AvailableNow com fontes sem suporte em vez de usar o wrapper.
    • [SPARK-45084]StateOperatorProgress para usar um número de partição de ordem aleatória preciso e adequado.
  • 12 de setembro de 2023
    • [SPARK-44873] Suporte adicionado para alter view com colunas aninhadas no cliente Hive.
    • [SPARK-44718] Corresponder o padrão de configuração do modo de memória ColumnVector ao valor de configuração OffHeapMemoryMode.
    • [SPARK-43799] Adicionada a opção binária de descritor à API Protobuf do PySpark.
    • Correções diversas.
  • 30 de agosto de 2023
  • 15 de agosto de 2023
    • [SPARK-44504] A tarefa de manutenção limpa os provedores carregados em caso de erro de parada.
    • [SPARK-44464]applyInPandasWithStatePythonRunner corrigido para linhas de saída que têm Null como o valor da primeira coluna.
    • Atualizações de segurança do sistema operacional.
  • 29 de julho de 2023
    • Foi corrigido um problema em que dbutils.fs.ls() retornava INVALID_PARAMETER_VALUE.LOCATION_OVERLAP quando chamado para um caminho de local de armazenamento que entrava em conflito com outro local de armazenamento externo ou gerenciado.
    • [SPARK-44199]CacheManager não atualiza mais o fileIndex desnecessariamente.
    • Atualizações de segurança do sistema operacional.
  • 24 de julho de 2023
    • [SPARK-44337] Corrigido um problema em que qualquer campo definido como Any.getDefaultInstance causava erros de análise.
    • [SPARK-44136] Corrigido um problema em que StateManager era materializado em um executor em vez do driver em FlatMapGroupsWithStateExec.
    • Atualizações de segurança do sistema operacional.
  • 23 de junho de 2023
    • Atualizações de segurança do sistema operacional.
  • 15 de junho de 2023
    • approx_count_distinct fotonizado.
    • A biblioteca Snowflake-jdbc foi atualizada para 3.13.29 para que fosse resolvido um problema de segurança.
    • [SPARK-43779] Agora, ParseToDate carrega EvalMode no thread principal.
    • [SPARK-43156][SPARK-43098] Teste de erro de contagem de subconsultas escalar estendida com decorrelateInnerQuery desativado.
    • Atualizações de segurança do sistema operacional.
  • 2 de junho de 2023
    • O analisador JSON no modo failOnUnknownFields descarta um registro no modo DROPMALFORMED e falha diretamente no modo FAILFAST.
    • Aprimoramento do desempenho da atualizações incrementais com Iceberg e Parquet SHALLOW CLONE.
    • Corrigido um problema no Carregador Automático em que diferentes formatos de arquivo de origem eram inconsistentes quando o esquema fornecido não incluía partições inferidas. Esse problema pode causar falhas inesperadas ao ler arquivos com colunas ausentes no esquema de partição inferido.
    • [SPARK-43404] Ignorar a reutilização do arquivo SST para a mesma versão do armazenamento de estado do RocksDB para evitar erro de incompatibilidade de ID.
    • [SPARK-43413][11.3-13.0] Corrigida a subconsulta IN da nulidade ListQuery.
    • [SPARK-43522] Corrigida a criação de nome da coluna struct com índice de matriz.
    • [SPARK-43541] Propagar todas as marcas Project na resolução de expressões e colunas ausentes.
    • [SPARK-43527] Corrigido catalog.listCatalogs no PySpark.
    • [SPARK-43123] Os metadados de campos internos não vazam mais para os catálogos.
    • [SPARK-43340] Corrigido o campo de rastreamento de pilha ausente em eventlogs.
    • [SPARK-42444]DataFrame.drop agora lida com colunas duplicadas corretamente.
    • [SPARK-42937]PlanSubqueries agora define InSubqueryExec#shouldBroadcast como verdadeiro.
    • [SPARK-43286] Modo CBC aes_encrypt atualizado para gerar IVs aleatórios.
    • [SPARK-43378] Fechar corretamente os objetos de fluxo em deserializeFromChunkedBuffer.
  • 17 de maio de 2023
    • As verificações parquet agora são robustas em relação aos OOMs ao verificar arquivos excepcionalmente estruturados ajustando dinamicamente o tamanho do lote. Os metadados de arquivo são analisados para reduzir preventivamente o tamanho do lote e são reduzidos novamente em tentativas de tarefa como uma rede de segurança final.
    • Se um arquivo Avro fosse lido apenas com a opção failOnUnknownFields\ ou com o Carregador Automático no modo de evolução do esquema failOnNewColumns\, as colunas que têm tipos de dados diferentes seriam lidas como null\ em vez de gerar um erro informando que o arquivo não pode ser lido. Essas leituras agora falham e recomendam que os usuários usem a opção rescuedDataColumn\.
    • O Carregador Automático agora faz o seguinte.
      • Lê corretamente e não resgata mais os tipos Integer, Short, Byte se um desses tipos de dados for fornecido, mas o arquivo Avro sugere um dos outros dois tipos.
      • Impede a leitura de tipos de intervalo como tipos de data ou carimbo de data/hora para evitar a obtenção de datas corrompidas.
      • Impede tipos de leitura Decimal com precisão mais baixa.
    • [SPARK-43172] Expõe o host e o token do cliente do Spark Connect.
    • [SPARK-43293]__qualified_access_only é ignorado em colunas normais.
    • [SPARK-43098] Corrigido o bug COUNT de correção quando a subconsulta escalar é agrupada por cláusula.
    • [SPARK-43085] Suporte para atribuição de coluna DEFAULT para nomes de tabela de várias partes.
    • [SPARK-43190]ListQuery.childOutput agora é consistente com a saída secundária.
    • [SPARK-43192] Removida a validação do conjunto de caracteres do agente de usuário.
    • Atualizações de segurança do sistema operacional.
  • 25 de abril de 2023
    • Se um arquivo Parquet fosse lido apenas com a opção failOnUnknownFields ou com o Carregador Automático no modo de evolução do esquema failOnNewColumns, as colunas que têm tipos de dados diferentes seriam lidas como null em vez de gerar um erro informando que o arquivo não pode ser lido. Essas leituras agora falham e recomendam que os usuários usem a opção rescuedDataColumn.
    • O Carregador Automático agora lê corretamente e não resgata mais os tipos Integer, Short, Byte se um desses tipos de dados for fornecido. O arquivo Parquet sugere um dos outros dois tipos. Quando a coluna de dados resgatados foi habilitada anteriormente, a incompatibilidade de tipo de dados faria com que as colunas fossem salvas mesmo que fossem legíveis.
    • [SPARK-43009]sql() parametrizado com constantes Any
    • [SPARK-42406] Encerrar campos recursivos do Protobuf removendo o campo
    • [SPARK-43038] Suporte ao modo GCM por aes_encrypt()/aes_decrypt()
    • [SPARK-42971] Alterar para imprimir workdir se appDirs for nulo quando o evento de identificador WorkDirCleanup de trabalho
    • [SPARK-43018] Corrigir o bug para comandos INSERT com literais de carimbo de data/hora
    • Atualizações de segurança do sistema operacional.
  • 11 de abril de 2023
    • Suporte a formatos de fonte de dados herdados no comando SYNC.
    • Corrige um problema no comportamento %autoreload em notebooks fora de um repositório.
    • Correção de um problema em que a evolução do esquema do Carregador Automático pode entrar em um loop de falha infinito quando uma nova coluna é detectada no esquema de um objeto JSON aninhado.
    • [SPARK-42928] Torna resolvePersistentFunction sincronizado.
    • [SPARK-42936] Corrige o problema de LCA quando a cláusula pode ser resolvida diretamente por sua agregação filho.
    • [SPARK-42967] Corrige SparkListenerTaskStart.stageAttemptId quando uma tarefa é iniciada após o cancelamento do estágio.
    • Atualizações de segurança do sistema operacional.
  • 29 de março de 2023
    • O Databricks SQL agora dá suporte à especificação de valores padrão para colunas de tabelas do Delta Lake, seja no momento da criação da tabela ou posteriormente. Os comandos INSERT, UPDATE, DELETE, e MERGE subsequentes podem se referir ao valor padrão de uma coluna usando a palavra-chave DEFAULT explícita. Além disso, se qualquer atribuição INSERT tiver uma lista explícita de menos colunas do que a tabela de destino, os valores padrão de coluna correspondentes serão substituídos pelas colunas restantes (ou NULL se nenhum padrão for especificado).

      Por exemplo:

      CREATE TABLE t (first INT, second DATE DEFAULT CURRENT_DATE()) USING delta;
      INSERT INTO t VALUES (0, DEFAULT);
      INSERT INTO t VALUES (1, DEFAULT);
      SELECT first, second FROM t;
      \> 0, 2023-03-28
      1, 2023-03-28z
      
    • O Carregador Automático agora inicia pelo menos um log do RocksDB síncrono limpo para fluxos Trigger.AvailableNow para verificar se o ponto de verificação pode ser limpo regularmente para fluxos do Carregador Automático em execução rápida. Isso pode fazer com que alguns fluxos levem mais tempo antes de serem desligados, mas economizarão custos de armazenamento e aprimorarão a experiência do Carregador Automático em execuções futuras.

    • Agora você pode modificar uma tabela Delta para adicionar suporte a recursos de tabela usando DeltaTable.addFeatureSupport(feature_name).

    • [SPARK-42794] Aumentar o lockAcquireTimeoutMs para 2 minutos para adquirir o repositório de estado RocksDB no Fluxo Estruturado

    • [SPARK-42521] Adicionar NULLs para INSERTSs com listas especificadas pelo usuário de menos colunas do que a tabela de destino

    • [SPARK-42702][SPARK-42623] Suporte à consulta parametrizada em subconsulta e CTE

    • [SPARK-42668] Capturar exceção ao tentar fechar o fluxo compactado na interrupção de HDFSStateStoreProvider

    • [SPARK-42403] JsonProtocol deve lidar com cadeias de caracteres JSON nulas

  • 8 de março de 2023
    • A mensagem de erro "Falha ao inicializar a configuração" foi aprimorada para fornecer mais contexto para o cliente.
    • Há uma alteração de terminologia para adicionar recursos a uma tabela Delta usando a propriedade table. A sintaxe preferencial agora 'delta.feature.featureName'='supported' é em vez de 'delta.feature.featureName'='enabled'. Para compatibilidade com versões anteriores, o uso de 'delta.feature.featureName'='enabled' ainda funciona e continuará funcionando.
    • A partir desta versão, é possível criar/substituir uma tabela por uma propriedade delta.ignoreProtocolDefaults de tabela adicional para ignorar configurações do Spark relacionadas ao protocolo, que inclui versões de leitor e gravador padrão, bem como recursos de tabela com suporte por padrão.
    • [SPARK-42070] Alterar o valor padrão da função Mask de -1 para NULL
    • [SPARK-41793] Resultado incorreto para quadros de janela definidos por uma cláusula de intervalo em decimais significantes
    • [SPARK-42484] Mensagem de erro UnsafeRowUtils aprimorada
    • [SPARK-42516] Sempre capturar a configuração de fuso horário da sessão ao criar exibições
    • [SPARK-42635] Corrigir a expressão TimestampAdd.
    • [SPARK-42622] Substituição desativada em valores
    • [SPARK-42534] Corrigir cláusula DB2Dialect Limit
    • [SPARK-42121] Adicionar funções internas com valor de tabela posexplode, posexplode_outer, json_tuple e stack
    • [SPARK-42045] Modo ANSI SQL: Round/Bround deve retornar um erro no estouro de inteiro minúsculo/pequeno/grande
    • Atualizações de segurança do sistema operacional.

Databricks Runtime 11.3 LTS

Confira Databricks Runtime 11.3 LTS.

  • 29 de novembro de 2023
    • Corrigido um problema em que os sublinhados com escape em operações de getColumns provenientes de clientes JDBC ou ODBC eram interpretados incorretamente como curingas.
    • [SPARK-43973] A interface do usuário do Fluxo Estruturado agora exibe corretamente as consultas com falha.
    • [SPARK-45730] Restrições de tempo aprimoradas para ReloadingX509TrustManagerSuite.
    • [SPARK-45544] Suporte integrado a SSL em TransportContext.
    • [SPARK-45859] Tornou objetos UDF em ml.functions lentos.
    • [SPARK-43718] Corrigida a nulidade de chaves em junções de USING.
    • [SPARK-44846] Removidas expressões de agrupamento complexas após RemoveRedundantAggregates.
    • Atualizações de segurança do sistema operacional.
  • 14 de novembro de 2023
    • Os filtros de partição nas consultas de streaming do Delta Lake são empurrados para baixo antes do limite de taxa para obter uma melhor utilização.
    • [SPARK-42205] Removidos os acumuladores de log nos eventos de início Stage e Task.
    • [SPARK-45545]SparkTransportConf herda SSLOptions na criação.
    • Reverter [SPARK-33861].
    • [SPARK-45541]SSLFactory adicionado.
    • [SPARK-45429] Classes auxiliares adicionadas para comunicação SSL RPC.
    • [SPARK-45584] Falha de execução corrigida de subconsulta com TakeOrderedAndProjectExec.
    • [SPARK-45430]FramelessOffsetWindowFunction não falha mais quando IGNORE NULLS e offset > rowCount.
    • [SPARK-45427] Configurações adicionadas de RPC SSL para SSLOptions e SparkTransportConf.
    • Atualizações de segurança do sistema operacional.
  • 24 de outubro de 2023
    • [SPARK-45426] Suporte adicionado para ReloadingX509TrustManager.
    • Correções diversas.
  • 13 de outubro de 2023
    • A dependência snowflake-jdbc foi atualizada de 3.13.29 para a 3.13.33.
    • [SPARK-45178] Fallback para executar um lote único para Trigger.AvailableNow com fontes sem suporte em vez de usar o wrapper.
    • [SPARK-45084]StateOperatorProgress para usar um número de partição de ordem aleatória preciso e adequado.
    • [SPARK-45346] Agora, a inferência do esquema Parquet respeita o sinalizador que diferencia maiúsculas de minúsculas ao mesclar um esquema.
    • Atualizações de segurança do sistema operacional.
  • 10 de setembro de 2023
    • Correções diversas.
  • 30 de agosto de 2023
    • [SPARK-44818] Correção da disputa para interrupção de tarefa pendente emitida antes taskThread de ser inicializado.
    • [SPARK-44871][11.3-13.0] Comportamento percentile_disc corrigido.
    • Atualizações de segurança do sistema operacional.
  • 15 de agosto de 2023
    • [SPARK-44485]TreeNode.generateTreeString otimizado.
    • [SPARK-44504] A tarefa de manutenção limpa os provedores carregados em caso de erro de parada.
    • [SPARK-44464]applyInPandasWithStatePythonRunner corrigido para linhas de saída que têm Null como o valor da primeira coluna.
    • Atualizações de segurança do sistema operacional.
  • 27 de julho de 2023
    • Foi corrigido um problema em que dbutils.fs.ls() retornava INVALID_PARAMETER_VALUE.LOCATION_OVERLAP quando chamado para um caminho de local de armazenamento que entrava em conflito com outro local de armazenamento externo ou gerenciado.
    • [SPARK-44199]CacheManager não atualiza mais o fileIndex desnecessariamente.
    • Atualizações de segurança do sistema operacional.
  • 24 de julho de 2023
    • [SPARK-44136] Corrigido um problema em que o StateManager podia ser materializado no executor em vez de no driver em FlatMapGroupsWithStateExec.
    • Atualizações de segurança do sistema operacional.
  • 23 de junho de 2023
    • Atualizações de segurança do sistema operacional.
  • 15 de junho de 2023
    • approx_count_distinct fotonizado.
    • A biblioteca Snowflake-jdbc foi atualizada para 3.13.29 para que fosse resolvido um problema de segurança.
    • [SPARK-43779] Agora, ParseToDate carrega EvalMode no thread principal.
    • [SPARK-40862] Suportar subconsultas não agregadas em RewriteCorrelatedScalarSubquery
    • [SPARK-43156][SPARK-43098] Teste de bug de contagem de subconsultas escalar estendida com decorrelateInnerQuery desativado.
    • [SPARK-43098] Corrige o bug COUNT de correção quando a subconsulta escalar tiver uma cláusula group by
    • Atualizações de segurança do sistema operacional.
  • 2 de junho de 2023
    • O analisador JSON no modo failOnUnknownFields descarta um registro no modo DROPMALFORMED e falha diretamente no modo FAILFAST.
    • Aprimoramento do desempenho da atualizações incrementais com Iceberg e Parquet SHALLOW CLONE.
    • Corrigido um problema no Carregador Automático em que diferentes formatos de arquivo de origem eram inconsistentes quando o esquema fornecido não incluía partições inferidas. Esse problema pode causar falhas inesperadas ao ler arquivos com colunas ausentes no esquema de partição inferido.
    • [SPARK-43404] Ignorar a reutilização do arquivo SST para a mesma versão do armazenamento de estado do RocksDB para evitar erro de incompatibilidade de ID.
    • [SPARK-43527] Corrigido catalog.listCatalogs no PySpark.
    • [SPARK-43413][11.3-13.0] Corrigida a subconsulta IN da nulidade ListQuery.
    • [SPARK-43340] Corrigido o campo de rastreamento de pilha ausente em eventlogs.

Databricks Runtime 10.4 LTS

Consulte Databricks Runtime 10.4 LTS.

  • 29 de novembro de 2023
    • [SPARK-45544] Suporte integrado a SSL em TransportContext.
    • [SPARK-45859] Tornou objetos UDF em ml.functions lentos.
    • [SPARK-43718] Corrigida a nulidade de chaves em junções de USING.
    • [SPARK-45730] Restrições de tempo aprimoradas para ReloadingX509TrustManagerSuite.
    • [SPARK-42205] Removidos os acumuladores de log nos eventos de início Stage e Task.
    • [SPARK-44846] Removidas expressões de agrupamento complexas após RemoveRedundantAggregates.
    • Atualizações de segurança do sistema operacional.
  • 14 de novembro de 2023
    • [SPARK-45541]SSLFactory adicionado.
    • [SPARK-45545]SparkTransportConf herda SSLOptions na criação.
    • [SPARK-45427] Configurações adicionadas de RPC SSL para SSLOptions e SparkTransportConf.
    • [SPARK-45429] Classes auxiliares adicionadas para comunicação SSL RPC.
    • [SPARK-45584] Falha de execução corrigida de subconsulta com TakeOrderedAndProjectExec.
    • Reverter [SPARK-33861].
    • Atualizações de segurança do sistema operacional.
  • 24 de outubro de 2023
    • [SPARK-45426] Suporte adicionado para ReloadingX509TrustManager.
    • Atualizações de segurança do sistema operacional.
  • 13 de outubro de 2023
    • [SPARK-45084]StateOperatorProgress para usar um número de partição de ordem aleatória preciso e adequado.
    • [SPARK-45178] Fallback para executar um lote único para Trigger.AvailableNow com fontes sem suporte em vez de usar o wrapper.
    • Atualizações de segurança do sistema operacional.
  • 10 de setembro de 2023
    • Correções diversas.
  • 30 de agosto de 2023
    • [SPARK-44818] Correção da disputa para interrupção de tarefa pendente emitida antes taskThread de ser inicializado.
    • Atualizações de segurança do sistema operacional.
  • 15 de agosto de 2023
    • [SPARK-44504] A tarefa de manutenção limpa os provedores carregados em caso de erro de parada.
    • [SPARK-43973] A interface do usuário do Fluxo Estruturado agora aparece corretamente as consultas com falha.
    • Atualizações de segurança do sistema operacional.
  • 23 de junho de 2023
    • Atualizações de segurança do sistema operacional.
  • 15 de junho de 2023
    • A biblioteca Snowflake-jdbc foi atualizada para 3.13.29 para que fosse resolvido um problema de segurança.
    • [SPARK-43098] Corrige o bug COUNT de correção quando a subconsulta escalar tiver uma cláusula group by
    • [SPARK-40862] Suportar subconsultas não agregadas em RewriteCorrelatedScalarSubquery
    • [SPARK-43156][SPARK-43098] Teste de contagem de subconsultas escalar estendida com decorrelateInnerQuery desativado.
    • Atualizações de segurança do sistema operacional.
  • 2 de junho de 2023
    • O analisador JSON no modo failOnUnknownFields descarta um registro no modo DROPMALFORMED e falha diretamente no modo FAILFAST.
    • Corrigido um problema na análise de dados resgatados JSON para evitar UnknownFieldException.
    • Corrigido um problema no Carregador Automático em que diferentes formatos de arquivo de origem eram inconsistentes quando o esquema fornecido não incluía partições inferidas. Esse problema pode causar falhas inesperadas ao ler arquivos com colunas ausentes no esquema de partição inferido.
    • [SPARK-43404] Ignorar a reutilização do arquivo SST para a mesma versão do armazenamento de estado do RocksDB para evitar erro de incompatibilidade de ID.
    • [SPARK-43413] Corrigida a subconsulta IN da nulidade ListQuery.
    • Atualizações de segurança do sistema operacional.
  • 17 de maio de 2023
    • As verificações parquet agora são robustas em relação aos OOMs ao verificar arquivos excepcionalmente estruturados ajustando dinamicamente o tamanho do lote. Os metadados de arquivo são analisados para reduzir preventivamente o tamanho do lote e são reduzidos novamente em tentativas de tarefa como uma rede de segurança final.
    • [SPARK-41520] Dividir padrão de árvore AND_OR para separar AND e OR.
    • [SPARK-43190]ListQuery.childOutput agora é consistente com a saída secundária.
    • Atualizações de segurança do sistema operacional.
  • 25 de abril de 2023
    • [SPARK-42928] Tornar o resolvePersistentFunction sincronizado.
    • Atualizações de segurança do sistema operacional.
  • 11 de abril de 2023
    • Correção de um problema em que a evolução do esquema do Carregador Automático pode entrar em um loop de falha infinito quando uma nova coluna é detectada no esquema de um objeto JSON aninhado.
    • [SPARK-42937]PlanSubqueries agora define InSubqueryExec#shouldBroadcast como verdadeiro.
    • [SPARK-42967] Corrigir SparkListenerTaskStart.stageAttemptId quando uma tarefa é iniciada após o cancelamento do estágio.
  • 29 de março de 2023
    • [SPARK-42668] Capturar exceção ao tentar fechar o fluxo compactado na interrupção de HDFSStateStoreProvider
    • [SPARK-42635] Corrigir o…
    • Atualizações de segurança do sistema operacional.
  • 14 de março de 2023
    • [SPARK-41162] Corrigir a junção anti e semi para autojunção com agregações
    • [SPARK-33206] Corrigir o cache de índice de cálculo de peso em ordem aleatória para arquivos de índice pequenos
    • [SPARK-42484] Aprimorou a mensagem de erro UnsafeRowUtils
    • Correções diversas.
  • 28 de fevereiro de 2023
    • Suporte à coluna gerada para yyyy-MM-dd date_format. Essa alteração dá suporte à remoção de partição para aaaa-MM-dd como um date_format em colunas geradas.
    • Os usuários agora podem ler e gravar tabelas Delta específicas que exigem o Leitor versão 3 e o Gravador versão 7, usando o Databricks Runtime 9.1 LTS ou posterior. Para ter êxito, os recursos de tabela listados no protocolo das tabelas devem ter suporte da versão atual do Databricks Runtime.
    • Suporte à coluna gerada para yyyy-MM-dd date_format. Essa alteração dá suporte à remoção de partição para aaaa-MM-dd como um date_format em colunas geradas.
    • Atualizações de segurança do sistema operacional.
  • 16 de fevereiro de 2023
    • [SPARK-30220] Habilitar o uso de subconsultas Exists/In fora do nó Filtro
    • Atualizações de segurança do sistema operacional.
  • 31 de janeiro de 2023
    • Os tipos de tabelas JDBC agora são EXTERNAL por padrão.
  • 18 de janeiro de 2023
    • O conector do Azure Synapse retorna uma mensagem de erro mais descritiva quando um nome de coluna contém caracteres inválidos, como espaços em branco ou ponto e vírgula. Nesses casos, a seguinte mensagem será retornada: Azure Synapse Analytics failed to run the JDBC query produced by the connector. Check column names do not include not valid characters such as ';' or white space.
    • [SPARK-38277] Limpar o lote de gravação após a confirmação do armazenamento de estado de RocksDB
    • [SPARK-41199] Corrigir o problema de métricas quando a fonte de transmissão DSv1 e a fonte de transmissão DSv2 são coutilizadas
    • [SPARK-41198] Corrigir métricas na consulta de transmissão com fonte de transmissão CTE e DSv1
    • [SPARK-41339] Fechar e recriar o lote de gravação de RocksDB em vez de apenas limpar
    • [SPARK-41732] Aplicar remoção baseada em padrão de árvore para a regra SessionWindowing
    • Atualizações de segurança do sistema operacional.
  • 29 de novembro de 2022
    • Os usuários podem configurar o comportamento dos espaços em branco à esquerda e à direita ao escrever dados usando o conector do Redshift. As seguintes opções foram adicionadas para controlar o tratamento de espaço em branco:
      • csvignoreleadingwhitespace, quando definido como true, remove o espaço em branco à esquerda dos valores ao escrever quando tempformat é definido como CSV ou CSV GZIP. Os espaços em branco são mantidos quando a configuração é definida como false. Por padrão, o valor é true.
      • csvignoretrailingwhitespace, quando definido como true, remove o espaço em branco à direita dos valores ao escrever quando tempformat é definido como CSV ou CSV GZIP. Os espaços em branco são mantidos quando a configuração é definida como false. Por padrão, o valor é true.
    • Corrigido um problema com análise de JSON no Carregador Automático quando todas as colunas eram deixadas como cadeias de caracteres (cloudFiles.inferColumnTypes não era definido como false) e o JSON continha objetos aninhados.
    • Atualizações de segurança do sistema operacional.
  • 15 de novembro de 2022
    • Atualização do Apache commons-text para 1.10.0.
    • [SPARK-40646] A análise de JSON para structs, mapas e matrizes foi corrigida para que, quando uma parte de um registro não corresponder ao esquema, o restante do registro ainda possa ser analisado corretamente em vez de retornar nulos. Para aceitar o comportamento aprimorado, defina spark.sql.json.enablePartialResults como true. O sinalizador é desabilitado por padrão para preservar o comportamento original.
    • [SPARK-40292] Corrigir os nomes da coluna na função arrays_zip quando as matrizes forem referenciadas por structs aninhados
    • Atualizações de segurança do sistema operacional.
  • 1º de novembro de 2022
    • Corrigido um problema em que, se uma tabela Delta tivesse uma coluna definida pelo usuário chamada _change_type, mas se Alterar feed de dados estivesse desabilitado nessa tabela, os dados dessa coluna preencheriam incorretamente com valores NULL ao executar MERGE.
    • Corrigido um problema com o Carregador Automático em que um arquivo podia ser duplicado no mesmo microlote quando allowOverwrites estivesse habilitado
    • [SPARK-40697] Adicionar preenchimento de caracteres do lado da leitura para cobrir arquivos de dados externos
    • [SPARK-40596] Preencher ExecutorDecommission com mensagens em ExecutorDecommissionInfo
    • Atualizações de segurança do sistema operacional.
  • 18 de outubro de 2022
    • Atualizações de segurança do sistema operacional.
  • 5 de outubro de 2022
    • [SPARK-40468] Corrigir a remoção de coluna no CSV quando _corrupt_record estiver selecionado.
    • Atualizações de segurança do sistema operacional.
  • 22 de setembro de 2022
    • Os usuários podem definir spark.conf.set(spark.databricks.io.listKeysWithPrefix.azure.enabled, true) para reabilitar a listagem interna do Carregador Automático no ADLS Gen2. A listagem interna foi desativada anteriormente devido a problemas de desempenho, mas pode ter gerado um aumento nos custos de armazenamento para os clientes.
    • [SPARK-40315] Adicionar hashCode() para Literal de ArrayBasedMapData
    • [SPARK-40213] Suporte à conversão de valor ASCII para caracteres Latin-1
    • [SPARK-40380] Corrigir dobra constante de InvokeLike para evitar literais não serializáveis inseridos no plano
    • [SPARK-38404] Aprimorar a resolução de CTE quando uma CTE aninhada faz referência a uma CTE externa
    • [SPARK-40089] Corrigir a classificação para alguns tipos Decimais
    • [SPARK-39887] RemoveRedundantAliases deve manter os aliases que tornam a saída de nós de projeção exclusiva
  • 06 de setembro de 2022
    • SPARK-40235 Usar o bloqueio interruptível em vez de sincronizado em Executor.updateDependencies()
    • [SPARK-40218] Os GROUPING SETS devem preservar as colunas de agrupamento
    • [SPARK-39976] O ArrayIntersect deve processar null na expressão à esquerda corretamente
    • [SPARK-40053] Adicinoar assume aos casos de cancelamento dinâmico que exigem o ambiente de runtime do Python
    • [SPARK-35542] Correção: o classificador em buckets criado para várias colunas com os parâmetros splitsArray, inputCols e outputCols não pode ser carregado após salvá-lo
    • [SPARK-40079] Adição da validação inputCols do imputador para o caso de entrada vazio
  • 24 de agosto de 2022
    • [SPARK-39983] Não armazenar as relações de transmissão não serializadas em cache no driver
    • [SPARK-39775] Desabilitar a validação de valores padrão ao analisar esquemas Avro
    • [SPARK-39962] Aplicar projeção quando os atributos de grupo estiverem vazios
    • [SPARK-37643] Quando charVarcharAsString for verdadeiro, a consulta de predicado de tipo de dados char deve ignorar a regra de rpadding
    • Atualizações de segurança do sistema operacional.
  • 9 de agosto de 2022
    • [SPARK-39847] Corrigir condição de disputa em RocksDBLoader.loadLibrary() se o thread do chamador for interrompido
    • [SPARK-39731] Corrigir problemas em fontes de dados CSV e JSON ao analisar datas no formato "yyyyMMdd" com política de analisador de tempo CORRIGIDA
    • Atualizações de segurança do sistema operacional.
  • 27 de julho de 2022
    • [SPARK-39625] Adicionar Dataset.as(StructType)
    • [SPARK-39689] Suportar lineSep de 2 caracteres na fonte de dados CSV
    • [SPARK-39104] InMemoryRelation#isCachedColumnBuffersLoaded deve ser thread-safe
    • [SPARK-39570] A tabela embutida deve permitir expressões com alias
    • [SPARK-39702] Reduzir a sobrecarga de memória de TransportCipher$EncryptedMessage usando um byteRawChannel compartilhado
    • [SPARK-39575] Adicionar ByteBuffer#rewind após ByteBuffer#get no AvroDeserializer
    • [SPARK-39476] Desabilitar a otimização de conversão de cancelamento de quebra de linha ao converter de Long para Float/Double ou de Integer para Float
    • [SPARK-38868] Não propagar exceções do predicado de filtro ao otimizar junções externas
    • Atualizações de segurança do sistema operacional.
  • 20 de julho de 2022
    • Torne os resultados da operação Delta MERGE consistentes quando a origem não for determinística.
    • [SPARK-39355] A coluna única usa aspas para construir UnresolvedAttribute
    • [SPARK-39548] O comando CreateView com uma consulta de cláusula de janela pressionou uma definição de janela errada. Problema não encontrado
    • [SPARK-39419] Corrigir ArraySort para lançar uma exceção quando o comparador retorna nulo
    • Desabilitado o uso de APIs de nuvem internas do Carregador Automático para listagem de diretórios no Azure.
    • Atualizações de segurança do sistema operacional.
  • 5 de julho de 2022
    • [SPARK-39376] Ocultar colunas duplicadas na expansão em estrela do alias de subconsulta de NATURAL/USING JOIN
    • Atualizações de segurança do sistema operacional.
  • 15 de junho de 2022
    • [SPARK-39283]Corrigir o deadlock entre TaskMemoryManager e UnsafeExternalSorter.SpillableIterator
    • [SPARK-39285] O Spark não deve verificar nomes de campo ao ler arquivos
    • [SPARK-34096] Aprimorar o desempenho de nth_value e ignorar nulos durante a janela de deslocamento
    • [SPARK-36718] Corrigir a verificação isExtractOnly em CollapseProject
  • 2 de junho de 2022
    • [SPARK-39093] Evitar o erro de compilação de codegen ao dividir intervalos de ano-mês ou intervalos de dia-hora por um integral
    • [SPARK-38990] Evitar NullPointerException ao avaliar o formato date_trunc/trunc como uma referência associada
    • Atualizações de segurança do sistema operacional.
  • 18 de maio de 2022
    • Corrige um possível vazamento de memória interna no Carregador Automático.
    • [SPARK-38918] A remoção de coluna aninhada deve filtrar atributos que não pertencem à relação atual
    • [SPARK-37593] Reduzir o tamanho da página padrão por LONG_ARRAY_OFFSET se G1GC e ON_HEAP forem usados
    • [SPARK-39084] Corrigir df.rdd.isEmpty() usando TaskContext para interromper o enumerador na conclusão da tarefa
    • [SPARK-32268] Adicionar ColumnPruning em injectBloomFilter
    • [SPARK-38974] Filtrar funções registradas com um determinado nome de banco de dados em funções de lista
    • [SPARK-38931] Criar diretório dfs raiz para RocksDBFileManager com um número desconhecido de chaves no 1º ponto de verificação
    • Atualizações de segurança do sistema operacional.
  • 19 de abril de 2022
    • SDK do Java AWS atualizado da versão 1.11.655 para 1.12.1899.
    • Corrigido um problema com bibliotecas com escopo de notebook que não funcionavam em trabalhos de streaming em lotes.
    • [SPARK-38616] Acompanhar texto de consulta SQL no Catalyst TreeNode
    • Atualizações de segurança do sistema operacional.
  • 6 de abril de 2022
    • As seguintes funções SQL do Spark agora estão disponíveis com esta versão:
      • timestampadd() e dateadd(): adicionar uma duração de tempo em uma unidade especificada a uma expressão de carimbo de data/hora.
      • timestampdiff() e datediff(): calcular a diferença de tempo entre duas expressões de carimbo de data/hora em uma unidade especificada.
    • O Parquet-MR foi atualizado para 1.12.2
    • Suporte aprimorado para esquemas abrangentes em arquivos parquet
    • [SPARK-38631] Usa a implementação baseada em Java para descoberta em Utils.unpack
    • [SPARK-38509][SPARK-38481] Cherry-pick de três alterações de timestmapadd/diff.
    • [SPARK-38523] Correção referente à coluna de registro corrompido do CSV
    • [SPARK-38237] Permitir que ClusteredDistribution exija chaves de clustering completas
    • [SPARK-38437] Serialização branda de datetime da fonte de dados
    • [SPARK-38180] Permitir expressões de up-cast seguras em predicados de igualdade correlacionados
    • [SPARK-38155] Não permitir agregação distinta em subconsultas laterais com predicados sem suporte
    • Atualizações de segurança do sistema operacional.

Databricks Runtime 9.1 LTS

Consulte Databricks Runtime 9.1 LTS.

  • 29 de novembro de 2023
    • [SPARK-45859] Tornou objetos UDF em ml.functions lentos.
    • [SPARK-45544] Suporte integrado a SSL em TransportContext.
    • [SPARK-45730] Restrições de tempo aprimoradas para ReloadingX509TrustManagerSuite.
    • Atualizações de segurança do sistema operacional.
  • 14 de novembro de 2023
    • [SPARK-45545]SparkTransportConf herda SSLOptions na criação.
    • [SPARK-45429] Classes auxiliares adicionadas para comunicação SSL RPC.
    • [SPARK-45427] Configurações adicionadas de RPC SSL para SSLOptions e SparkTransportConf.
    • [SPARK-45584] Falha de execução corrigida de subconsulta com TakeOrderedAndProjectExec.
    • [SPARK-45541]SSLFactory adicionado.
    • [SPARK-42205] Removidos os acumuladores de log nos eventos de início Stage e Task.
    • Atualizações de segurança do sistema operacional.
  • 24 de outubro de 2023
    • [SPARK-45426] Suporte adicionado para ReloadingX509TrustManager.
    • Atualizações de segurança do sistema operacional.
  • 13 de outubro de 2023
    • Atualizações de segurança do sistema operacional.
  • 10 de setembro de 2023
    • Correções diversas.
  • 30 de agosto de 2023
    • Atualizações de segurança do sistema operacional.
  • 15 de agosto de 2023
    • Atualizações de segurança do sistema operacional.
  • 23 de junho de 2023
    • A biblioteca Snowflake-jdbc foi atualizada para 3.13.29 para que fosse resolvido um problema de segurança.
    • Atualizações de segurança do sistema operacional.
  • 15 de junho de 2023
    • [SPARK-43098] Corrige o bug COUNT de correção quando a subconsulta escalar tiver uma cláusula group by
    • [SPARK-43156][SPARK-43098] Teste de bug de contagem de subconsultas escalar estendida com decorrelateInnerQuery desativado.
    • [SPARK-40862] Suportar subconsultas não agregadas em RewriteCorrelatedScalarSubquery
    • Atualizações de segurança do sistema operacional.
  • 2 de junho de 2023
    • O analisador JSON no modo failOnUnknownFields descarta um registro no modo DROPMALFORMED e falha diretamente no modo FAILFAST.
    • Corrigido um problema na análise de dados resgatados JSON para evitar UnknownFieldException.
    • Corrigido um problema no Carregador Automático em que diferentes formatos de arquivo de origem eram inconsistentes quando o esquema fornecido não incluía partições inferidas. Esse problema pode causar falhas inesperadas ao ler arquivos com colunas ausentes no esquema de partição inferido.
    • [SPARK-37520] Adicionar as funções de cadeia de caracteres startswith() e endswith()
    • [SPARK-43413] Corrigida a subconsulta IN da nulidade ListQuery.
    • Atualizações de segurança do sistema operacional.
  • 17 de maio de 2023
    • Atualizações de segurança do sistema operacional.
  • 25 de abril de 2023
    • Atualizações de segurança do sistema operacional.
  • 11 de abril de 2023
    • Correção de um problema em que a evolução do esquema do Carregador Automático pode entrar em um loop de falha infinito quando uma nova coluna é detectada no esquema de um objeto JSON aninhado.
    • [SPARK-42967] Corrigir SparkListenerTaskStart.stageAttemptId quando uma tarefa é iniciada após o cancelamento do estágio.
  • 29 de março de 2023
    • Atualizações de segurança do sistema operacional.
  • 14 de março de 2023
    • [SPARK-42484] Aprimorou a mensagem de erro para UnsafeRowUtils.
    • Correções diversas.
  • 28 de fevereiro de 2023
    • Os usuários agora podem ler e gravar tabelas Delta específicas que exigem o Leitor versão 3 e o Gravador versão 7, usando o Databricks Runtime 9.1 LTS ou posterior. Para ter êxito, os recursos de tabela listados no protocolo das tabelas devem ter suporte da versão atual do Databricks Runtime.
    • Atualizações de segurança do sistema operacional.
  • 16 de fevereiro de 2023
    • Atualizações de segurança do sistema operacional.
  • 31 de janeiro de 2023
    • Os tipos de tabelas JDBC agora são EXTERNAL por padrão.
  • 18 de janeiro de 2023
    • Atualizações de segurança do sistema operacional.
  • 29 de novembro de 2022
    • Corrigido um problema com análise de JSON no Carregador Automático quando todas as colunas eram deixadas como cadeias de caracteres (cloudFiles.inferColumnTypes não era definido como false) e o JSON continha objetos aninhados.
    • Atualizações de segurança do sistema operacional.
  • 15 de novembro de 2022
    • Atualização do Apache commons-text para 1.10.0.
    • Atualizações de segurança do sistema operacional.
    • Correções diversas.
  • 1º de novembro de 2022
    • Corrigido um problema em que, se uma tabela Delta tivesse uma coluna definida pelo usuário chamada _change_type, mas se Alterar feed de dados estivesse desabilitado nessa tabela, os dados dessa coluna preencheriam incorretamente com valores NULL ao executar MERGE.
    • Corrigido um problema com o Carregador Automático em que um arquivo podia ser duplicado no mesmo microlote quando allowOverwrites estivesse habilitado
    • [SPARK-40596] Preencher ExecutorDecommission com mensagens em ExecutorDecommissionInfo
    • Atualizações de segurança do sistema operacional.
  • 18 de outubro de 2022
    • Atualizações de segurança do sistema operacional.
  • 5 de outubro de 2022
    • Correções diversas.
    • Atualizações de segurança do sistema operacional.
  • 22 de setembro de 2022
    • Os usuários podem definir spark.conf.set(“spark.databricks.io.listKeysWithPrefix.azure.enabled”, “true”) para reabilitar a listagem interna do Carregador Automático no ADLS Gen2. A listagem interna foi desativada anteriormente devido a problemas de desempenho, mas pode ter gerado um aumento nos custos de armazenamento para os clientes.
    • [SPARK-40315] Adicionar hashCode() para Literal de ArrayBasedMapData
    • [SPARK-40089] Corrigir a classificação para alguns tipos Decimais
    • [SPARK-39887] RemoveRedundantAliases deve manter os aliases que tornam a saída de nós de projeção exclusiva
  • 06 de setembro de 2022
    • SPARK-40235 Usar o bloqueio interruptível em vez de sincronizado em Executor.updateDependencies()
    • [SPARK-35542] Correção: o classificador em buckets criado para várias colunas com os parâmetros splitsArray, inputCols e outputCols não pode ser carregado após salvá-lo
    • [SPARK-40079] Adição da validação inputCols do imputador para o caso de entrada vazio
  • 24 de agosto de 2022
    • [SPARK-39666] Usar UnsafeProjection.create para respeitar spark.sql.codegen.factoryMode em ExpressionEncoder
    • [SPARK-39962] Aplicar projeção quando os atributos de grupo estiverem vazios
    • Atualizações de segurança do sistema operacional.
  • 9 de agosto de 2022
    • Atualizações de segurança do sistema operacional.
  • 27 de julho de 2022
    • Torne os resultados da operação Delta MERGE consistentes quando a origem não for determinística.
    • [SPARK-39689] Suporte para lineSep de 2 caracteres na fonte de dados CSV
    • [SPARK-39575]ByteBuffer#rewind adicionado após ByteBuffer#get no AvroDeserializer.
    • [SPARK-37392] Corrigido o erro de desempenho do otimizador do catalisador.
    • Atualizações de segurança do sistema operacional.
  • 13 de julho de 2022
    • [SPARK-39419]ArraySort lança uma exceção quando o comparador retorna nulo.
    • Desabilitado o uso de APIs de nuvem internas do Carregador Automático para listagem de diretórios no Azure.
    • Atualizações de segurança do sistema operacional.
  • 5 de julho de 2022
    • Atualizações de segurança do sistema operacional.
    • Correções diversas.
  • 15 de junho de 2022
    • [SPARK-39283] Corrigir o deadlock entre TaskMemoryManager e UnsafeExternalSorter.SpillableIterator.
  • 2 de junho de 2022
    • [SPARK-34554]Implementar o método copy() em ColumnarMap.
    • Atualizações de segurança do sistema operacional.
  • 18 de maio de 2022
    • Corrigido um possível vazamento de memória interna no Carregador Automático.
    • Atualize a versão do SDK do AWS da 1.11.655 para a 1.11.678.
    • [SPARK-38918] A remoção de coluna aninhada deve filtrar atributos que não pertencem à relação atual
    • [SPARK-39084] Corrigir df.rdd.isEmpty() usando TaskContext para interromper o enumerador na conclusão da tarefa
    • Atualizações de segurança do sistema operacional.
  • 19 de abril de 2022
    • Atualizações de segurança do sistema operacional.
    • Correções diversas.
  • 6 de abril de 2022
    • [SPARK-38631] Usa a implementação baseada em Java para descoberta em Utils.unpack
    • Atualizações de segurança do sistema operacional.
  • 22 de março de 2022
    • Alteração do diretório de trabalho atual dos notebooks em clusters de simultaneidade alta com controle de acesso de tabela ou passagem de credencial habilitada para o diretório inicial do usuário. Anteriormente, o diretório ativo era /databricks/driver.
    • [SPARK-38437] Serialização branda de datetime da fonte de dados
    • [SPARK-38180] Permitir expressões de up-cast seguras em predicados de igualdade correlacionados
    • [SPARK-38155] Não permitir agregação distinta em subconsultas laterais com predicados sem suporte
    • [SPARK-27442] Removido um campo de verificação ao ler ou gravar dados em um parquet.
  • 14 de março de 2022
    • [SPARK-38236]Os caminhos absolutos de arquivo especificados na tabela criar/alterar são tratados como relativos
    • [SPARK-34069] Interromper thread da tarefa se a propriedade local SPARK_JOB_INTERRUPT_ON_CANCEL estiver definida como verdadeiro.
  • 23 de fevereiro de 2022
    • [SPARK-37859] As tabelas SQL criadas com o JDBC com Spark 3.1 não podem ser lidas com o Spark 3.2.
  • 8 de fevereiro de 2022
    • [SPARK-27442] Removido um campo de verificação ao ler ou gravar dados em um parquet.
    • Atualizações de segurança do sistema operacional.
  • 1° de fevereiro de 2022
    • Atualizações de segurança do sistema operacional.
  • 26 de janeiro de 2022
    • Corrigido um problema em que as transações simultâneas em tabelas Delta podiam ser executadas em uma ordem não serializável em determinadas condições raras.
    • Corrigido um problema em que o comando OPTIMIZE poderia falhar quando o dialeto ANSI SQL estava habilitado.
  • 19 de janeiro de 2022
    • Correções secundárias e aprimoramentos de segurança.
    • Atualizações de segurança do sistema operacional.
  • 4 de novembro de 2021
    • Corrigido um problema que fazia com que fluxos do Fluxo Estruturado falhassem com um ArrayIndexOutOfBoundsException.
    • Corrigiu uma condição de corrida que pode causar uma falha de consulta com uma IOException como java.io.IOException: No FileSystem for scheme ou que pode fazer com que as modificações em sparkContext.hadoopConfiguration não afetem as consultas.
    • O Apache Spark Conector para compartilhamento Delta foi atualizado para 0.2.0.
  • 20 de outubro de 2021
    • Conector do BigQuery atualizado de 0.18.1 para 0.22.2. Isso adiciona suporte para o tipo BigNumeric.

Databricks Runtime 13.0 (sem suporte)

Confira Databricks Runtime 13.0 (sem suporte).

  • 13 de outubro de 2023

    • A dependência snowflake-jdbc foi atualizada de 3.13.29 para a 3.13.33.
    • [SPARK-42553][SQL] Garante pelo menos uma unidade de tempo após intervalo.
    • [SPARK-45178] Fallback para executar um lote único para Trigger.AvailableNow com fontes sem suporte em vez de usar wrapper.
    • [SPARK-44658][CORE] ShuffleStatus.getMapStatus retorna None em vez de Some(null).
    • [SPARK-42205][CORE] Remova o registro em log de Accumulables em eventos de início de tarefa/estágio em JsonProtocol.
    • Atualizações de segurança do sistema operacional.
  • 12 de setembro de 2023

    • [SPARK-44485][SQL] Otimizar TreeNode.generateTreeString.
    • [SPARK-44718][SQL] Corresponder o padrão ColumnVector de configuração do modo de memória ao valor de configuração OffHeapMemoryMode.
    • Diversas correções de bugs.
  • 30 de agosto de 2023

    • [SPARK-44818][Backport] Correção da corrida para interrupção de tarefa pendente emitida antes taskThread de ser inicializado.
    • [SPARK-44714] Facilidade de restrição da resolução LCA em relação às consultas.
    • [SPARK-44245][PYTHON] pyspark.sql.dataframe sample() os doctests agora são somente ilustrativos.
    • [11.3-13.0] [[SPARK-44871]]https://issues.apache.org/jira/browse/SPARK-44871) [SQL] Comportamento percentile_disc corrigido.
    • Atualizações de segurança do sistema operacional.
  • 15 de agosto de 2023

    • [SPARK-44643][SQL][PYTHON] Correção Row.__repr__ quando a linha está vazia.
    • [SPARK-44504][Backport] A tarefa de manutenção limpa os provedores carregados em caso de erro de parada.
    • [SPARK-44479][CONNECT][PYTHON] Conversão fixa protobuf de um tipo de estrutura vazia.
    • [SPARK-44464][SS] applyInPandasWithStatePythonRunner Corrigido para linhas de saída que têm Null como valor de primeira coluna.
    • Diversas correções de bugs.
  • 29 de julho de 2023

    • Foi corrigido um bug em que dbutils.fs.ls() retornava INVALID_PARAMETER_VALUE.LOCATION_OVERLAP quando chamado para um caminho de local de armazenamento que entrava em conflito com outro local de armazenamento externo ou gerenciado.
    • [SPARK-44199]CacheManager não atualiza mais o fileIndex desnecessariamente.
    • Atualizações de segurança do sistema operacional.
  • 24 de julho de 2023

    • Foi corrigido um problema [SPARK-44337][PROTOBUF] em que qualquer campo definido como Any.getDefaultInstance causava erros de análise.
    • [SPARK-44136] [SS] Corrigido um problema em que StateManager era materializado em um executor em vez de um driver em FlatMapGroupsWithStateExec.
    • Reverter a atribuição “[SPARK-42323][SQL] de nome para _LEGACY_ERROR_TEMP_2332.
    • Atualizações de segurança do sistema operacional.
  • 23 de junho de 2023

    • Atualizações de segurança do sistema operacional.
  • 15 de junho de 2023

    • approx_count_distinct fotonizado.
    • A biblioteca Snowflake-jdbc foi atualizada para 3.13.29 para que fosse resolvido um problema de segurança.
    • [SPARK-43156][SPARK-43098][SQL] Estenda o teste de bug de contagem de subconsultas escalares com decorrelateInnerQuery desabilitado
    • [SPARK-43779][SQL] Agora, ParseToDate carrega EvalMode no thread principal.
    • [SPARK-42937][SQL] PlanSubqueries deve definir InSubqueryExec#shouldBroadcast como true
    • Atualizações de segurança do sistema operacional.
  • 2 de junho de 2023

    • O analisador JSON no modo failOnUnknownFields descarta um registro no modo DROPMALFORMED e falha diretamente no modo FAILFAST.
    • Melhoria do desempenho da atualização incremental com Iceberg e Parquet SHALLOW CLONE.
    • Corrigido um problema no Carregador Automático em que diferentes formatos de arquivo de origem eram inconsistentes quando o esquema fornecido não incluía partições inferidas. Esse problema pode causar falhas inesperadas ao ler arquivos com colunas ausentes no esquema de partição inferido.
    • [SPARK-43404][Backport] Ignore a reutilização do arquivo sst para a mesma versão do armazenamento de estado do RocksDB para evitar erro de incompatibilidade de ID.
    • [SPARK-43340][CORE] Corrigido o campo de rastreamento de pilha ausente nos logs de eventos.
    • [SPARK-43300][CORE] NonFateSharingCache wrapper para o cache Guava.
    • [SPARK-43378][CORE] Feche corretamente os objetos de fluxo em deserializeFromChunkedBuffer.
    • [SPARK-16484][SQL] Use registradores de 8 bits para representar DataSketches.
    • [SPARK-43522][SQL] Corrigida a criação de nome da coluna struct com índice de matriz.
    • [SPARK-43413][11.3-13.0][SQL] Corrigida a nulidade IN da subconsulta ListQuery.
    • [SPARK-43043][CORE] Desempenho MapOutputTracker.updateMapOutput aprimorado.
    • [SPARK-16484][SQL] Adicionado suporte para DataSketches HllSketch.
    • [SPARK-43123][SQL] Os metadados de campos internos não vazam mais para os catálogos.
    • [SPARK-42851][SQL] Proteja EquivalentExpressions.addExpr() com supportedExpression().
    • [SPARK-43336][SQL] Casting entre Timestamp e TimestampNTZ requer fuso horário.
    • [SPARK-43286][SQL] Modo CBC aes_encrypt atualizado para gerar IVs aleatórios.
    • [SPARK-42852][SQL] Alterações relacionadas revertidas NamedLambdaVariable de EquivalentExpressions.
    • [SPARK-43541][SQL] Propague todas as marcas Project na resolução de expressões e colunas ausentes.
    • [SPARK-43527][PYTHON] Corrigido catalog.listCatalogs no PySpark.
    • Atualizações de segurança do sistema operacional.
  • 31 de maio de 2023

    • O suporte de gravação otimizado padrão para tabelas Delta registradas no Catálogo do Unity foi expandido para incluir instruções CTAS e operações INSERT para tabelas particionadas. Esse comportamento se alinha aos padrões em SQL warehouses. Consulte Gravações otimizadas para o Delta Lake no Azure Databricks.
  • 17 de maio de 2023

    • Correção de uma regressão em que _metadata.file_path e _metadata.file_name retornariam cadeias de caracteres formatadas incorretamente. Por exemplo, agora um caminho com espaços é representado como s3://test-bucket/some%20directory/some%20data.csv em vez de s3://test-bucket/some directory/some data.csv.
    • As verificações parquet agora são robustas em relação aos OOMs ao verificar arquivos excepcionalmente estruturados ajustando dinamicamente o tamanho do lote. Os metadados de arquivo são analisados para reduzir preventivamente o tamanho do lote e são reduzidos novamente em tentativas de tarefa como uma rede de segurança final.
      • Se um arquivo Avro fosse lido apenas com a opção failOnUnknownFields\ ou com o Carregador Automático no modo de evolução do esquema failOnNewColumns\, as colunas que têm tipos de dados diferentes seriam lidas como null\ em vez de gerar um erro informando que o arquivo não pode ser lido. Essas leituras agora falham e recomendam que os usuários usem a opção rescuedDataColumn\.
    • O Carregador Automático agora faz o seguinte.
      • Lê e não resgata mais corretamente os tipos Integer, Short, Byte se um desses tipos de dados for fornecido, mas o arquivo Avro sugerir um dos outros dois tipos.
      • Impede a leitura de tipos de intervalo como tipos de data ou carimbo de data/hora para evitar a obtenção de datas corrompidas.
      • Impede tipos de leitura Decimal com precisão mais baixa.
    • [SPARK-43172] [CONNECT] Expõe o host e o token do cliente Spark connect.
    • [SPARK-43293][SQL] __qualified_access_only é ignorado em colunas normais.
    • [SPARK-43098][SQL] Corrigido o bug de correção COUNT quando a subconsulta escalar é agrupada por cláusula.
    • [SPARK-43085][SQL] Suporte para atribuição de coluna DEFAULT para nomes de tabela de várias partes.
    • [SPARK-43190][SQL] ListQuery.childOutput agora é consistente com a saída secundária.
    • [SPARK-43192] [CONNECT] Removeu a validação do conjunto de caracteres do agente de usuário.
  • 25 de abril de 2023

    • Você pode modificar uma tabela Delta para adicionar suporte a um recurso de tabela Delta usando DeltaTable.addFeatureSupport(feature_name).
    • O comando SYNC agora dá suporte a formatos de fonte de dados herdados.
    • Correção de um bug em que usar o formatador do Python antes de executar outros comandos em um notebook Python poderia fazer com que o caminho do notebook estivesse ausente de sys.path.
    • O Azure Databricks agora dá suporte à especificação de valores padrão para colunas de tabelas Delta. Os comandos INSERT, UPDATE,DELETE, e MERGE podem se referir ao valor padrão de uma coluna usando a palavra-chave explícita DEFAULT. Para comandos INSERT com uma lista explícita de menos colunas do que a tabela de destino, os valores padrão de coluna correspondentes são substituídos pelas colunas restantes (ou NULL se nenhum padrão for especificado).
  • Corrige um bug em que o terminal da Web não pôde ser usado para acessar arquivos no /Workspace para alguns usuários.

    • Se um arquivo Parquet fosse lido apenas com a opção failOnUnknownFields ou com o Carregador Automático no modo de evolução do esquema failOnNewColumns, as colunas que têm tipos de dados diferentes seriam lidas como null em vez de gerar um erro informando que o arquivo não pode ser lido. Essas leituras agora falham e recomendam que os usuários usem a opção rescuedDataColumn.
    • O Carregador Automático agora lê corretamente e não resgata mais os tipos Integer, Short, Byte se um desses tipos de dados for fornecido. O arquivo Parquet sugere um dos outros dois tipos. Quando a coluna de dados resgatados foi habilitada anteriormente, a incompatibilidade de tipo de dados faria com que as colunas fossem resgatadas mesmo que fossem legíveis.
    • Correção de um bug em que a evolução do esquema do Carregador Automático pode entrar em um loop de falha infinito, quando uma nova coluna é detectada no esquema de um objeto JSON aninhado.
    • [SPARK-42794][SS] Aumentar o lockAcquireTimeoutMs para 2 minutos para adquirir o repositório de estado RocksDB no Structure Streaming.
    • [SPARK-39221][SQL] Fazer com que as informações confidenciais sejam redigidas corretamente para a guia trabalho/estágio do servidor thrift.
    • [SPARK-42971][CORE] Alterar para imprimir workdir se appDirs for nulo quando o evento de identificador WorkDirCleanup de trabalho.
    • [SPARK-42936] [SQL] Corrigir o bug LCA quando a cláusula having pode ser resolvida diretamente pela agregação filho.
    • [SPARK-43018][SQL] Corrigir o bug para comandos INSERT com literais de carimbo de data/hora.
    • Reverta [SPARK-42754][SQL][UI] Corrigir problema de compatibilidade com versões anteriores na execução aninhada do SQL.
    • [SPARK-41498] [SC-119018] Propagar metadados por meio de União.
    • [SPARK-43038] [SQL] Suporte ao modo GCM poraes_encrypt()/aes_decrypt()
    • [SPARK-42928][SQL] Fazer a sincronização resolvePersistentFunction.
    • [SPARK-42521][SQL] Adicionar valores NULL para INSERT com listas especificadas pelo usuário de menos colunas do que a tabela de destino.
    • [SPARK-41391][SQL] O nome da coluna de saída de groupBy.agg(count_distinct) estava incorreto.
    • [SPARK-42548][SQL] Adicionar ReferenceAllColumns para ignorar atributos de reescrita.
    • [SPARK-42423][SQL] Adicionar início e comprimento do bloco de arquivo de coluna de metadados.
    • [SPARK-42796][SQL] Suporte ao acesso a TimestampNTZ colunas no CachedBatch.
    • [SPARK-42266][PYTHON] Remover o diretório pai em shell.py executado quando o IPython for usado.
    • [SPARK-43011][SQL] array_insert deve falhar com o índice 0.
    • [SPARK-41874][CONNECT][PYTHON] Suporte SameSemantics no Spark Connect.
    • [SPARK-42702][SPARK-42623][SQL] Suporte à consulta parametrizada em subconsulta e CTE.
    • [SPARK-42967][CORE] Correção SparkListenerTaskStart.stageAttemptId quando uma tarefa é iniciada após o cancelamento do estágio.
    • Atualizações de segurança do sistema operacional.

Databricks Runtime 12.1 (sem suporte)

Confira Databricks Runtime 12.1 (sem suporte).

  • 23 de junho de 2023

    • Atualizações de segurança do sistema operacional.
  • 15 de junho de 2023

    • approx_count_distinct fotonizado.
    • A biblioteca Snowflake-jdbc foi atualizada para 3.13.29 para que fosse resolvido um problema de segurança.
    • [SPARK-43779][SQL] Agora, ParseToDate carrega EvalMode no thread principal.
    • [SPARK-43156][SPARK-43098][SQL] Estenda o teste de bug de contagem de subconsultas escalares com decorrelateInnerQuery desabilitado
    • Atualizações de segurança do sistema operacional.
  • 2 de junho de 2023

    • O analisador JSON no modo failOnUnknownFields descarta um registro no modo DROPMALFORMED e falha diretamente no modo FAILFAST.
    • Melhoria do desempenho da atualização incremental com Iceberg e Parquet SHALLOW CLONE.
    • Corrigido um problema no Carregador Automático em que diferentes formatos de arquivo de origem eram inconsistentes quando o esquema fornecido não incluía partições inferidas. Esse problema pode causar falhas inesperadas ao ler arquivos com colunas ausentes no esquema de partição inferido.
    • [SPARK-43404][Backport] Ignore a reutilização do arquivo sst para a mesma versão do armazenamento de estado do RocksDB para evitar erro de incompatibilidade de ID.
    • [SPARK-43413][11.3-13.0][SQL] Corrigida a nulidade IN da subconsulta ListQuery.
    • [SPARK-43522][SQL] Corrigida a criação de nome da coluna struct com índice de matriz.
    • [SPARK-42444][PYTHON] DataFrame.drop agora lida com colunas duplicadas corretamente.
    • [SPARK-43541][SQL] Propague todas as marcas Project na resolução de expressões e colunas ausentes.
    • [SPARK-43340][CORE] Corrigido o campo de rastreamento de pilha ausente nos logs de eventos.
    • [SPARK-42937][SQL] PlanSubqueries agora é definido InSubqueryExec#shouldBroadcast como verdadeiro.
    • [SPARK-43527][PYTHON] Corrigido catalog.listCatalogs no PySpark.
    • [SPARK-43378][CORE] Feche corretamente os objetos de fluxo em deserializeFromChunkedBuffer.
  • 17 de maio de 2023

    • As verificações parquet agora são robustas em relação aos OOMs ao verificar arquivos excepcionalmente estruturados ajustando dinamicamente o tamanho do lote. Os metadados de arquivo são analisados para reduzir preventivamente o tamanho do lote e são reduzidos novamente em tentativas de tarefa como uma rede de segurança final.
    • Se um arquivo Avro fosse lido apenas com a opção failOnUnknownFields\ ou com o Carregador Automático no modo de evolução do esquema failOnNewColumns\, as colunas que têm tipos de dados diferentes seriam lidas como null\ em vez de gerar um erro informando que o arquivo não pode ser lido. Essas leituras agora falham e recomendam que os usuários usem a opção rescuedDataColumn\.
    • O Carregador Automático agora faz o seguinte.
      • Lê e não resgata mais corretamente os tipos Integer, Short, Byte se um desses tipos de dados for fornecido, mas o arquivo Avro sugerir um dos outros dois tipos.
      • Impede a leitura de tipos de intervalo como tipos de data ou carimbo de data/hora para evitar a obtenção de datas corrompidas.
      • Impede tipos de leitura Decimal com precisão mais baixa.
    • [SPARK-43098][SQL] Corrigido o bug de correção COUNT quando a subconsulta escalar é agrupada por cláusula.
    • [SPARK-43190][SQL] ListQuery.childOutput agora é consistente com a saída secundária.
    • Atualizações de segurança do sistema operacional.
  • 25 de abril de 2023

    • Se um arquivo Parquet fosse lido apenas com a opção failOnUnknownFields ou com o Carregador Automático no modo de evolução do esquema failOnNewColumns, as colunas que têm tipos de dados diferentes seriam lidas como null em vez de gerar um erro informando que o arquivo não pode ser lido. Essas leituras agora falham e recomendam que os usuários usem a opção rescuedDataColumn.
    • O Carregador Automático agora lê corretamente e não resgata mais os tipos Integer, Short, Byte se um desses tipos de dados for fornecido. O arquivo Parquet sugere um dos outros dois tipos. Quando a coluna de dados resgatados foi habilitada anteriormente, a incompatibilidade de tipo de dados faria com que as colunas fossem resgatadas mesmo que fossem legíveis.
    • [SPARK-43009][SQL] sql() Parametrizado com constantes Any.
    • [SPARK-42971][CORE] Alterar para imprimir workdir se appDirs for nulo quando o evento de identificador WorkDirCleanup de trabalho.
    • Atualizações de segurança do sistema operacional.
  • 11 de abril de 2023

    • Suporte a formatos de fonte de dados herdados no comando SYNC.
    • Corrige um bug no comportamento %autoreload em notebooks que estão fora de um repositório.
    • Correção de um bug em que a evolução do esquema do Carregador Automático pode entrar em um loop de falha infinito, quando uma nova coluna é detectada no esquema de um objeto JSON aninhado.
    • [SPARK-42928][SQL] Faz a sincronização resolvePersistentFunction.
    • [SPARK-42967][CORE] Corrige SparkListenerTaskStart.stageAttemptId quando uma tarefa é iniciada após o cancelamento do estágio.
    • Atualizações de segurança do sistema operacional.
  • 29 de março de 2023

    • O Carregador Automático agora dispara pelo menos um log do RocksDB síncrono limpo para fluxos Trigger.AvailableNow para garantir que o ponto de verificação possa ser limpo regularmente para fluxos do Carregador Automático em execução rápida. Isso pode fazer com que alguns fluxos levem mais tempo antes de serem desligados, mas economizarão custos de armazenamento e melhorarão a experiência do Carregador Automático em execuções futuras.
    • Agora você pode modificar uma tabela Delta para adicionar suporte a recursos de tabela usando DeltaTable.addFeatureSupport(feature_name).
    • [SPARK-42702][SPARK-42623][SQL] Suporte à consulta parametrizada em subconsulta e CTE
    • [SPARK-41162][SQL] Corrigir a junção anti e semi-junção para autojunção com agregações
    • [SPARK-42403][CORE] JsonProtocol deve manipular cadeias de caracteres JSON nulas
    • [SPARK-42668][SS] Capturar exceção ao tentar fechar o fluxo compactado na anulação de HDFSStateStoreProvider
    • [SPARK-42794][SS] Aumentar o lockAcquireTimeoutMs para 2 minutos para adquirir o repositório de estado RocksDB no Structure Streaming
  • 14 de março de 2023

    • Há uma alteração de terminologia para adicionar recursos a uma tabela Delta usando a propriedade table. A sintaxe preferencial agora 'delta.feature.featureName'='supported' é em vez de 'delta.feature.featureName'='enabled'. Para compatibilidade com versões anteriores, o uso de 'delta.feature.featureName'='enabled' ainda funciona e continuará funcionando.
    • [SPARK-42622][CORE] Desabilitar substituição em valores
    • [SPARK-42534][SQL] Corrigir cláusula DB2Dialect Limit
    • [SPARK-42635][SQL] Corrigir a expressão TimestampAdd.
    • [SPARK-42516][SQL] Sempre capture a configuração de fuso horário da sessão ao criar exibições
    • [SPARK-42484] [SQL] Mensagem de erro unsafeRowUtils melhor
    • [SPARK-41793][SQL] Resultado incorreto para quadros de janela definidos por uma cláusula de intervalo em decimais grandes
    • Atualizações de segurança do sistema operacional.
  • 24 de fevereiro de 2023

    • Agora você pode usar um conjunto unificado de opções (host, port, database, user, password) para se conectar às fontes de dados com suporte na Federação de Consultas (PostgreSQL, MySQL, Synapse, Snowflake, Redshift SQL Server). Observe que port é opcional e usará o número da porta padrão para cada fonte de dados, se ele não for fornecido.

    Exemplo de configuração de conexão do PostgreSQL

    CREATE TABLE postgresql_table
    USING postgresql
    OPTIONS (
      dbtable '<table-name>',
      host '<host-name>',
      database '<database-name>',
      user '<user>',
      password secret('scope', 'key')
    );
    

    Exemplo de configuração de conexão do Snowflake

    CREATE TABLE snowflake_table
    USING snowflake
    OPTIONS (
      dbtable '<table-name>',
      host '<host-name>',
      port '<port-number>',
      database '<database-name>',
      user secret('snowflake_creds', 'my_username'),
      password secret('snowflake_creds', 'my_password'),
      schema '<schema-name>',
      sfWarehouse '<warehouse-name>'
    );
    
    • [SPARK-41989][PYTHON] Evitar quebrar a configuração de log do pyspark.pandas
    • [SPARK-42346][SQL] Reescrever agregações distintas após a mesclagem de subconsulta
    • [SPARK-41990][SQL] Usar FieldReference.column em vez de apply na conversão de filtro V1 para V2
    • Reverter [SPARK-41848][CORE] Correção de tarefas superagendadas com TaskResourceProfile
    • [SPARK-42162] Introduzir a expressão MultiCommutativeOp como uma otimização de memória para canonizar árvores grandes de expressões comutativas
    • Atualizações de segurança do sistema operacional.
  • 16 de fevereiro de 2023

    • O comando SYNC dá suporte à sincronização de tabelas recriadas do Metastore do Hive. Se uma tabela HMS tiver sido sincronizada anteriormente para o Catálogo do Unity, mas depois descartada e recriada, uma nova sincronização subsequente funcionará em vez de gerar o código de status TABLE_ALREADY_EXISTS.
    • [SPARK-41219][SQL] IntegralDivide usa decimal(1, 0) para representar 0
    • [SPARK-36173][CORE] Suporte para obtenção de número de CPU em TaskContext
    • [SPARK-41848][CORE] Correção de tarefas superagendadas com TaskResourceProfile
    • [SPARK-42286][SQL] Fallback para o caminho de código codegen anterior para expr complexo com CAST
  • 31 de janeiro de 2023

    • A criação de um esquema com um local definido agora exige que o usuário tenha privilégios SELECT e MODIFY em ANY FILE.
    • [SPARK-41581] [SQL] Atribuir nome a _LEGACY_ERROR_TEMP_1230
    • [SPARK-41996][SQL][SS] Corrigir teste do Kafka para verificar partições perdidas para considerar operações lentas do Kafka
    • [SPARK-41580] [SC-118715][SQL] Atribuir nome a _LEGACY_ERROR_TEMP_2137
    • [SPARK-41666][PYTHON] Suporte a SQL parametrizado por sql()
    • [SPARK-41579] [SC-118715][SQL] Atribuir nome a _LEGACY_ERROR_TEMP_1240
    • [SPARK-41573] [SC-118715][SQL] Atribuir nome a _LEGACY_ERROR_TEMP_2136
    • [SPARK-41574] [SC-118715][SQL] Atribuir nome a _LEGACY_ERROR_TEMP_2009
    • [SPARK-41049][Acompanhamento] Corrigir uma regressão de sincronização de código para ConvertToLocalRelation
    • [SPARK-41576] [SC-118715][SQL] Atribuir nome a _LEGACY_ERROR_TEMP_2051
    • [SPARK-41572] [SC-118715][SQL] Atribuir nome a _LEGACY_ERROR_TEMP_2149
    • [SPARK-41575] [SC-118715][SQL] Atribuir nome a _LEGACY_ERROR_TEMP_2054
    • Atualizações de segurança do sistema operacional.

Databricks Runtime 12.0 (sem suporte)

Confira Databricks Runtime 12.0 (sem suporte).

  • 15 de junho de 2023

    • approx_count_distinct fotonizado.
    • A biblioteca Snowflake-jdbc foi atualizada para 3.13.29 para que fosse resolvido um problema de segurança.
    • [SPARK-43156][SPARK-43098][SQL] Estenda o teste de bug de contagem de subconsultas escalares com decorrelateInnerQuery desabilitado
    • [SPARK-43779][SQL] Agora, ParseToDate carrega EvalMode no thread principal.
    • Atualizações de segurança do sistema operacional.
  • 2 de junho de 2023

    • O analisador JSON no modo failOnUnknownFields descarta um registro no modo DROPMALFORMED e falha diretamente no modo FAILFAST.
    • Melhoria do desempenho da atualização incremental com Iceberg e Parquet SHALLOW CLONE.
    • Corrigido um problema no Carregador Automático em que diferentes formatos de arquivo de origem eram inconsistentes quando o esquema fornecido não incluía partições inferidas. Esse problema pode causar falhas inesperadas ao ler arquivos com colunas ausentes no esquema de partição inferido.
    • [SPARK-42444][PYTHON] DataFrame.drop agora lida com colunas duplicadas corretamente.
    • [SPARK-43404][Backport] Ignore a reutilização do arquivo sst para a mesma versão do armazenamento de estado do RocksDB para evitar erro de incompatibilidade de ID.
    • [11.3-13.0][[SPARK-43413]]https://issues.apache.org/jira/browse/SPARK-43413)[SQL] Corrigida a nulidade IN da subconsulta ListQuery.
    • [SPARK-43527][PYTHON] Corrigido catalog.listCatalogs no PySpark.
    • [SPARK-43522][SQL] Corrigida a criação de nome da coluna struct com índice de matriz.
    • [SPARK-43541][SQL] Propague todas as marcas Project na resolução de expressões e colunas ausentes.
    • [SPARK-43340][CORE] Corrigido o campo de rastreamento de pilha ausente nos logs de eventos.
    • [SPARK-42937][SQL] PlanSubqueries definido InSubqueryExec#shouldBroadcast como verdadeiro.
  • 17 de maio de 2023

    • As verificações parquet agora são robustas em relação aos OOMs ao verificar arquivos excepcionalmente estruturados ajustando dinamicamente o tamanho do lote. Os metadados de arquivo são analisados para reduzir preventivamente o tamanho do lote e são reduzidos novamente em tentativas de tarefa como uma rede de segurança final.
    • Se um arquivo Avro fosse lido apenas com a opção failOnUnknownFields\ ou com o Carregador Automático no modo de evolução do esquema failOnNewColumns\, as colunas que têm tipos de dados diferentes seriam lidas como null\ em vez de gerar um erro informando que o arquivo não pode ser lido. Essas leituras agora falham e recomendam que os usuários usem a opção rescuedDataColumn\.
    • O Carregador Automático agora faz o seguinte.
      • Lê e não resgata mais corretamente os tipos Integer, Short, Byte se um desses tipos de dados for fornecido, mas o arquivo Avro sugerir um dos outros dois tipos.
      • Impede a leitura de tipos de intervalo como tipos de data ou carimbo de data/hora para evitar a obtenção de datas corrompidas.
      • Impede tipos de leitura Decimal com precisão mais baixa.
    • [SPARK-43172] [CONNECT] Expõe o host e o token do cliente Spark connect.
    • [SPARK-41520][SQL] Dividir AND_OR padrão de árvore para separar AND e OR.
    • [SPARK-43098][SQL] Corrigido o bug de correção COUNT quando a subconsulta escalar é agrupada por cláusula.
    • [SPARK-43190][SQL] ListQuery.childOutput agora é consistente com a saída secundária.
    • Atualizações de segurança do sistema operacional.
  • 25 de abril de 2023

    • Se um arquivo Parquet fosse lido apenas com a opção failOnUnknownFields ou com o Carregador Automático no modo de evolução do esquema failOnNewColumns, as colunas que têm tipos de dados diferentes seriam lidas como null em vez de gerar um erro informando que o arquivo não pode ser lido. Essas leituras agora falham e recomendam que os usuários usem a opção rescuedDataColumn.
    • O Carregador Automático agora lê corretamente e não resgata mais os tipos Integer, Short, Byte se um desses tipos de dados for fornecido. O arquivo Parquet sugere um dos outros dois tipos. Quando a coluna de dados resgatados foi habilitada anteriormente, a incompatibilidade de tipo de dados faria com que as colunas fossem resgatadas mesmo que fossem legíveis.
    • [SPARK-42971][CORE] Alterar para imprimir workdir se appDirs for nulo quando o evento de identificador WorkDirCleanup de trabalho
    • Atualizações de segurança do sistema operacional.
  • 11 de abril de 2023

    • Suporte a formatos de fonte de dados herdados no comando SYNC.
    • Corrige um bug no comportamento %autoreload em notebooks que estão fora de um repositório.
    • Correção de um bug em que a evolução do esquema do Carregador Automático pode entrar em um loop de falha infinito, quando uma nova coluna é detectada no esquema de um objeto JSON aninhado.
    • [SPARK-42928][SQL] Faz a sincronização resolvePersistentFunction.
    • [SPARK-42967][CORE] Corrige SparkListenerTaskStart.stageAttemptId quando uma tarefa é iniciada após o cancelamento do estágio.
    • Atualizações de segurança do sistema operacional.
  • 29 de março de 2023

    • [SPARK-42794][SS] Aumentar o lockAcquireTimeoutMs para 2 minutos para adquirir o repositório de estado RocksDB no Structure Streaming
    • [SPARK-41162][SQL] Corrigir a junção anti e semi-junção para autojunção com agregações
    • [SPARK-42403][CORE] JsonProtocol deve manipular cadeias de caracteres JSON nulas
    • [SPARK-42668][SS] Capturar exceção ao tentar fechar o fluxo compactado na anulação de HDFSStateStoreProvider
    • Diversas correções de bugs.
  • 14 de março de 2023

    • [SPARK-42534][SQL] Corrigir cláusula DB2Dialect Limit
    • [SPARK-42622][CORE] Desabilitar substituição em valores
    • [SPARK-41793][SQL] Resultado incorreto para quadros de janela definidos por uma cláusula de intervalo em decimais grandes
    • [SPARK-42484] [SQL] Mensagem de erro unsafeRowUtils melhor
    • [SPARK-42635][SQL] Corrigir a expressão TimestampAdd.
    • [SPARK-42516][SQL] Sempre capture a configuração de fuso horário da sessão ao criar exibições
    • Atualizações de segurança do sistema operacional.
  • 24 de fevereiro de 2023

    • Opções de Conexão Padronizadas para Federação de Consulta

      Agora você pode usar um conjunto unificado de opções (host, port, database, user, password) para se conectar às fontes de dados com suporte na Federação de Consultas (PostgreSQL, MySQL, Synapse, Snowflake, Redshift SQL Server). Observe que port é opcional e usará o número da porta padrão para cada fonte de dados, se não for fornecido.

      Exemplo de configuração de conexão do PostgreSQL

      CREATE TABLE postgresql_table
      USING postgresql
      OPTIONS (
        dbtable '<table-name>',
        host '<host-name>',
        database '<database-name>',
        user '<user>',
        password secret('scope', 'key')
      );
      

      Exemplo de configuração de conexão do Snowflake

      CREATE TABLE snowflake_table
      USING snowflake
      OPTIONS (
        dbtable '<table-name>',
        host '<host-name>',
        port '<port-number>',
        database '<database-name>',
        user secret('snowflake_creds', 'my_username'),
        password secret('snowflake_creds', 'my_password'),
        schema '<schema-name>',
        sfWarehouse '<warehouse-name>'
      );
      
    • Reverter [SPARK-41848][CORE] Correção de tarefas superagendadas com TaskResourceProfile

    • [SPARK-42162] Introduzir a expressão MultiCommutativeOp como uma otimização de memória para canonizar árvores grandes de expressões comutativas

    • [SPARK-41990][SQL] Usar FieldReference.column em vez de apply na conversão de filtro V1 para V2

    • [SPARK-42346][SQL] Reescrever agregações distintas após a mesclagem de subconsulta

    • Atualizações de segurança do sistema operacional.

  • 16 de fevereiro de 2023

    • Os usuários agora podem ler e gravar determinadas tabelas Delta que exigem o Leitor versão 3 e o Gravador versão 7, usando o Databricks Runtime 9.1 ou posterior. Para ter êxito, os recursos de tabela listados no protocolo das tabelas devem ter suporte da versão atual do Databricks Runtime.
    • O comando SYNC dá suporte à sincronização de tabelas recriadas do Metastore do Hive. Se uma tabela HMS tiver sido sincronizada anteriormente para o Catálogo do Unity, mas depois descartada e recriada, uma nova sincronização subsequente funcionará em vez de gerar o código de status TABLE_ALREADY_EXISTS.
    • [SPARK-36173][CORE] Suporte para obtenção de número de CPU em TaskContext
    • [SPARK-42286][SQL] Fallback para o caminho de código codegen anterior para expr complexo com CAST
    • [SPARK-41848][CORE] Correção de tarefas superagendadas com TaskResourceProfile
    • [SPARK-41219][SQL] IntegralDivide usa decimal(1, 0) para representar 0
  • 25 de janeiro de 2023

    • [SPARK-41660] [SQL] Somente propagar colunas de metadados se forem usadas
    • [SPARK-41379] [SS][PYTHON] Fornecer sessão do Spark clonada no DataFrame na função de usuário para o coletor foreachBatch no PySpark
    • [SPARK-41669][SQL] Remoção antecipada em canCollapseExpressions
    • Atualizações de segurança do sistema operacional.
  • 18 de janeiro de 2023

    • Agora o comando SQL REFRESH FUNCTION dá suporte a funções SQL e funções de Tabela SQL. Por exemplo, o comando poderia ser usado para atualizar uma função SQL persistente que foi atualizada em outra sessão SQL.
    • A fonte de dados JDBC (Java Database Connectivity) v1 agora dá suporte ao pushdown da cláusula LIMIT para melhorar o desempenho em consultas. Esse recurso é habilitado por padrão e pode ser desabilitado definindo spark.databricks.optimizer.jdbcDSv1LimitPushdown.enabled como false.
    • Em clusters de ACLs de tabela herdada, agora a criação de funções que referenciam classes JVM requer o privilégio MODIFY_CLASSPATH.
    • A fonte de dados JDBC (Java Database Connectivity) v1 agora dá suporte ao pushdown da cláusula LIMIT para melhorar o desempenho em consultas. Esse recurso é habilitado por padrão e pode ser desabilitado com spark.databricks.optimizer.jdbcDSv1LimitPushdown.enabled definido como false.
    • Agora o conector Azure Synapse retorna uma mensagem de erro mais descritiva quando um nome de coluna contém caracteres inválidos, como espaços em branco ou ponto e vírgula. Nesses casos, a seguinte mensagem será retornada: Azure Synapse Analytics failed to execute the JDBC query produced by the connector. Make sure column names do not include any invalid characters such as ';' or whitespace.
    • Agora o Streaming Estruturado do Spark funciona com format("deltasharing") em uma tabela de compartilhamento delta como fonte.
    • [SPARK-38277][SS] Limpar o lote de gravação após o commit do armazenamento de estado de RocksDB
    • [SPARK-41733][SQL][SS] Aplicar remoção baseada em padrão de árvore para a regra ResolveWindowTime
    • [SPARK-39591][SS] Acompanhamento de progresso assíncrono
    • [SPARK-41339][SQL] Fechar e recriar o lote de gravação de RocksDB em vez de apenas limpar
    • [SPARK-41198][SS] Corrigir métricas no fluxo de consulta com fonte de fluxo CTE e DSv1
    • [SPARK-41539][SQL] Remapear estatísticas e restrições em relação à saída no plano lógico para LogicalRDD
    • [SPARK-41732][SQL][SS] Aplicar remoção baseada em padrão de árvore para a regra SessionWindowing
    • [SPARK-41862][SQL] Corrigir bug de correção relacionado aos valores DEFAULT no leitor de Orc
    • [SPARK-41199][SS] Corrigir o problema de métricas quando a fonte de fluxo DSv1 e a fonte de fluxo DSv2 são coutilizadas
    • [SPARK-41261][PYTHON][SS] Corrigir problema para applyInPandasWithState quando as colunas de chaves de agrupamento não são colocadas em ordem desde o início
    • Atualizações de segurança do sistema operacional.
  • 17 de maio de 2023

    • As verificações parquet agora são robustas em relação aos OOMs ao verificar arquivos excepcionalmente estruturados ajustando dinamicamente o tamanho do lote. Os metadados de arquivo são analisados para reduzir preventivamente o tamanho do lote e são reduzidos novamente em tentativas de tarefa como uma rede de segurança final.
    • Correção de uma regressão que fazia com que os trabalhos do Azure Databricks persistissem após a falha na conexão com o metastore durante a inicialização do cluster.
    • [SPARK-41520][SQL] Dividir AND_OR padrão de árvore para separar AND e OR.
    • [SPARK-43190][SQL] ListQuery.childOutput agora é consistente com a saída secundária.
    • Atualizações de segurança do sistema operacional.
  • 25 de abril de 2023

    • Se um arquivo Parquet fosse lido apenas com a opção failOnUnknownFields ou com o Carregador Automático no modo de evolução do esquema failOnNewColumns, as colunas que têm tipos de dados diferentes seriam lidas como null em vez de gerar um erro informando que o arquivo não pode ser lido. Essas leituras agora falham e recomendam que os usuários usem a opção rescuedDataColumn.
    • O Carregador Automático agora lê corretamente e não resgata mais os tipos Integer, Short, Byte se um desses tipos de dados for fornecido. O arquivo Parquet sugere um dos outros dois tipos. Quando a coluna de dados resgatados foi habilitada anteriormente, a incompatibilidade de tipo de dados faria com que as colunas fossem resgatadas mesmo que fossem legíveis.
    • [SPARK-42937][SQL] PlanSubqueries agora é definido InSubqueryExec#shouldBroadcast como verdadeiro.
    • Atualizações de segurança do sistema operacional.
  • 11 de abril de 2023

    • Suporte a formatos de fonte de dados herdados no comando SYNC.
    • Corrige um bug no comportamento %autoreload em notebooks que estão fora de um repositório.
    • Correção de um bug em que a evolução do esquema do Carregador Automático pode entrar em um loop de falha infinito, quando uma nova coluna é detectada no esquema de um objeto JSON aninhado.
    • [SPARK-42928][SQL] Fazer resolvePersistentFunction sincronizado.
    • [SPARK-42967][CORE] Corrigir SparkListenerTaskStart.stageAttemptId quando uma tarefa é iniciada após o cancelamento do estágio.
  • 29 de março de 2023

    • [SPARK-42794][SS] Aumentar o lockAcquireTimeoutMs para 2 minutos para adquirir o repositório de estado RocksDB no Structure Streaming
    • [SPARK-42403][CORE] JsonProtocol deve manipular cadeias de caracteres JSON nulas
    • [SPARK-42668][SS] Capturar exceção ao tentar fechar o fluxo compactado na anulação de HDFSStateStoreProvider
    • Atualizações de segurança do sistema operacional.
  • 14 de março de 2023

    • [SPARK-42635][SQL] Corrigir a expressão TimestampAdd.
    • [SPARK-41793][SQL] Resultado incorreto para quadros de janela definidos por uma cláusula de intervalo em decimais grandes
    • [SPARK-42484] [SQL] Mensagem de erro unsafeRowUtils melhor
    • [SPARK-42534][SQL] Corrigir cláusula DB2Dialect Limit
    • [SPARK-41162][SQL] Corrigir a junção anti e semi-junção para autojunção com agregações
    • [SPARK-42516][SQL] Sempre capture a configuração de fuso horário da sessão ao criar exibições
    • Diversas correções de bugs.
  • 28 de fevereiro de 2023

    • Opções de Conexão Padronizadas para Federação de Consulta

      Agora você pode usar um conjunto unificado de opções (host, port, database, user, password) para se conectar às fontes de dados com suporte na Federação de Consultas (PostgreSQL, MySQL, Synapse, Snowflake, Redshift SQL Server). Observe que port é opcional e usará o número da porta padrão para cada fonte de dados, se ele não for fornecido.

      Exemplo de configuração de conexão do PostgreSQL

      CREATE TABLE postgresql_table
      USING postgresql
      OPTIONS (
        dbtable '<table-name>',
        host '<host-name>',
        database '<database-name>',
        user '<user>',
        password secret('scope', 'key')
      );
      

      Exemplo de configuração de conexão do Snowflake

      CREATE TABLE snowflake_table
      USING snowflake
      OPTIONS (
        dbtable '<table-name>',
        host '<host-name>',
        port '<port-number>',
        database '<database-name>',
        user secret('snowflake_creds', 'my_username'),
        password secret('snowflake_creds', 'my_password'),
        schema '<schema-name>',
        sfWarehouse '<warehouse-name>'
      );
      
    • [SPARK-42286][SQL] Fallback para o caminho de código codegen anterior para expr complexo com CAST

    • [SPARK-41989][PYTHON] Evitar quebrar a configuração de log do pyspark.pandas

    • [SPARK-42346][SQL] Reescrever agregações distintas após a mesclagem de subconsulta

    • [SPARK-41360][CORE] Evite o novo registro do BlockManager se o executor tiver sido perdido

    • [SPARK-42162] Introduzir a expressão MultiCommutativeOp como uma otimização de memória para canonizar árvores grandes de expressões comutativas

    • [SPARK-41990][SQL] Usar FieldReference.column em vez de apply na conversão de filtro V1 para V2

    • Atualizações de segurança do sistema operacional.

  • 16 de fevereiro de 2023

    • Os usuários agora podem ler e gravar determinadas tabelas Delta que exigem o Leitor versão 3 e o Gravador versão 7, usando o Databricks Runtime 9.1 ou posterior. Para ter êxito, os recursos de tabela listados no protocolo das tabelas devem ter suporte da versão atual do Databricks Runtime.
    • O comando SYNC dá suporte à sincronização de tabelas recriadas do Metastore do Hive. Se uma tabela HMS tiver sido sincronizada anteriormente para o Catálogo do Unity, mas depois descartada e recriada, uma nova sincronização subsequente funcionará em vez de gerar o código de status TABLE_ALREADY_EXISTS.
    • [SPARK-41219][SQL] IntegralDivide usa decimal(1, 0) para representar 0
    • [SPARK-40382][SQL] Agrupar expressões agregadas distintas por filhos semanticamente equivalentes em RewriteDistinctAggregates
    • Atualizações de segurança do sistema operacional.
  • 25 de janeiro de 2023

    • [SPARK-41379] [SS][PYTHON] Fornecer sessão do Spark clonada no DataFrame na função de usuário para o coletor foreachBatch no PySpark
    • [SPARK-41660] [SQL] Somente propagar colunas de metadados se forem usadas
    • [SPARK-41669][SQL] Remoção antecipada em canCollapseExpressions
    • Diversas correções de bugs.
  • 18 de janeiro de 2023

    • Agora o comando SQL REFRESH FUNCTION dá suporte a funções SQL e funções de Tabela SQL. Por exemplo, o comando poderia ser usado para atualizar uma função SQL persistente que foi atualizada em outra sessão SQL.
    • A fonte de dados JDBC (Java Database Connectivity) v1 agora dá suporte ao pushdown da cláusula LIMIT para melhorar o desempenho em consultas. Esse recurso é habilitado por padrão e pode ser desabilitado definindo spark.databricks.optimizer.jdbcDSv1LimitPushdown.enabled como false.
    • A fonte de dados JDBC (Java Database Connectivity) v1 agora dá suporte ao pushdown da cláusula LIMIT para melhorar o desempenho em consultas. Esse recurso é habilitado por padrão e pode ser desabilitado com spark.databricks.optimizer.jdbcDSv1LimitPushdown.enabled definido como false.
    • Agora o conector Azure Synapse retorna uma mensagem de erro mais descritiva quando um nome de coluna contém caracteres inválidos, como espaços em branco ou ponto e vírgula. Nesses casos, a seguinte mensagem será retornada: Azure Synapse Analytics failed to execute the JDBC query produced by the connector. Make sure column names do not include any invalid characters such as ';' or whitespace.
    • [SPARK-41198][SS] Corrigir métricas no fluxo de consulta com fonte de fluxo CTE e DSv1
    • [SPARK-41862][SQL] Corrigir bug de correção relacionado aos valores DEFAULT no leitor de Orc
    • [SPARK-41539][SQL] Remapear estatísticas e restrições em relação à saída no plano lógico para LogicalRDD
    • [SPARK-39591][SS] Acompanhamento de progresso assíncrono
    • [SPARK-41199][SS] Corrigir o problema de métricas quando a fonte de fluxo DSv1 e a fonte de fluxo DSv2 são coutilizadas
    • [SPARK-41261][PYTHON][SS] Corrigir problema para applyInPandasWithState quando as colunas de chaves de agrupamento não são colocadas em ordem desde o início
    • [SPARK-41339][SQL] Fechar e recriar o lote de gravação de RocksDB em vez de apenas limpar
    • [SPARK-41732][SQL][SS] Aplicar remoção baseada em padrão de árvore para a regra SessionWindowing
    • [SPARK-38277][SS] Limpar o lote de gravação após o commit do armazenamento de estado de RocksDB
    • Atualizações de segurança do sistema operacional.
  • 29 de novembro de 2022

    • Os usuários podem configurar o comportamento dos espaços em branco à esquerda e à direita ao escrever dados usando o conector do Redshift. As seguintes opções foram adicionadas para controlar o tratamento de espaço em branco:
      • csvignoreleadingwhitespace, quando definido como true, remove o espaço em branco à esquerda dos valores ao escrever quando tempformat é definido como CSV ou CSV GZIP. Os espaços em branco são mantidos quando a configuração é definida como false. Por padrão, o valor é true.
      • csvignoretrailingwhitespace, quando definido como true, remove o espaço em branco à direita dos valores ao escrever quando tempformat é definido como CSV ou CSV GZIP. Os espaços em branco são mantidos quando a configuração é definida como false. Por padrão, o valor é true.
    • Corrigido um bug com análise de JSON no Carregador Automático quando todas as colunas eram deixadas como cadeias de caracteres (cloudFiles.inferColumnTypes não era definido como false) e o JSON continha objetos aninhados.
    • Atualização da dependência snowflake-jdbc para a versão 3.13.22.
    • Os tipos de tabelas JDBC agora são EXTERNAL por padrão.
    • [SPARK-40906][SQL] Mode deve copiar chaves antes de inserir no Mapa
    • Atualizações de segurança do sistema operacional.
  • 15 de novembro de 2022

    • ACLs de tabela e clusters UC Compartilhados agora permitem o método Dataset.toJSON do Python.
    • [SPARK-40646] A análise de JSON para structs, mapas e matrizes foi corrigida para que, quando uma parte de um registro não corresponder ao esquema, o restante do registro ainda possa ser analisado corretamente em vez de retornar nulos. Para optar pelo comportamento aprimorado, defina spark.sql.json.enablePartialResults como true. O sinalizador é desabilitado por padrão para preservar o comportamento original
    • [SPARK-40903][SQL] Evitar reordenar a Adição decimal para canonização se o tipo de dados for alterado
    • [SPARK-40618][SQL] Corrigir bug na regra MergeScalarSubqueries com subconsultas aninhadas usando rastreamento de referência
    • [SPARK-40697][SQL] Adicionar preenchimento de caracteres do lado da leitura para cobrir arquivos de dados externos
    • Atualizações de segurança do sistema operacional.
  • 1º de novembro de 2022

    • O Fluxo Estruturado no Catálogo do Unity agora dá suporte à atualização de tokens de acesso temporário. Cargas de trabalho de fluxo em execução com clusters de trabalho ou para todas as finalidades do Catálogo do Unity não falham mais após a expiração do token inicial.
    • Corrigido um problema em que, se uma tabela Delta tivesse uma coluna definida pelo usuário chamada _change_type, mas o feed de dados de alteração estivesse desabilitado nessa tabela, os dados dessa coluna preencheriam incorretamente com valores NULL ao executar MERGE.
    • Corrigido um problema em que executar MERGE e usar exatamente 99 colunas da origem na condição poderia resultar em java.lang.ClassCastException: org.apache.spark.sql.vectorized.ColumnarBatch cannot be cast to org.apache.spark.sql.catalyst.InternalRow.
    • Corrigido um problema com o Carregador Automático em que um arquivo podia ser duplicado no mesmo microlote quando allowOverwrites estivesse habilitado.
    • Atualização do Apache commons-text para 1.10.0.
    • [SPARK-38881][DSTREAMS][KINESIS][PYSPARK] Adicionado suporte para Configuração MetricsLevel da CloudWatch
    • [SPARK-40596][CORE] Preencher ExecutorDecommission com mensagens em ExecutorDecommissionInfo
    • [SPARK-40670][SS][PYTHON] Correção de NPE em applyInPandasWithState quando o esquema de entrada tiver colunas "não anuláveis"
    • Atualizações de segurança do sistema operacional.

Databricks Runtime 11.2 (sem suporte)

Confira Databricks Runtime 11.2 (sem suporte).

  • 28 de fevereiro de 2023
    • [SPARK-42286][SQL] Fallback para o caminho de código codegen anterior para expr complexo com CAST
    • [SPARK-42346][SQL] Reescrever agregações distintas após a mesclagem de subconsulta
    • Atualizações de segurança do sistema operacional.
  • 16 de fevereiro de 2023
    • Os usuários agora podem ler e gravar determinadas tabelas Delta que exigem o Leitor versão 3 e o Gravador versão 7, usando o Databricks Runtime 9.1 ou posterior. Para ter êxito, os recursos de tabela listados no protocolo das tabelas devem ter suporte da versão atual do Databricks Runtime.
    • O comando SYNC dá suporte à sincronização de tabelas recriadas do Metastore do Hive. Se uma tabela HMS tiver sido sincronizada anteriormente para o Catálogo do Unity, mas depois descartada e recriada, uma nova sincronização subsequente funcionará em vez de gerar o código de status TABLE_ALREADY_EXISTS.
    • [SPARK-41219][SQL] IntegralDivide usa decimal(1, 0) para representar 0
    • Atualizações de segurança do sistema operacional.
  • 31 de janeiro de 2023
    • Os tipos de tabelas JDBC agora são EXTERNAL por padrão.
    • [SPARK-41379] [SS][PYTHON] Fornecer sessão do Spark clonada no DataFrame na função de usuário para o coletor foreachBatch no PySpark
  • 18 de janeiro de 2023
    • Agora o conector Azure Synapse retorna uma mensagem de erro mais descritiva quando um nome de coluna contém caracteres inválidos, como espaços em branco ou ponto e vírgula. Nesses casos, a seguinte mensagem será retornada: Azure Synapse Analytics failed to execute the JDBC query produced by the connector. Make sure column names do not include any invalid characters such as ';' or whitespace.
    • [SPARK-41198][SS] Corrigir métricas no fluxo de consulta com fonte de fluxo CTE e DSv1
    • [SPARK-41862][SQL] Corrigir bug de correção relacionado aos valores DEFAULT no leitor de Orc
    • [SPARK-41539][SQL] Remapear estatísticas e restrições em relação à saída no plano lógico para LogicalRDD
    • [SPARK-41199][SS] Corrigir o problema de métricas quando a fonte de fluxo DSv1 e a fonte de fluxo DSv2 são coutilizadas
    • [SPARK-41339][SQL] Fechar e recriar o lote de gravação de RocksDB em vez de apenas limpar
    • [SPARK-41732][SQL][SS] Aplicar remoção baseada em padrão de árvore para a regra SessionWindowing
    • [SPARK-38277][SS] Limpar o lote de gravação após o commit do armazenamento de estado de RocksDB
    • Atualizações de segurança do sistema operacional.
  • 29 de novembro de 2022
    • Os usuários podem configurar o comportamento dos espaços em branco à esquerda e à direita ao escrever dados usando o conector do Redshift. As seguintes opções foram adicionadas para controlar o tratamento de espaço em branco:
      • csvignoreleadingwhitespace, quando definido como true, remove o espaço em branco à esquerda dos valores ao escrever quando tempformat é definido como CSV ou CSV GZIP. Os espaços em branco são mantidos quando a configuração é definida como false. Por padrão, o valor é true.
      • csvignoretrailingwhitespace, quando definido como true, remove o espaço em branco à direita dos valores ao escrever quando tempformat é definido como CSV ou CSV GZIP. Os espaços em branco são mantidos quando a configuração é definida como false. Por padrão, o valor é true.
    • Corrigido um bug com análise de JSON no Carregador Automático quando todas as colunas eram deixadas como cadeias de caracteres (cloudFiles.inferColumnTypes não era definido como false) e o JSON continha objetos aninhados.
    • [SPARK-40906][SQL] Mode deve copiar chaves antes de inserir no Mapa
    • Atualizações de segurança do sistema operacional.
  • 15 de novembro de 2022
    • [SPARK-40646] A análise de JSON para structs, mapas e matrizes foi corrigida para que, quando uma parte de um registro não corresponder ao esquema, o restante do registro ainda possa ser analisado corretamente em vez de retornar nulos. Para aceitar o comportamento aprimorado, defina spark.sql.json.enablePartialResults como true. O sinalizador é desabilitado por padrão para preservar o comportamento original
    • [SPARK-40618][SQL] Corrigir bug na regra MergeScalarSubqueries com subconsultas aninhadas usando rastreamento de referência
    • [SPARK-40697][SQL] Adicionar preenchimento de caracteres do lado da leitura para cobrir arquivos de dados externos
    • Atualizações de segurança do sistema operacional.
  • 1º de novembro de 2022
    • Atualização do Apache commons-text para 1.10.0.
    • Corrigido um problema em que, se uma tabela Delta tivesse uma coluna definida pelo usuário chamada _change_type, mas o feed de dados de alteração estivesse desabilitado nessa tabela, os dados dessa coluna preencheriam incorretamente com valores NULL ao executar MERGE.
    • Corrigido um problema em que executar MERGE e usar exatamente 99 colunas da origem na condição poderia resultar em java.lang.ClassCastException: org.apache.spark.sql.vectorized.ColumnarBatch cannot be cast to org.apache.spark.sql.catalyst.InternalRow.
    • Corrigido um problema com o Carregador Automático em que um arquivo podia ser duplicado no mesmo microlote quando allowOverwrites estivesse habilitado
    • [SPARK-40596][CORE] Preencher ExecutorDecommission com mensagens em ExecutorDecommissionInfo
    • Atualizações de segurança do sistema operacional.
  • 19 de outubro de 2022
    • Correção de um problema com o uso de COPY INTO com credenciais temporárias em clusters/warehouses habilitados para o Catálogo do Unity.
    • [SPARK-40213][SQL] Suporte à conversão de valor ASCII para caracteres Latino-1
    • Atualizações de segurança do sistema operacional.
  • 5 de outubro de 2022
    • Os usuários podem definir spark.conf.set(“spark.databricks.io.listKeysWithPrefix.azure.enabled”, “true”) para reabilitar a listagem nativa do Carregador Automático no ADLS Gen2. A listagem nativa foi desativada anteriormente devido a problemas de desempenho, mas pode ter gerado um aumento nos custos de armazenamento para os clientes. Essa alteração foi implementada no DBR 10.4 e 9.1 na atualização de manutenção anterior.
    • [SPARK-40315][SQL]Dar suporte à codificação/decodificação de URL como função interna e arrumar funções relacionadas à URL
    • [SPARK-40156][SQL]url_decode() caso retorne uma classe de erro
    • [SPARK-40169] Não efetuar pushdown de filtros Parquet sem referência ao esquema de dados
    • [SPARK-40460][SS] Corrigir métricas de streaming ao selecionar _metadata
    • [SPARK-40468][SQL] Corrigir a remoção de coluna no CSV quando _corrupt_record estiver selecionado
    • [SPARK-40055][SQL] listCatalogs também devem retornar spark_catalog mesmo quando a implementação spark_catalog for defaultSessionCatalog
    • Atualizações de segurança do sistema operacional.
  • 22 de setembro de 2022
    • [SPARK-40315][SQL] Adicionar hashCode() para Literal de ArrayBasedMapData
    • [SPARK-40389][SQL] Decimals não podem ser usar upcast como tipos integrais se a conversão puder estourar
    • [SPARK-40380][SQL] Corrigir dobra constante de InvokeLike para evitar literais não serializáveis inseridos no plano
    • [SPARK-40066][SQL][FOLLOW-UP] Verificar se ElementAt foi resolvido antes de obter seu dataType
    • [SPARK-40109][SQL] Nova função SQL: get()
    • [SPARK-40066][SQL] Modo ANSI: sempre retornar nulo no acesso inválido à coluna do mapa
    • [SPARK-40089][SQL] Corrigir a classificação para alguns tipos decimais
    • [SPARK-39887][SQL] RemoveRedundantAliases deve manter os aliases que tornam a saída de nós de projeção exclusiva
    • [SPARK-40152][SQL] Corrigir problema de compilação de codegen split_part
    • [SPARK-40235][CORE] Uso do bloqueio interruptível em vez de sincronizado em Executor.updateDependencies()
    • [SPARK-40212][SQL] O castPartValue do SparkSQL não lida corretamente com byte, short ou float
    • [SPARK-40218][SQL] Os GROUPING SETS devem preservar as colunas de agrupamento
    • [SPARK-35542][ML] Corrigir: Classificar em buckets criados para várias colunas com parâmetros
    • [SPARK-40079] Adição da validação inputCols do imputador para o caso de entrada vazio
    • [SPARK-39912]SPARK-39828[SQL] Refinar CatalogImpl

Databricks Runtime 11.1 (sem suporte)

Confira Databricks Runtime 11.1 (sem suporte).

  • 31 de janeiro de 2023

    • [SPARK-41379] [SS][PYTHON] Fornecer sessão do Spark clonada no DataFrame na função de usuário para o coletor foreachBatch no PySpark
    • Diversas correções de bugs.
  • 18 de janeiro de 2023

    • Agora o conector Azure Synapse retorna uma mensagem de erro mais descritiva quando um nome de coluna contém caracteres inválidos, como espaços em branco ou ponto e vírgula. Nesses casos, a seguinte mensagem será retornada: Azure Synapse Analytics failed to execute the JDBC query produced by the connector. Make sure column names do not include any invalid characters such as ';' or whitespace.
    • [SPARK-41198][SS] Corrigir métricas no fluxo de consulta com fonte de fluxo CTE e DSv1
    • [SPARK-41862][SQL] Corrigir bug de correção relacionado aos valores DEFAULT no leitor de Orc
    • [SPARK-41199][SS] Corrigir o problema de métricas quando a fonte de fluxo DSv1 e a fonte de fluxo DSv2 são coutilizadas
    • [SPARK-41339][SQL] Fechar e recriar o lote de gravação de RocksDB em vez de apenas limpar
    • [SPARK-41732][SQL][SS] Aplicar remoção baseada em padrão de árvore para a regra SessionWindowing
    • [SPARK-38277][SS] Limpar o lote de gravação após o commit do armazenamento de estado de RocksDB
    • Atualizações de segurança do sistema operacional.
  • 29 de novembro de 2022

    • Os usuários podem configurar o comportamento dos espaços em branco à esquerda e à direita ao escrever dados usando o conector do Redshift. As seguintes opções foram adicionadas para controlar o tratamento de espaço em branco:
      • csvignoreleadingwhitespace, quando definido como true, remove o espaço em branco à esquerda dos valores ao escrever quando tempformat é definido como CSV ou CSV GZIP. Os espaços em branco são mantidos quando a configuração é definida como false. Por padrão, o valor é true.
      • csvignoretrailingwhitespace, quando definido como true, remove o espaço em branco à direita dos valores ao escrever quando tempformat é definido como CSV ou CSV GZIP. Os espaços em branco são mantidos quando a configuração é definida como false. Por padrão, o valor é true.
    • Corrigido um bug com análise de JSON no Carregador Automático quando todas as colunas eram deixadas como cadeias de caracteres (cloudFiles.inferColumnTypes não era definido como false) e o JSON continha objetos aninhados.
    • [SPARK-39650] [SS] Correção de esquema de valor incorreto na eliminação de duplicação de fluxo com a compatibilidade com versões anteriores
    • Atualizações de segurança do sistema operacional.
  • 15 de novembro de 2022

    • [SPARK-40646] A análise de JSON para structs, mapas e matrizes foi corrigida para que, quando uma parte de um registro não corresponder ao esquema, o restante do registro ainda possa ser analisado corretamente em vez de retornar nulos. Para optar pelo comportamento aprimorado, defina spark.sql.json.enablePartialResults como true. O sinalizador é desabilitado por padrão para preservar o comportamento original
    • Atualizações de segurança do sistema operacional.
  • 1º de novembro de 2022

    • Atualização do Apache commons-text para 1.10.0.
    • Corrigido um problema em que, se uma tabela Delta tivesse uma coluna definida pelo usuário chamada _change_type, mas o feed de dados de alteração estivesse desabilitado nessa tabela, os dados dessa coluna preencheriam incorretamente com valores NULL ao executar MERGE.
    • Corrigido um problema em que executar MERGE e usar exatamente 99 colunas da origem na condição poderia resultar em java.lang.ClassCastException: org.apache.spark.sql.vectorized.ColumnarBatch cannot be cast to org.apache.spark.sql.catalyst.InternalRow.
    • Corrigido um problema com o Carregador Automático em que um arquivo podia ser duplicado no mesmo microlote quando allowOverwrites estivesse habilitado
    • [SPARK-40697][SQL] Adicionar preenchimento de caracteres do lado da leitura para cobrir arquivos de dados externos
    • [SPARK-40596][CORE] Preencher ExecutorDecommission com mensagens em ExecutorDecommissionInfo
    • Atualizações de segurança do sistema operacional.
  • 18 de outubro de 2022

    • Correção de um problema com o uso de COPY INTO com credenciais temporárias em clusters/warehouses habilitados para o Catálogo do Unity.
    • [SPARK-40213][SQL] Suporte à conversão de valor ASCII para caracteres Latino-1
    • Atualizações de segurança do sistema operacional.
  • 5 de outubro de 2022

    • Os usuários podem definir spark.conf.set(“spark.databricks.io.listKeysWithPrefix.azure.enabled”, “true”) para reabilitar a listagem nativa do Carregador Automático no ADLS Gen2. A listagem nativa foi desativada anteriormente devido a problemas de desempenho, mas pode ter gerado um aumento nos custos de armazenamento para os clientes. Essa alteração foi implementada no DBR 10.4 e 9.1 na atualização de manutenção anterior.
    • [SPARK-40169] Não efetuar pushdown de filtros Parquet sem referência ao esquema de dados
    • [SPARK-40460][SS] Corrigir métricas de streaming ao selecionar _metadata
    • [SPARK-40468][SQL] Corrigir a remoção de coluna no CSV quando _corrupt_record estiver selecionado
    • [SPARK-40055][SQL] listCatalogs também devem retornar spark_catalog mesmo quando a implementação spark_catalog for defaultSessionCatalog
    • Atualizações de segurança do sistema operacional.
  • 22 de setembro de 2022

    • [SPARK-40315][SQL] Adicionar hashCode() para Literal de ArrayBasedMapData
    • [SPARK-40380][SQL] Corrigir dobra constante de InvokeLike para evitar literais não serializáveis inseridos no plano
    • [SPARK-40089][SQL] Corrigir a classificação para alguns tipos decimais
    • [SPARK-39887][SQL] RemoveRedundantAliases deve manter os aliases que tornam a saída de nós de projeção exclusiva
    • [SPARK-40152][SQL] Corrigir problema de compilação de codegen split_part
  • 06 de setembro de 2022

    • Atualizamos o modelo de permissão nos Controles de Acesso à Tabela (ACLs de Tabela) para que apenas as permissões MODIFY sejam necessárias para alterar o esquema ou as propriedades da tabela de uma tabela com ALTER TABLE. Anteriormente, essas operações exigiam que um usuário fosse o proprietário da tabela. A propriedade ainda é necessária para conceder permissões em uma tabela, alterar o proprietário, alterar o local ou renomeá-la. Essa alteração torna o modelo de permissão para as ACLs de Tabela mais consistente com o Catálogo do Unity.
    • [SPARK-40235][CORE] Uso do bloqueio interruptível em vez de sincronizado em Executor.updateDependencies()
    • [SPARK-40212][SQL] O castPartValue do SparkSQL não lida corretamente com byte, short ou float
    • [SPARK-40218][SQL] Os GROUPING SETS devem preservar as colunas de agrupamento
    • [SPARK-39976] [SQL] O ArrayIntersect deve processar null na expressão à esquerda corretamente
    • [SPARK-40053][CORE][SQL][TESTS] Adição de assume aos casos de cancelamento dinâmico que exigem o ambiente de runtime do Python
    • [SPARK-35542][CORE][ML] Correção: o classificador em buckets criado para várias colunas com os parâmetros splitsArray, inputCols e outputCols não pode ser carregado após salvá-lo
    • [SPARK-40079][CORE] Adição da validação inputCols do imputador para o caso de entrada vazio
  • 24 de agosto de 2022

    • Os compartilhamentos, os provedores e os destinatários agora dão suporte a comandos SQL para alterar proprietários, comentar e renomear
    • [SPARK-39983][CORE][SQL] Não armazene em cache as relações de difusão não serializadas no driver
    • [SPARK-39912][SPARK-39828][SQL] Refinar CatalogImpl
    • [SPARK-39775][CORE][AVRO] Foi desabilitada a validação de valores padrão ao analisar esquemas Avro
    • [SPARK-39806] Foi corrigido o problema em consultas que acessavam a falha do struct METADATA em tabelas particionadas
    • [SPARK-39867][SQL] O limite global não deve herdar OrderPreservingUnaryNode
    • [SPARK-39962][PYTHON][SQL] Aplicar projeção quando os atributos de grupo estiverem vazios
    • [SPARK-39839][SQL] Tratar o caso especial de decimal de comprimento variável nulo com offsetAndSize diferente de zero na verificação de integridade estrutural de UnsafeRow
    • [SPARK-39713][SQL] Modo ANSI: adicionar sugestão de uso de try_element_at para erro INVALID_ARRAY_INDEX
    • [SPARK-39847] Corrigir condição de corrida em RocksDBLoader.loadLibrary() se o thread do chamador for interrompido
    • [SPARK-39731][SQL] Corrigir problema em fontes de dados CSV e JSON ao analisar datas no formato "yyyyMMdd" com política de analisador de tempo CORRECTED
    • Atualizações de segurança do sistema operacional.
  • 10 de agosto de 2022

    • Para tabelas Delta com controle de acesso à tabela, a evolução automática do esquema por meio de instruções DML, como INSERT e MERGE, já está disponível para todos os usuários que têm permissões MODIFY nessas tabelas. Além disso, as permissões necessárias para executar a evolução do esquema com COPY INTO já foram reduzidas de OWNER para MODIFY, permitindo a consistência com outros comandos. Essas alterações tornam o modelo de segurança de ACL de tabela mais consistente com o modelo de segurança do Catálogo do Unity, bem como com outras operações, como a substituição de uma tabela.
    • [SPARK-39889] Aprimorar a mensagem de erro da divisão em 0
    • [SPARK-39795] [SQL] Nova função SQL: try_to_timestamp
    • [SPARK-39749] Sempre use a representação de cadeia de caracteres sem formatação na conversão decimal como cadeia de caracteres no modo ANSI
    • [SPARK-39625] Renomear df.as para df.to
    • [SPARK-39787] [SQL] Use a classe de erro no erro de análise da função to_timestamp
    • [SPARK-39625] [SQL] Adicionar Dataset.as(StructType)
    • [SPARK-39689] Suporte a 2 caracteres lineSep na fonte de dados CSV
    • [SPARK-39579] [SQL][PYTHON][R] Torne ListFunctions/getFunction/functionExists compatível com o namespace de três camadas
    • [SPARK-39702] [CORE] Reduzir a sobrecarga de memória de TransportCipher$EncryptedMessage usando um byteRawChannel compartilhado
    • [SPARK-39575] [AVRO] Adicionar ByteBuffer#rewind após ByteBuffer#get no AvroDeserializer
    • [SPARK-39265] [SQL] Corrigir falha de teste quando SPARK_ANSI_SQL_MODE for habilitado
    • [SPARK-39441] [SQL] Acelerar DeduplicateRelations
    • [SPARK-39497][SQL] Aprimore a exceção de análise da coluna de chave de mapa ausente
    • [SPARK-39476] [SQL] Desabilitar a otimização de conversão de cancelamento de quebra de linha ao converter de Long para Float/Double ou de Integer para Float
    • [SPARK-39434][SQL] Forneça o contexto da consulta de erro de runtime quando o índice de matriz estiver fora do limite

Databricks Runtime 11.0 (sem suporte)

Confira Databricks Runtime 11.0 (sem suporte).

  • 29 de novembro de 2022
    • Os usuários podem configurar o comportamento dos espaços em branco à esquerda e à direita ao escrever dados usando o conector do Redshift. As seguintes opções foram adicionadas para controlar o tratamento de espaço em branco:
      • csvignoreleadingwhitespace, quando definido como true, remove o espaço em branco à esquerda dos valores ao escrever quando tempformat é definido como CSV ou CSV GZIP. Os espaços em branco são mantidos quando a configuração é definida como false. Por padrão, o valor é true.
      • csvignoretrailingwhitespace, quando definido como true, remove o espaço em branco à direita dos valores ao escrever quando tempformat é definido como CSV ou CSV GZIP. Os espaços em branco são mantidos quando a configuração é definida como false. Por padrão, o valor é true.
    • Corrigido um bug com análise de JSON no Carregador Automático quando todas as colunas eram deixadas como cadeias de caracteres (cloudFiles.inferColumnTypes não era definido como false) e o JSON continha objetos aninhados.
    • [SPARK-39650] [SS] Correção de esquema de valor incorreto na eliminação de duplicação de fluxo com a compatibilidade com versões anteriores
    • Atualizações de segurança do sistema operacional.
  • 15 de novembro de 2022
    • [SPARK-40646] A análise de JSON para structs, mapas e matrizes foi corrigida para que, quando uma parte de um registro não corresponder ao esquema, o restante do registro ainda possa ser analisado corretamente em vez de retornar nulos. Para aceitar o comportamento aprimorado, defina spark.sql.json.enablePartialResults como true. O sinalizador é desabilitado por padrão para preservar o comportamento original.
  • 1º de novembro de 2022
    • Atualização do Apache commons-text para 1.10.0.
    • Corrigido um problema em que, se uma tabela Delta tivesse uma coluna definida pelo usuário chamada _change_type, mas o feed de dados de alteração estivesse desabilitado nessa tabela, os dados dessa coluna preencheriam incorretamente com valores NULL ao executar MERGE.
    • Corrigido um problema com o Carregador Automático em que um arquivo podia ser duplicado no mesmo microlote quando allowOverwrites estivesse habilitado
    • [SPARK-40697][SQL] Adicionar preenchimento de caracteres do lado da leitura para cobrir arquivos de dados externos
    • [SPARK-40596][CORE] Preencher ExecutorDecommission com mensagens em ExecutorDecommissionInfo
    • Atualizações de segurança do sistema operacional.
  • 18 de outubro de 2022
    • [SPARK-40213][SQL] Suporte à conversão de valor ASCII para caracteres Latino-1
    • Atualizações de segurança do sistema operacional.
  • 5 de outubro de 2022
    • Os usuários podem definir spark.conf.set(“spark.databricks.io.listKeysWithPrefix.azure.enabled”, “true”) para reabilitar a listagem nativa do Carregador Automático no ADLS Gen2. A listagem nativa foi desativada anteriormente devido a problemas de desempenho, mas pode ter gerado um aumento nos custos de armazenamento para os clientes. Essa alteração foi implementada no DBR 10.4 e 9.1 na atualização de manutenção anterior.
    • [SPARK-40169] Não efetuar pushdown de filtros Parquet sem referência ao esquema de dados
    • [SPARK-40460][SS] Corrigir métricas de streaming ao selecionar _metadata
    • [SPARK-40468][SQL] Corrigir a remoção de coluna no CSV quando _corrupt_record estiver selecionado
    • Atualizações de segurança do sistema operacional.
  • 22 de setembro de 2022
    • [SPARK-40315][SQL] Adicionar hashCode() para Literal de ArrayBasedMapData
    • [SPARK-40380][SQL] Corrigir dobra constante de InvokeLike para evitar literais não serializáveis inseridos no plano
    • [SPARK-40089][SQL] Corrigir a classificação para alguns tipos decimais
    • [SPARK-39887][SQL] RemoveRedundantAliases deve manter os aliases que tornam a saída de nós de projeção exclusiva
    • [SPARK-40152][SQL] Corrigir problema de compilação de codegen split_part
  • 06 de setembro de 2022
    • [SPARK-40235][CORE] Uso do bloqueio interruptível em vez de sincronizado em Executor.updateDependencies()
    • [SPARK-40212][SQL] O castPartValue do SparkSQL não lida corretamente com byte, short ou float
    • [SPARK-40218][SQL] Os GROUPING SETS devem preservar as colunas de agrupamento
    • [SPARK-39976] [SQL] O ArrayIntersect deve processar null na expressão à esquerda corretamente
    • [SPARK-40053][CORE][SQL][TESTS] Adição de assume aos casos de cancelamento dinâmico que exigem o ambiente de runtime do Python
    • [SPARK-35542][CORE][ML] Correção: o classificador em buckets criado para várias colunas com os parâmetros splitsArray, inputCols e outputCols não pode ser carregado após salvá-lo
    • [SPARK-40079][CORE] Adição da validação inputCols do imputador para o caso de entrada vazio
  • 24 de agosto de 2022
    • [SPARK-39983][CORE][SQL] Não armazene em cache as relações de difusão não serializadas no driver
    • [SPARK-39775][CORE][AVRO] Foi desabilitada a validação de valores padrão ao analisar esquemas Avro
    • [SPARK-39806] Foi corrigido o problema em consultas que acessavam a falha do struct METADATA em tabelas particionadas
    • [SPARK-39867][SQL] O limite global não deve herdar OrderPreservingUnaryNode
    • [SPARK-39962][PYTHON][SQL] Aplicar projeção quando os atributos de grupo estiverem vazios
    • Atualizações de segurança do sistema operacional.
  • 9 de agosto de 2022
    • [SPARK-39713][SQL] Modo ANSI: adicionar sugestão de uso de try_element_at para erro INVALID_ARRAY_INDEX
    • [SPARK-39847] Corrija condição de corrida em RocksDBLoader.loadLibrary() se o thread do chamador for interrompido
    • [SPARK-39731][SQL] Corrigir problema em fontes de dados CSV e JSON ao analisar datas no formato "yyyyMMdd" com política de analisador de tempo CORRECTED
    • [SPARK-39889] Aprimorar a mensagem de erro da divisão em 0
    • [SPARK-39795][SQL] Nova função SQL: try_to_timestamp
    • [SPARK-39749] Sempre use a representação de cadeia de caracteres sem formatação na conversão decimal como cadeia de caracteres no modo ANSI
    • [SPARK-39625][SQL] Adicionar Dataset.to(StructType)
    • [SPARK-39787][SQL] Use a classe de erro no erro de análise da função to_timestamp
    • Atualizações de segurança do sistema operacional.
  • 27 de julho de 2022
    • [SPARK-39689] Suporte a 2 caracteres lineSep na fonte de dados CSV
    • [SPARK-39104] [SQL] InMemoryRelation#isCachedColumnBuffersLoaded deve ser thread-safe
    • [SPARK-39702][CORE] Reduzir a sobrecarga de memória de TransportCipher$EncryptedMessage usando um byteRawChannel compartilhado
    • [SPARK-39575][AVRO] Adicionar ByteBuffer#rewind após ByteBuffer#get no AvroDeserializer
    • [SPARK-39497][SQL] Aprimorar a exceção de análise da coluna de chave de mapa ausente
    • [SPARK-39441][SQL] Acelerar DeduplicateRelations
    • [SPARK-39476][SQL] Desabilitar a otimização de conversão de cancelamento de quebra de linha ao converter de Long para Float/Double ou de Integer para Float
    • [SPARK-39434][SQL] Fornecer o contexto da consulta de erro de runtime quando o índice de matriz está fora do limite
    • [SPARK-39570] [SQL] A tabela embutida deve permitir expressões com alias
    • Atualizações de segurança do sistema operacional.
  • 13 de julho de 2022
    • Torne os resultados da operação DELTA MERGE consistentes quando a origem não for determinística.
    • Foi consertado um problema no TVF cloud_files_state ao executar em caminhos não DBFS.
    • Desabilitado o uso de APIs de nuvem nativas do Carregador Automático para listagem de diretórios no Azure.
    • [SPARK-38796][SQL] Atualize as funções to_number e try_to_number para permitir a PR com números positivos
    • [SPARK-39272][SQL] Aumente a posição inicial do contexto de consulta em 1
    • [SPARK-39419][SQL] Conserte um erro em que ArraySort lança uma exceção quando o comparador retorna nulo
    • Atualizações de segurança do sistema operacional.
  • 5 de julho de 2022
    • Melhoria nas mensagens de erro para uma variedade de classes de erro.
    • [SPARK-39451][SQL] Suporte de intervalos de conversão para integrais no modo ANSI
    • [SPARK-39361] Não usar o padrão de conversão lançável estendido do Log4J2 nas configurações de registro padrão
    • [SPARK-39354][SQL] Garantir que Table or view not found será exibido mesmo se houver dataTypeMismatchError com relação a Filter ao mesmo tempo
    • [SPARK-38675][CORE] Corrigir a corrida durante o desbloqueio no BlockInfoManager
    • [SPARK-39392][SQL] Refinar as mensagens de erro ANSI para dicas de função try_*
    • [SPARK-39214][SQL][3.3] Melhoria dos erros relacionados a CAST
    • [SPARK-37939][SQL] Usar classes de erro nos erros de análise de propriedades
    • [SPARK-39085][SQL] Mover a mensagem de erro de INCONSISTENT_BEHAVIOR_CROSS_VERSION para error-classes.json
    • [SPARK-39376][SQL] Ocultar colunas duplicadas na expansão em estrela do alias de subconsulta de NATURAL/USING JOIN
    • [SPARK-39283][CORE] Consertar o deadlock entre TaskMemoryManager e UnsafeExternalSorter.SpillableIterator
    • [SPARK-39285][SQL] O Spark não deve verificar nomes de campo ao ler arquivos
    • Atualizações de segurança do sistema operacional.

Databricks Runtime 10.5 (sem suporte)

Confira Databricks Runtime 10.5 (sem suporte).

  • 1º de novembro de 2022
    • Corrigido um problema em que, se uma tabela Delta tivesse uma coluna definida pelo usuário chamada _change_type, mas o feed de dados de alteração estivesse desabilitado nessa tabela, os dados dessa coluna preencheriam incorretamente com valores NULL ao executar MERGE.
    • [SPARK-40697][SQL] Adicionar preenchimento de caracteres do lado da leitura para cobrir arquivos de dados externos
    • [SPARK-40596][CORE] Preencher ExecutorDecommission com mensagens em ExecutorDecommissionInfo
    • Atualizações de segurança do sistema operacional.
  • 18 de outubro de 2022
    • Atualizações de segurança do sistema operacional.
  • 5 de outubro de 2022
    • Os usuários podem definir spark.conf.set(“spark.databricks.io.listKeysWithPrefix.azure.enabled”, “true”) para reabilitar a listagem nativa do Carregador Automático no ADLS Gen2. A listagem nativa foi desativada anteriormente devido a problemas de desempenho, mas pode ter gerado um aumento nos custos de armazenamento para os clientes. Essa alteração foi implementada no DBR 10.4 e 9.1 na atualização de manutenção anterior.
    • O reload4j foi atualizado para 1.2.19 para corrigir as vulnerabilidades.
    • [SPARK-40460][SS] Corrigir métricas de streaming ao selecionar _metadata
    • [SPARK-40468][SQL] Corrigir a remoção de coluna no CSV quando _corrupt_record estiver selecionado
    • Atualizações de segurança do sistema operacional.
  • 22 de setembro de 2022
    • [SPARK-40315][SQL] Adicionar hashCode() para Literal de ArrayBasedMapData
    • [SPARK-40213][SQL] Suporte à conversão de valor ASCII para caracteres Latino-1
    • [SPARK-40380][SQL] Corrigir dobra constante de InvokeLike para evitar literais não serializáveis inseridos no plano
    • [SPARK-38404][SQL] Melhorar a resolução de CTE quando um CTE aninhado faz referência a um CTE externo
    • [SPARK-40089][SQL] Corrigir a classificação para alguns tipos decimais
    • [SPARK-39887][SQL] RemoveRedundantAliases deve manter os aliases que tornam a saída de nós de projeção exclusiva
    • Atualizações de segurança do sistema operacional.
  • 06 de setembro de 2022
    • [SPARK-40235][CORE] Uso do bloqueio interruptível em vez de sincronizado em Executor.updateDependencies()
    • [SPARK-39976] [SQL] O ArrayIntersect deve processar null na expressão à esquerda corretamente
    • [SPARK-40053][CORE][SQL][TESTS] Adição de assume aos casos de cancelamento dinâmico que exigem o ambiente de runtime do Python
    • [SPARK-35542][CORE][ML] Correção: o classificador em buckets criado para várias colunas com os parâmetros splitsArray, inputCols e outputCols não pode ser carregado após salvá-lo
    • [SPARK-40079][CORE] Adição da validação inputCols do imputador para o caso de entrada vazio
  • 24 de agosto de 2022
    • [SPARK-39983][CORE][SQL] Não armazene em cache as relações de difusão não serializadas no driver
    • [SPARK-39775][CORE][AVRO] Foi desabilitada a validação de valores padrão ao analisar esquemas Avro
    • [SPARK-39806] Foi corrigido o problema em consultas que acessavam a falha do struct METADATA em tabelas particionadas
    • [SPARK-39962][PYTHON][SQL] Aplicar projeção quando os atributos de grupo estiverem vazios
    • [SPARK-37643][SQL] Quando charVarcharAsString for true, a consulta de predicado de tipo de dados char deve ignorar a regra de rpadding
    • Atualizações de segurança do sistema operacional.
  • 9 de agosto de 2022
    • [SPARK-39847] Corrija condição de corrida em RocksDBLoader.loadLibrary() se o thread do chamador for interrompido
    • [SPARK-39731][SQL] Corrigir problema em fontes de dados CSV e JSON ao analisar datas no formato "yyyyMMdd" com política de analisador de tempo CORRECTED
    • Atualizações de segurança do sistema operacional.
  • 27 de julho de 2022
    • [SPARK-39625][SQL] Adicionar Dataset.as(StructType)
    • [SPARK-39689] Suporte a 2 caracteres lineSep na fonte de dados CSV
    • [SPARK-39104] [SQL] InMemoryRelation#isCachedColumnBuffersLoaded deve ser thread-safe
    • [SPARK-39570] [SQL] A tabela embutida deve permitir expressões com alias
    • [SPARK-39702][CORE] Reduzir a sobrecarga de memória de TransportCipher$EncryptedMessage usando um byteRawChannel compartilhado
    • [SPARK-39575][AVRO] Adicionar ByteBuffer#rewind após ByteBuffer#get no AvroDeserializer
    • [SPARK-39476][SQL] Desabilitar a otimização de conversão de cancelamento de quebra de linha ao converter de Long para Float/Double ou de Integer para Float
    • Atualizações de segurança do sistema operacional.
  • 13 de julho de 2022
    • Torne os resultados da operação DELTA MERGE consistentes quando a origem não for determinística.
    • [SPARK-39355][SQL] A coluna única usa aspas para construir UnresolvedAttribute
    • [SPARK-39548][SQL] O comando CreateView com uma consulta de cláusula de janela atingiu uma definição de janela errada. Problema não encontrado
    • [SPARK-39419][SQL] Conserte um erro em que ArraySort lança uma exceção quando o comparador retorna nulo
    • Desabilitado o uso de APIs de nuvem nativas do Carregador Automático para listagem de diretórios no Azure.
    • Atualizações de segurança do sistema operacional.
  • 5 de julho de 2022
    • [SPARK-39376][SQL] Ocultar colunas duplicadas na expansão em estrela do alias de subconsulta de NATURAL/USING JOIN
    • Atualizações de segurança do sistema operacional.
  • 15 de junho de 2022
    • [SPARK-39283][CORE] Consertar o deadlock entre TaskMemoryManager e UnsafeExternalSorter.SpillableIterator
    • [SPARK-39285][SQL] O Spark não deve verificar nomes de campo ao ler arquivos
    • [SPARK-34096][SQL] Aprimorar o desempenho de nth_value e ignorar nulos durante a janela de deslocamento
    • [SPARK-36718][SQL][ACOMPANHAMENTO] Consertar a verificação isExtractOnly em CollapseProject
  • 2 de junho de 2022
    • [SPARK-39166][SQL] Fornecer o contexto da consulta de erro de runtime para aritmética binária quando o WSCG estiver desativado
    • [SPARK-39093][SQL] Evitar o erro de compilação do codegen ao dividir intervalos de ano-mês ou intervalos de dia-hora por um integral
    • [SPARK-38990][SQL] Evitar NullPointerException ao avaliar o formato date_trunc/trunc como uma referência associada
    • Atualizações de segurança do sistema operacional.
  • 18 de maio de 2022
    • Corrige um possível vazamento de memória nativa no Carregador Automático.
    • [SPARK-38868][SQL]Não propagar exceções do predicado de filtro ao otimizar junções externas
    • [SPARK-38796][SQL] Implementar as funções to_number e try_to_number SQL de acordo com uma nova especificação
    • [SPARK-38918][SQL] A poda de coluna aninhada deve filtrar atributos que não pertencem à relação atual
    • [SPARK-38929][SQL] Aprimorar as mensagens de erro para converter falhas em ANSI
    • [SPARK-38926][SQL] Tipos de saída em mensagens de erro no estilo SQL
    • [SPARK-39084][PYSPARK] Corrigir df.rdd.isEmpty() usando TaskContext para interromper o iterador na conclusão da tarefa
    • [SPARK-32268][SQL] Adicionar ColumnPruning no injectBloomFilter
    • [SPARK-38908][SQL] Fornecer contexto de consulta no erro de runtime de Conversão de Cadeia de Caracteres para Número/Data/Carimbo de Data/Hora/Booliano
    • [SPARK-39046][SQL] Retornar uma cadeia de caracteres de contexto vazia se TreeNode.origin estiver definido incorretamente
    • [SPARK-38974][SQL] Filtrar funções registradas com um determinado nome de banco de dados em funções de lista
    • [SPARK-38762][SQL] Fornecer contexto de consulta em erros de estouro de Decimal
    • [SPARK-38931][SS] Criar diretório dfs raiz para RocksDBFileManager com número desconhecido de chaves no 1º ponto de verificação
    • [SPARK-38992][CORE] Evitar usar bash -c em ShellBasedGroupsMappingProvider
    • [SPARK-38716][SQL] Fornecer contexto de consulta no erro chave de mapa não existe
    • [SPARK-38889][SQL] Compilar filtros de coluna booliana para usar o tipo de bit para a fonte de dados MSSQL
    • [SPARK-38698][SQL] Fornecer contexto de consulta no erro de runtime de Dividir/Div/Resto/Pmod
    • [SPARK-38823][SQL] Tornar NewInstance não dobrável para corrigir o problema de corrupção do buffer de agregação
    • [SPARK-38809][SS] Implemente a opção para ignorar valores nulos na implementação de hash simétrico de junções fluxo-fluxo
    • [SPARK-38676][SQL] Forneça contexto de consulta SQL na mensagem de erro de runtime de Adicionar/Subtrair/Multiplicar
    • [SPARK-38677][PYSPARK] Python MonitorThread deve detectar um deadlock devido ao bloqueio por E/S
    • Atualizações de segurança do sistema operacional.

Databricks Runtime 10.3 (sem suporte)

Confira Databricks Runtime 10.3 (sem suporte).

  • 27 de julho de 2022
    • [SPARK-39689] Suporte a 2 caracteres lineSep na fonte de dados CSV
    • [SPARK-39104] [SQL] InMemoryRelation#isCachedColumnBuffersLoaded deve ser thread-safe
    • [SPARK-39702][CORE] Reduzir a sobrecarga de memória de TransportCipher$EncryptedMessage usando um byteRawChannel compartilhado
    • Atualizações de segurança do sistema operacional.
  • 20 de julho de 2022
    • Torne os resultados da operação DELTA MERGE consistentes quando a origem não for determinística.
    • [SPARK-39476][SQL] Desabilitar a otimização de conversão de cancelamento de quebra de linha ao converter de Long para Float/Double ou de Integer para Float
    • [SPARK-39548][SQL] O comando CreateView com uma consulta de cláusula de janela atingiu uma definição de janela errada. Problema não encontrado
    • [SPARK-39419][SQL] Conserte um erro em que ArraySort lança uma exceção quando o comparador retorna nulo
    • Atualizações de segurança do sistema operacional.
  • 5 de julho de 2022
    • [SPARK-39376][SQL] Ocultar colunas duplicadas na expansão em estrela do alias de subconsulta de NATURAL/USING JOIN
    • Atualizações de segurança do sistema operacional.
  • 15 de junho de 2022
    • [SPARK-39283][CORE] Consertar o deadlock entre TaskMemoryManager e UnsafeExternalSorter.SpillableIterator
    • [SPARK-39285][SQL] O Spark não deve verificar nomes de campo ao ler arquivos
    • [SPARK-34096][SQL] Aprimorar o desempenho de nth_value e ignorar nulos durante a janela de deslocamento
    • [SPARK-36718][SQL][ACOMPANHAMENTO] Consertar a verificação isExtractOnly em CollapseProject
  • 2 de junho de 2022
    • [SPARK-38990][SQL] Evitar NullPointerException ao avaliar o formato date_trunc/trunc como uma referência associada
    • Atualizações de segurança do sistema operacional.
  • 18 de maio de 2022
    • Corrige um possível vazamento de memória nativa no Carregador Automático.
    • [SPARK-38918][SQL] A poda de coluna aninhada deve filtrar atributos que não pertencem à relação atual
    • [SPARK-37593][CORE] Reduza o tamanho da página padrão LONG_ARRAY_OFFSET se G1GC e ON_HEAP forem usados
    • [SPARK-39084][PYSPARK] Corrigir df.rdd.isEmpty() usando TaskContext para interromper o iterador na conclusão da tarefa
    • [SPARK-32268][SQL] Adicionar ColumnPruning no injectBloomFilter
    • [SPARK-38974][SQL] Filtrar funções registradas com um determinado nome de banco de dados em funções de lista
    • [SPARK-38889][SQL] Compilar filtros de coluna booliana para usar o tipo de bit para a fonte de dados MSSQL
    • Atualizações de segurança do sistema operacional.
  • 4 de maio de 2022
    • SDK do Java AWS atualizado da versão 1.11.655 para 1.12.1899.
  • 19 de abril de 2022
    • [SPARK-38616][SQL] Acompanhar texto de consulta SQL no Catalyst TreeNode
    • Atualizações de segurança do sistema operacional.
  • 6 de abril de 2022
    • [SPARK-38631][CORE] Usa a implementação baseada em Java para descoberta em Utils.unpack
    • Atualizações de segurança do sistema operacional.
  • 22 de março de 2022
    • Alteração do diretório de trabalho atual dos notebooks em clusters de simultaneidade alta com controle de acesso de tabela ou passagem de credencial habilitada para o diretório inicial do usuário. Anteriormente, o diretório de trabalho era /databricks/driver.
    • [SPARK-38437][SQL] Serialização branda de datetime da fonte de dados
    • [SPARK-38180][SQL] Permitir expressões de up-cast seguras em predicados de igualdade correlacionados
    • [SPARK-38155][SQL] Não permitir agregação distinta em subconsultas laterais com predicados sem suporte
    • [SPARK-38325][SQL] Modo ANSI: evitar um possível erro de runtime em HashJoin.extractKeyExprAt()
  • 14 de março de 2022
    • Melhorou a detecção de conflito de transação para transações vazias no Delta Lake.
    • [SPARK-38185][SQL] Corrige os dados incorretos se a função de agregação estiver vazia
    • [SPARK-38318][SQL] Regressão ao substituir uma exibição de conjuntos de dados
    • [SPARK-38236][SQL] Os caminhos absolutos de arquivo especificados na tabela criada/alterada são tratados como relativos
    • [SPARK-35937][SQL] A extração do campo de data do carimbo de data/hora funciona no modo ANSI
    • [SPARK-34069][SQL] As tarefas de barreira de encerramento devem respeitarSPARK_JOB_INTERRUPT_ON_CANCEL
    • [SPARK-37707][SQL] Permite a atribuição de armazenamento entre TimestampNTZ e Data/Carimbo de data/hora
  • 23 de fevereiro de 2022
    • [SPARK-27442][SQL] Remove o nome do campo de verificação ao ler/escrever dados no parquet

Databricks Runtime 10.2 (sem suporte)

Confira Databricks Runtime 10.2 (sem suporte).

  • 15 de junho de 2022
    • [SPARK-39283][CORE] Consertar o deadlock entre TaskMemoryManager e UnsafeExternalSorter.SpillableIterator
    • [SPARK-39285][SQL] O Spark não deve verificar nomes de campo ao ler arquivos
    • [SPARK-34096][SQL] Aprimorar o desempenho de nth_value e ignorar nulos durante a janela de deslocamento
  • 2 de junho de 2022
    • [SPARK-38918][SQL] A poda de coluna aninhada deve filtrar atributos que não pertencem à relação atual
    • [SPARK-38990][SQL] Evitar NullPointerException ao avaliar o formato date_trunc/trunc como uma referência associada
    • Atualizações de segurança do sistema operacional.
  • 18 de maio de 2022
    • Corrige um possível vazamento de memória nativa no Carregador Automático.
    • [SPARK-39084][PYSPARK] Corrigir df.rdd.isEmpty() usando TaskContext para interromper o iterador na conclusão da tarefa
    • [SPARK-38889][SQL] Compilar filtros de coluna booliana para usar o tipo de bit para a fonte de dados MSSQL
    • [SPARK-38931][SS] Criar diretório dfs raiz para RocksDBFileManager com número desconhecido de chaves no 1º ponto de verificação
    • Atualizações de segurança do sistema operacional.
  • 4 de maio de 2022
    • SDK do Java AWS atualizado da versão 1.11.655 para 1.12.1899.
  • 19 de abril de 2022
    • Atualizações de segurança do sistema operacional.
    • Diversas correções de bugs.
  • 6 de abril de 2022
    • [SPARK-38631][CORE] Usa a implementação baseada em Java para descoberta em Utils.unpack
    • Atualizações de segurança do sistema operacional.
  • 22 de março de 2022
    • Alteração do diretório de trabalho atual dos notebooks em clusters de simultaneidade alta com controle de acesso de tabela ou passagem de credencial habilitada para o diretório inicial do usuário. Anteriormente, o diretório de trabalho era /databricks/driver.
    • [SPARK-38437][SQL] Serialização branda de datetime da fonte de dados
    • [SPARK-38180][SQL] Permitir expressões de up-cast seguras em predicados de igualdade correlacionados
    • [SPARK-38155][SQL] Não permitir agregação distinta em subconsultas laterais com predicados sem suporte
    • [SPARK-38325][SQL] Modo ANSI: evitar um possível erro de runtime em HashJoin.extractKeyExprAt()
  • 14 de março de 2022
    • Melhorou a detecção de conflito de transação para transações vazias no Delta Lake.
    • [SPARK-38185][SQL] Corrige os dados incorretos se a função de agregação estiver vazia
    • [SPARK-38318][SQL] Regressão ao substituir uma exibição de conjuntos de dados
    • [SPARK-38236][SQL] Os caminhos absolutos de arquivo especificados na tabela criada/alterada são tratados como relativos
    • [SPARK-35937][SQL] A extração do campo de data do carimbo de data/hora funciona no modo ANSI
    • [SPARK-34069][SQL] As tarefas de barreira de encerramento devem respeitarSPARK_JOB_INTERRUPT_ON_CANCEL
    • [SPARK-37707][SQL] Permite a atribuição de armazenamento entre TimestampNTZ e Data/Carimbo de data/hora
  • 23 de fevereiro de 2022
    • [SPARK-37577][SQL] Corrige o ClassCastException: ArrayType não pode ser convertido para StructType para gerar remoção
  • 8 de fevereiro de 2022
    • [SPARK-27442][SQL] Remove o nome do campo de verificação ao ler/escrever dados no parquet.
    • Atualizações de segurança do sistema operacional.
  • 1° de fevereiro de 2022
    • Atualizações de segurança do sistema operacional.
  • 26 de janeiro de 2022
    • Corrigiu um bug em que as transações simultâneas em tabelas Delta podiam ser executadas em uma ordem não serializável em determinadas condições raras.
    • Corrigiu um bug em que o comando OPTIMIZE falhava quando o dialeto SQL ANSI estava habilitado.
  • 19 de janeiro de 2022
    • Introduziu suporte para credenciais temporárias em série para COPY INTO para carregar os dados de origem sem exigir permissões ANY_FILE de SQL
    • Correções de erros e aprimoramentos de segurança.
  • 20 de dezembro de 2021
    • Corrigiu um bug raro com filtragem baseada em índice de coluna Parquet.

Databricks Runtime 10.1 (sem suporte)

Confira Databricks Runtime 10.1 (sem suporte).

  • 15 de junho de 2022
    • [SPARK-39283][CORE] Consertar o deadlock entre TaskMemoryManager e UnsafeExternalSorter.SpillableIterator
    • [SPARK-39285][SQL] O Spark não deve verificar nomes de campo ao ler arquivos
    • [SPARK-34096][SQL] Aprimorar o desempenho de nth_value e ignorar nulos durante a janela de deslocamento
  • 2 de junho de 2022
    • Atualizações de segurança do sistema operacional.
  • 18 de maio de 2022
    • Corrige um possível vazamento de memória nativa no Carregador Automático.
    • [SPARK-39084][PYSPARK] Corrigir df.rdd.isEmpty() usando TaskContext para interromper o iterador na conclusão da tarefa
    • [SPARK-38889][SQL] Compilar filtros de coluna booliana para usar o tipo de bit para a fonte de dados MSSQL
    • Atualizações de segurança do sistema operacional.
  • 19 de abril de 2022
    • [SPARK-37270][SQL] Corrigir push dobrável em ramificações CaseWhen se elseValue estiver vazio
    • Atualizações de segurança do sistema operacional.
  • 6 de abril de 2022
    • [SPARK-38631][CORE] Usa a implementação baseada em Java para descoberta em Utils.unpack
    • Atualizações de segurança do sistema operacional.
  • 22 de março de 2022
    • [SPARK-38437][SQL] Serialização branda de datetime da fonte de dados
    • [SPARK-38180][SQL] Permitir expressões de up-cast seguras em predicados de igualdade correlacionados
    • [SPARK-38155][SQL] Não permitir agregação distinta em subconsultas laterais com predicados sem suporte
    • [SPARK-38325][SQL] Modo ANSI: evitar um possível erro de runtime em HashJoin.extractKeyExprAt()
  • 14 de março de 2022
    • Melhorou a detecção de conflito de transação para transações vazias no Delta Lake.
    • [SPARK-38185][SQL] Corrige os dados incorretos se a função de agregação estiver vazia
    • [SPARK-38318][SQL] Regressão ao substituir uma exibição de conjuntos de dados
    • [SPARK-38236][SQL] Os caminhos absolutos de arquivo especificados na tabela criada/alterada são tratados como relativos
    • [SPARK-35937][SQL] A extração do campo de data do carimbo de data/hora funciona no modo ANSI
    • [SPARK-34069][SQL] As tarefas de barreira de encerramento devem respeitarSPARK_JOB_INTERRUPT_ON_CANCEL
    • [SPARK-37707][SQL] Permite a atribuição de armazenamento entre TimestampNTZ e Data/Carimbo de data/hora
  • 23 de fevereiro de 2022
    • [SPARK-37577][SQL] Corrige o ClassCastException: ArrayType não pode ser convertido para StructType para gerar remoção
  • 8 de fevereiro de 2022
    • [SPARK-27442][SQL] Remove o nome do campo de verificação ao ler/escrever dados no parquet.
    • Atualizações de segurança do sistema operacional.
  • 1° de fevereiro de 2022
    • Atualizações de segurança do sistema operacional.
  • 26 de janeiro de 2022
    • Corrigiu um bug em que as transações simultâneas em tabelas Delta podiam ser executadas em uma ordem não serializável em determinadas condições raras.
    • Corrigiu um bug em que o comando OPTIMIZE falhava quando o dialeto SQL ANSI estava habilitado.
  • 19 de janeiro de 2022
    • Introduziu suporte para credenciais temporárias em série para COPY INTO para carregar os dados de origem sem exigir permissões ANY_FILE de SQL
    • Corrigiu um problema de falta de memória ao fazer o cache de resultados da consulta em determinadas condições.
    • Corrigiu um problema com USE DATABASE quando um usuário alterna o catálogo atual para um catálogo não padrão.
    • Correções de erros e aprimoramentos de segurança.
    • Atualizações de segurança do sistema operacional.
  • 20 de dezembro de 2021
    • Corrigiu um bug raro com filtragem baseada em índice de coluna Parquet.

Databricks Runtime 10.0 (sem suporte)

Confira Databricks Runtime 10.0 (sem suporte).

  • 19 de abril de 2022
    • [SPARK-37270][SQL] Corrigir push dobrável em ramificações CaseWhen se elseValue estiver vazio
    • Atualizações de segurança do sistema operacional.
  • 6 de abril de 2022
    • [SPARK-38631][CORE] Usa a implementação baseada em Java para descoberta em Utils.unpack
    • Atualizações de segurança do sistema operacional.
  • 22 de março de 2022
    • [SPARK-38437][SQL] Serialização branda de datetime da fonte de dados
    • [SPARK-38180][SQL] Permitir expressões de up-cast seguras em predicados de igualdade correlacionados
    • [SPARK-38155][SQL] Não permitir agregação distinta em subconsultas laterais com predicados sem suporte
    • [SPARK-38325][SQL] Modo ANSI: evitar um possível erro de runtime em HashJoin.extractKeyExprAt()
  • 14 de março de 2022
    • Melhorou a detecção de conflito de transação para transações vazias no Delta Lake.
    • [SPARK-38185][SQL] Corrige os dados incorretos se a função de agregação estiver vazia
    • [SPARK-38318][SQL] Regressão ao substituir uma exibição de conjuntos de dados
    • [SPARK-38236][SQL] Os caminhos absolutos de arquivo especificados na tabela criada/alterada são tratados como relativos
    • [SPARK-35937][SQL] A extração do campo de data do carimbo de data/hora funciona no modo ANSI
    • [SPARK-34069][SQL] As tarefas de barreira de encerramento devem respeitarSPARK_JOB_INTERRUPT_ON_CANCEL
    • [SPARK-37707][SQL] Permite a atribuição de armazenamento entre TimestampNTZ e Data/Carimbo de data/hora
  • 23 de fevereiro de 2022
    • [SPARK-37577][SQL] Corrige o ClassCastException: ArrayType não pode ser convertido para StructType para gerar remoção
  • 8 de fevereiro de 2022
    • [SPARK-27442][SQL] Remove o nome do campo de verificação ao ler/escrever dados no parquet.
    • [SPARK-36905][SQL] Corrige exibições de hive de leitura sem nomes explícitos de coluna
    • [SPARK-37859][SQL] Corrige o problema em que as tabelas SQL criadas com o JDBC com Spark 3.1 não conseguem ser acessadas com a 3.2
    • Atualizações de segurança do sistema operacional.
  • 1° de fevereiro de 2022
    • Atualizações de segurança do sistema operacional.
  • 26 de janeiro de 2022
    • Corrigiu um bug em que as transações simultâneas em tabelas Delta podiam ser executadas em uma ordem não serializável em determinadas condições raras.
    • Corrigiu um bug em que o comando OPTIMIZE falhava quando o dialeto SQL ANSI estava habilitado.
  • 19 de janeiro de 2022
    • Correções de erros e aprimoramentos de segurança.
    • Atualizações de segurança do sistema operacional.
  • 20 de dezembro de 2021
    • Corrigiu um bug raro com filtragem baseada em índice de coluna Parquet.
  • 9 de novembro de 2021
    • Introduziu sinalizadores adicionais de configuração para habilitar o controle de granularidade dos comportamentos ANSI.
  • 4 de novembro de 2021
    • Corrigiu um bug que fazia com que fluxos do Streaming Estruturado falhassem com uma ArrayIndexOutOfBoundsException
    • Corrigiu uma condição de corrida que pode causar uma falha de consulta com uma IOException como java.io.IOException: No FileSystem for scheme ou que pode fazer com que as modificações em sparkContext.hadoopConfiguration não afetem as consultas.
    • O Apache Spark Conector para compartilhamento Delta foi atualizado para 0.2.0.
  • 30 de novembro de 2021
    • Corrigiu um problema com a análise do carimbo de data/hora em que uma cadeia de caracteres de fuso horário sem dois-pontos era considerada inválida.
    • Corrigiu um problema de falta de memória ao fazer o cache de resultados da consulta em determinadas condições.
    • Corrigiu um problema com USE DATABASE quando um usuário alterna o catálogo atual para um catálogo não padrão.

Databricks Runtime 9.0 (sem suporte)

Confira Databricks Runtime 9.0 (sem suporte).

  • 8 de fevereiro de 2022
    • Atualizações de segurança do sistema operacional.
  • 1° de fevereiro de 2022
    • Atualizações de segurança do sistema operacional.
  • 26 de janeiro de 2022
    • Corrigiu um bug em que o comando OPTIMIZE falhava quando o dialeto SQL ANSI estava habilitado.
  • 19 de janeiro de 2022
    • Correções de erros e aprimoramentos de segurança.
    • Atualizações de segurança do sistema operacional.
  • 4 de novembro de 2021
    • Corrigiu um bug que fazia com que fluxos do Streaming Estruturado falhassem com uma ArrayIndexOutOfBoundsException
    • Corrigiu uma condição de corrida que pode causar uma falha de consulta com uma IOException como java.io.IOException: No FileSystem for scheme ou que pode fazer com que as modificações em sparkContext.hadoopConfiguration não afetem as consultas.
    • O Apache Spark Conector para compartilhamento Delta foi atualizado para 0.2.0.
  • 22 de setembro de 2021
    • Corrigiu um bug na conversão de nulo para cadeia de caracteres da matriz Spark
  • 15 de setembro de 2021
    • Corrigiu uma condição de corrida que pode causar uma falha de consulta com uma IOException como java.io.IOException: org.apache.spark.SparkException: Failed to get broadcast_x_piecey of broadcast_x.
  • 8 de setembro de 2021
    • Foi adicionado suporte para o nome do esquema (formato databaseName.schemaName.tableName) como o nome da tabela de destino para o Azure Synapse Connector.
    • Foi adicionado suporte a tipos JDBC de geometria e geografia para o Spark SQL.
    • [SPARK-33527][SQL] Foi estendida a função de decodificação de modo consistente com os bancos de dados base.
    • [SPARK-36532][CORE][3.1] Corrigiu o deadlock em CoarseGrainedExecutorBackend.onDisconnected para evitar executorsconnected de impedir o travamento do desligamento do executor.
  • 25 de agosto de 2021
    • A biblioteca de drivers do SQL Server foi atualizada para 9.2.1. jre8.
    • O conector Snowflake foi atualizado para 2.9.0.
    • Corrigiu o link desfeito para o melhor notebook de avaliação na página de experimento do AutoML.

Databricks Runtime 8.4 (sem suporte)

Confira Databricks Runtime 8.4 (sem suporte).

  • 19 de janeiro de 2022
    • Atualizações de segurança do sistema operacional.
  • 4 de novembro de 2021
    • Corrigiu um bug que fazia com que fluxos do Streaming Estruturado falhassem com uma ArrayIndexOutOfBoundsException
    • Corrigiu uma condição de corrida que pode causar uma falha de consulta com uma IOException como java.io.IOException: No FileSystem for scheme ou que pode fazer com que as modificações em sparkContext.hadoopConfiguration não afetem as consultas.
    • O Apache Spark Conector para compartilhamento Delta foi atualizado para 0.2.0.
  • 22 de setembro de 2021
    • O driver JDBC do Spark foi atualizado para 2.6.19.1030
    • [SPARK-36734][SQL] Atualizado ORC para 1.5.1
  • 15 de setembro de 2021
    • Corrigiu uma condição de corrida que pode causar uma falha de consulta com uma IOException como java.io.IOException: org.apache.spark.SparkException: Failed to get broadcast_x_piecey of broadcast_x.
    • Atualizações de segurança do sistema operacional.
  • 8 de setembro de 2021
    • [SPARK-36532][CORE][3.1] Corrigiu o deadlock em CoarseGrainedExecutorBackend.onDisconnected para evitar executorsconnected de impedir o travamento do desligamento do executor.
  • 25 de agosto de 2021
    • A biblioteca de drivers do SQL Server foi atualizada para 9.2.1. jre8.
    • O conector Snowflake foi atualizado para 2.9.0.
    • Corrige um bug na passagem de credencial causada pela nova otimização de pré-busca Parquet, em que a credencial de passagem do usuário pode não ser encontrada durante o acesso ao arquivo.
  • 11 de agosto de 2021
    • Corrige um problema de incompatibilidade do RocksDB que inibe o Databricks Runtime 8,4 mais antigo. Isso corrige a compatibilidade com o carregador automático, o COPY INTO e os aplicativos de streaming com estado.
    • Corrige um bug ao usar o carregador automático para ler arquivos CSV com arquivos de cabeçalho incompatíveis. Se os nomes de coluna não corresponderem, a coluna será preenchida com nulos. Agora, se um esquema for fornecido, ele assumirá que o esquema é o mesmo e salvará apenas as incompatibilidades de coluna se as colunas de dados recuperadas estiverem habilitadas.
    • Adiciona uma nova opção chamada externalDataSource no conector do Azure Synapse para remover o requisito de permissão CONTROL no banco de dados para leitura do PolyBase.
  • 29 de julho de 2021
    • [SPARK-36034][BUILD] Troca de base datetime nos filtros enviados por push para o Parquet
    • [SPARK-36163][BUILD] Propaga as propriedades JDBC corretas no provedor de conector JDBC e adiciona a opção connectionProvider

Databricks Runtime 8.3 (sem suporte)

Confira Databricks Runtime 8.3 (sem suporte).

  • 19 de janeiro de 2022
    • Atualizações de segurança do sistema operacional.
  • 4 de novembro de 2021
    • Corrigiu um bug que fazia com que fluxos do Streaming Estruturado falhassem com uma ArrayIndexOutOfBoundsException
    • Corrigiu uma condição de corrida que pode causar uma falha de consulta com uma IOException como java.io.IOException: No FileSystem for scheme ou que pode fazer com que as modificações em sparkContext.hadoopConfiguration não afetem as consultas.
  • 22 de setembro de 2021
    • O driver JDBC do Spark foi atualizado para 2.6.19.1030
  • 15 de setembro de 2021
    • Corrigiu uma condição de corrida que pode causar uma falha de consulta com uma IOException como java.io.IOException: org.apache.spark.SparkException: Failed to get broadcast_x_piecey of broadcast_x.
    • Atualizações de segurança do sistema operacional.
  • 8 de setembro de 2021
    • [SPARK-35700][SQL] [WARMFIX] Lê tabela char/varchar orc quando criada e gravada por sistemas externos.
    • [SPARK-36532][CORE][3.1] Corrigiu o deadlock em CoarseGrainedExecutorBackend.onDisconnected para evitar executorsconnected de impedir o travamento do desligamento do executor.
  • 25 de agosto de 2021
    • A biblioteca de drivers do SQL Server foi atualizada para 9.2.1. jre8.
    • O conector Snowflake foi atualizado para 2.9.0.
    • Corrige um bug na passagem de credencial causada pela nova otimização de pré-busca Parquet, em que a credencial de passagem do usuário pode não ser encontrada durante o acesso ao arquivo.
  • 11 de agosto de 2021
    • Corrige um bug ao usar o carregador automático para ler arquivos CSV com arquivos de cabeçalho incompatíveis. Se os nomes de coluna não corresponderem, a coluna será preenchida com nulos. Agora, se um esquema for fornecido, ele assumirá que o esquema é o mesmo e salvará apenas as incompatibilidades de coluna se as colunas de dados recuperadas estiverem habilitadas.
  • 29 de julho de 2021
    • Atualização do conector Databricks Snowflake Spark para 2.9.0-spark-3,1
    • [SPARK-36034][BUILD] Troca de base datetime nos filtros enviados por push para o Parquet
    • [SPARK-36163][BUILD] Propaga as propriedades JDBC corretas no provedor de conector JDBC e adiciona a opção connectionProvider
  • 14 de julho de 2021
    • Corrigiu um problema ao usar nomes de coluna com pontos no conector do Azure Synapse.
    • Introduziu o formato database.schema.table do conector do Synapse.
    • Adicionou suporte para fornecer o formato databaseName.schemaName.tableName como a tabela de destino em vez de apenas schemaName.tableName ou tableName.
  • 15 de junho de 2021
    • Corrigiu o bug NoSuchElementException em gravações otimizadas do Delta Lake que podia ocorrer durante a gravação de grandes quantidades de dados e a ocorrência de perdas de executor
    • Adiciona os comandos SQL CREATE GROUP, DROP GROUP, ALTER GROUP, SHOW GROUPS e SHOW USERS. Para obter detalhes, confira Instruções de Segurança e Instruções de exibição.

Databricks Runtime 8.2 (sem suporte)

Confira Databricks Runtime 8.2 (sem suporte).

  • 22 de setembro de 2021

    • Atualizações de segurança do sistema operacional.
  • 15 de setembro de 2021

    • Corrigiu uma condição de corrida que pode causar uma falha de consulta com uma IOException como java.io.IOException: org.apache.spark.SparkException: Failed to get broadcast_x_piecey of broadcast_x.
  • 8 de setembro de 2021

    • [SPARK-35700][SQL] [WARMFIX] Lê tabela char/varchar orc quando criada e gravada por sistemas externos.
    • [SPARK-36532][CORE][3.1] Corrigiu o deadlock em CoarseGrainedExecutorBackend.onDisconnected para evitar executorsconnected de impedir o travamento do desligamento do executor.
  • 25 de agosto de 2021

    • O conector Snowflake foi atualizado para 2.9.0.
  • 11 de agosto de 2021

    • [SPARK-36034][SQL] Troca de base datetime nos filtros enviados por push para o Parquet.
  • 29 de julho de 2021

    • Atualização do conector Databricks Snowflake Spark para 2.9.0-spark-3,1
    • [SPARK-36163][BUILD] Propaga as propriedades JDBC corretas no provedor de conector JDBC e adiciona a opção connectionProvider
  • 14 de julho de 2021

    • Corrigiu um problema ao usar nomes de coluna com pontos no conector do Azure Synapse.
    • Introduziu o formato database.schema.table do conector do Synapse.
    • Adicionou suporte para fornecer o formato databaseName.schemaName.tableName como a tabela de destino em vez de apenas schemaName.tableName ou tableName.
    • Corrigiu um bug que impedia que os usuários viajassem no tempo em versões mais antigas disponíveis com tabelas Delta.
  • 15 de junho de 2021

    • Corrige o bug NoSuchElementException em gravações otimizadas do Delta Lake que pode ocorrer durante a gravação de grandes quantidades de dados e a ocorrência de perdas de executor
  • 26 de maio de 2021

    • Python atualizado com patch de segurança para corrigir vulnerabilidade de segurança do Python (CVE-2021-3177).
  • 30 de abril de 2021

    • Atualizações de segurança do sistema operacional.
    • [SPARK-35227][BUILD] Atualiza o resolvedor para pacotes Spark no SparkSubmit
    • [SPARK-34245][CORE] Verifica se o Master remove executores que não puderam enviar o estado concluído
    • Corrigiu o problema de OOM em que o carregador automático relata métricas de progresso do Streaming estruturado.

Databricks Runtime 8.1 (sem suporte)

Confira Databricks Runtime 8.1 (sem suporte).

  • 22 de setembro de 2021

    • Atualizações de segurança do sistema operacional.
  • 15 de setembro de 2021

    • Corrigiu uma condição de corrida que pode causar uma falha de consulta com uma IOException como java.io.IOException: org.apache.spark.SparkException: Failed to get broadcast_x_piecey of broadcast_x.
  • 8 de setembro de 2021

    • [SPARK-35700][SQL] [WARMFIX] Lê tabela char/varchar orc quando criada e gravada por sistemas externos.
    • [SPARK-36532][CORE][3.1] Corrigiu o deadlock em CoarseGrainedExecutorBackend.onDisconnected para evitar executorsconnected de impedir o travamento do desligamento do executor.
  • 25 de agosto de 2021

    • O conector Snowflake foi atualizado para 2.9.0.
  • 11 de agosto de 2021

    • [SPARK-36034][SQL] Troca de base datetime nos filtros enviados por push para o Parquet.
  • 29 de julho de 2021

    • Atualização do conector Databricks Snowflake Spark para 2.9.0-spark-3,1
    • [SPARK-36163][BUILD] Propaga as propriedades JDBC corretas no provedor de conector JDBC e adiciona a opção connectionProvider
  • 14 de julho de 2021

    • Corrigiu um problema ao usar nomes de coluna com pontos no conector do Azure Synapse.
    • Corrigiu um bug que impedia que os usuários viajassem no tempo em versões mais antigas disponíveis com tabelas Delta.
  • 15 de junho de 2021

    • Corrige o bug NoSuchElementException em gravações otimizadas do Delta Lake que pode ocorrer durante a gravação de grandes quantidades de dados e a ocorrência de perdas de executor
  • 26 de maio de 2021

    • Python atualizado com patch de segurança para corrigir vulnerabilidade de segurança do Python (CVE-2021-3177).
  • 30 de abril de 2021

    • Atualizações de segurança do sistema operacional.
    • [SPARK-35227][BUILD] Atualiza o resolvedor para pacotes Spark no SparkSubmit
    • Corrigiu o problema de OOM em que o carregador automático relata métricas de progresso do Streaming estruturado.
  • 27 de abril de 2021

    • [SPARK-34245][CORE] Verifica se o Master remove executores que não puderam enviar o estado concluído
    • [SPARK-34856][SQL] Modo ANSI: permite a conversão de tipos complexos como tipo cadeia de caracteres
    • [SPARK-35014] Corrige o padrão PhysicalAggregation para não reescrever expressões fold
    • [SPARK-34769][SQL] AnsiTypeCoercion: retorna tipo conversível mais estreito entre TypeCollection
    • [SPARK-34614][SQL] Modo ANSI: a conversão da cadeia de caracteres para booliano gerará uma exceção no erro de análise
    • [SPARK-33794][SQL] modo ANSI: corrige a expressão NextDay para lançar o runtime IllegalArgumentException ao receber entrada inválida

Databricks Runtime 8.0 (sem suporte)

Confira Databricks Runtime 8.0 (sem suporte).

  • 15 de setembro de 2021

    • Corrigiu uma condição de corrida que pode causar uma falha de consulta com uma IOException como java.io.IOException: org.apache.spark.SparkException: Failed to get broadcast_x_piecey of broadcast_x.
  • 25 de agosto de 2021

    • O conector Snowflake foi atualizado para 2.9.0.
  • 11 de agosto de 2021

    • [SPARK-36034][SQL] Troca de base datetime nos filtros enviados por push para o Parquet.
  • 29 de julho de 2021

    • [SPARK-36163][BUILD] Propaga as propriedades JDBC corretas no provedor de conector JDBC e adiciona a opção connectionProvider
  • 14 de julho de 2021

    • Corrigiu um problema ao usar nomes de coluna com pontos no conector do Azure Synapse.
    • Corrigiu um bug que impedia que os usuários viajassem no tempo em versões mais antigas disponíveis com tabelas Delta.
  • 26 de maio de 2021

    • Python atualizado com patch de segurança para corrigir vulnerabilidade de segurança do Python (CVE-2021-3177).
  • 30 de abril de 2021

    • Atualizações de segurança do sistema operacional.
    • [SPARK-35227][BUILD] Atualiza o resolvedor para pacotes Spark no SparkSubmit
    • [SPARK-34245][CORE] Verifica se o Master remove executores que não puderam enviar o estado concluído
  • 24 de março de 2021

    • [SPARK-34681] [SQL] Corrige o bug da junção de hash completa, embaralhada e externa ao compilar o lado esquerdo com condição não igual
    • [SPARK-34534] Corrige a ordem de blockIds ao usar o FetchShuffleBlocks para pegar os blocos
    • [SPARK-34613][SQL] A exibição de correção não captura configuração de dica desabilitada
  • 9 de março de 2021

    • [SPARK-34543][SQL] Respeita a configuração spark.sql.caseSensitive ao resolver a especificação de partição em v1 SET LOCATION
    • [SPARK-34392][SQL] Suporte a ZoneOffset +h:mm em DateTimeUtils. getZoneId
    • [UI] Corrige o link href da visualização do Spark DAG
    • [SPARK-34436][SQL] Suporte DPP à expressão LIKE ANY/ALL

Databricks Runtime 7.6 (sem suporte)

Confira Databricks Runtime 7.6 (sem suporte).

  • 11 de agosto de 2021
    • [SPARK-36034][SQL] Troca de base datetime nos filtros enviados por push para o Parquet.
  • 29 de julho de 2021
    • [SPARK-32998][BUILD] Adiciona capacidade de substituir repositórios remotos padrão apenas por repositórios internos
  • 14 de julho de 2021
    • Corrigiu um bug que impedia que os usuários viajassem no tempo em versões mais antigas disponíveis com tabelas Delta.
  • 26 de maio de 2021
    • Python atualizado com patch de segurança para corrigir vulnerabilidade de segurança do Python (CVE-2021-3177).
  • 30 de abril de 2021
    • Atualizações de segurança do sistema operacional.
    • [SPARK-35227][BUILD] Atualiza o resolvedor para pacotes Spark no SparkSubmit
    • [SPARK-34245][CORE] Verifica se o Master remove executores que não puderam enviar o estado concluído
  • 24 de março de 2021
    • [SPARK-34768][SQL] Respeita o tamanho padrão do buffer de entrada em Univocity
    • [SPARK-34534] Corrige a ordem de blockIds ao usar o FetchShuffleBlocks para pegar os blocos
  • 9 de março de 2021
    • (Somente Azure) Corrigiu um bug do carregador automático que causava NullPointerException ao usar o Databricks Runtime 7,6 para executar um fluxo do carregador automático antigo criado no Databricks Runtime 7.2
    • [UI] Corrige o link href da visualização do Spark DAG
    • Nó de folha SparkPlan desconhecido não é tratado corretamente em SizeInBytesOnlyStatsSparkPlanVisitor
    • Restaurar o esquema de saída de SHOW DATABASES
    • [Delta][8.0, 7.6] Corrigiu o bug de cálculo na lógica de ajuste automático do tamanho do arquivo
    • Desabilitar a verificação de obsolescência para arquivos de tabela Delta no cache de disco
    • [SQL] Usar a correta chave de compilação de remoção dinâmica quando a dica de junção de intervalo estiver habilitada
    • Desabilitar o suporte ao tipo de caractere no caminho do código não SQL
    • Evitar o NPE no DataFrameReader.schema
    • Corrigir o NPE quando a resposta EventGridClient não tiver nenhuma entidade
    • Corrigir um bug de fluxo de leitura fechado no carregador automático do Azure
    • [SQL] Não gerar aviso de número de partição em ordem aleatória quando o AOS estiver habilitado
  • 24 de fevereiro de 2021
    • O conector do Spark BigQuery foi atualizado para v 0.18, que apresenta várias correções de bugs e suporte para iteradores de Arrow e Avro.
    • Corrigiu um problema de correção que fazia com que o Spark retornasse resultados incorretos quando a precisão decimal e a escala do arquivo Parquet eram diferentes do esquema do Spark.
    • Corrigiu o problema de falha de leitura nas tabelas do Microsoft SQL Server que contêm tipos de dados espaciais, adicionando suporte a tipos de tipo de gráfico de geometria e geografia para o Spark SQL.
    • Introduziu a nova configuração spark.databricks.hive.metastore.init.reloadFunctions.enabled. Essa configuração controla a inicialização do Hive interno. Quando definido como verdadeiro, o Azure Databricks recarrega todas as funções de todos os bancos de dados que os usuários têm em FunctionRegistry. Esse é o comportamento padrão no Metastore do Hive. Quando definido como falso, o Azure Databricks desabilita esse processo para otimização.
    • [SPARK-34212] Corrigiu os problemas relacionados à leitura de dados decimais de arquivos Parquet.
    • [SPARK-34260][SQL] Corrigiu o UnresolvedException ao criar a exibição temporária duas vezes.

Databricks Runtime 7.5 (sem suporte)

Confira Databricks Runtime 7.5 (sem suporte).

  • 26 de maio de 2021
    • Python atualizado com patch de segurança para corrigir vulnerabilidade de segurança do Python (CVE-2021-3177).
  • 30 de abril de 2021
    • Atualizações de segurança do sistema operacional.
    • [SPARK-35227][BUILD] Atualiza o resolvedor para pacotes Spark no SparkSubmit
    • [SPARK-34245][CORE] Verifica se o Master remove executores que não puderam enviar o estado concluído
  • 24 de março de 2021
    • [SPARK-34768][SQL] Respeita o tamanho padrão do buffer de entrada em Univocity
    • [SPARK-34534] Corrige a ordem de blockIds ao usar o FetchShuffleBlocks para pegar os blocos
  • 9 de março de 2021
    • (Somente Azure) Corrigiu um bug do carregador automático que causava NullPointerException ao usar o Databricks Runtime 7,5 para executar um fluxo do carregador automático antigo criado no Databricks Runtime 7.2.
    • [UI] Corrige o link href da visualização do Spark DAG
    • Nó de folha SparkPlan desconhecido não é tratado corretamente em SizeInBytesOnlyStatsSparkPlanVisitor
    • Restaurar o esquema de saída de SHOW DATABASES
    • Desabilitar a verificação de obsolescência para arquivos de tabela Delta no cache de disco
    • [SQL] Usar a correta chave de compilação de remoção dinâmica quando a dica de junção de intervalo estiver habilitada
    • Desabilitar o suporte ao tipo de caractere no caminho do código não SQL
    • Evitar o NPE no DataFrameReader.schema
    • Corrigir o NPE quando a resposta EventGridClient não tiver nenhuma entidade
    • Corrigir um bug de fluxo de leitura fechado no carregador automático do Azure
  • 24 de fevereiro de 2021
    • O conector do Spark BigQuery foi atualizado para v 0.18, que apresenta várias correções de bugs e suporte para iteradores de Arrow e Avro.
    • Corrigiu um problema de correção que fazia com que o Spark retornasse resultados incorretos quando a precisão decimal e a escala do arquivo Parquet eram diferentes do esquema do Spark.
    • Corrigiu o problema de falha de leitura nas tabelas do Microsoft SQL Server que contêm tipos de dados espaciais, adicionando suporte a tipos de tipo de gráfico de geometria e geografia para o Spark SQL.
    • Introduziu a nova configuração spark.databricks.hive.metastore.init.reloadFunctions.enabled. Essa configuração controla a inicialização do Hive interno. Quando definido como verdadeiro, o Azure Databricks recarrega todas as funções de todos os bancos de dados que os usuários têm em FunctionRegistry. Esse é o comportamento padrão no Metastore do Hive. Quando definido como falso, o Azure Databricks desabilita esse processo para otimização.
    • [SPARK-34212] Corrigiu os problemas relacionados à leitura de dados decimais de arquivos Parquet.
    • [SPARK-34260][SQL] Corrigiu o UnresolvedException ao criar a exibição temporária duas vezes.
  • 4 de fevereiro de 2021
    • Corrigiu a regressão que impede a execução incremental de uma consulta que define um limite global, como SELECT * FROM table LIMIT nrows. A regressão ocorria quando os usuários executavam consultas por meio de ODBC/JDBC com a serialização de Arrow habilitada.
    • Introduziu a verificações de tempo de gravação do cliente Hive para evitar a corrupção de metadados no metastore do Hive em tabelas Delta.
    • Corrigiu a regressão que causava falha no início do FUSE do DBFS quando as configurações de variáveis de ambiente do cluster continham sintaxe inválida de bash.
  • 20 de janeiro de 2021
    • Correção da regressão na versão de manutenção de 12 de janeiro de 2021 que causava uma AnalysisException incorreta e dizia que a coluna era ambígua em uma autojunção. Essa regressão ocorre quando um usuário faz a junção do DataFrame com o DataFrame derivado (denominado autojunção) nas seguintes condições:
      • Esses dois DataFrames têm colunas em comum, mas a saída da autojunção não tem colunas em comum. Por exemplo, df.join(df.select($"col" as "new_col"), cond)
      • O DataFrame derivado exclui algumas colunas por meio de select, groupBy ou window.
      • A condição de junção ou a transformação a seguir após o Dataframe unido refere-se às colunas não comuns. Por exemplo, df.join(df.drop("a"), df("a") === 1)
  • 12 de janeiro de 2021
    • Atualização do SDK do Armazenamento do Microsoft Azure de 2.3.8 para 2.3.9.
    • [SPARK-33593][SQL] O leitor de vetor recebeu dados incorretos com o valor de partição binária
    • [SPARK-33480][SQL] Atualiza a mensagem de erro da verificação de comprimento de inserção da tabela char/varchar

Databricks Runtime 7.3 LTS (sem suporte)

Consulte Databricks Runtime 7.3 LTS (sem suporte).

  • 10 de setembro de 2023

    • Diversas correções de bugs.
  • 30 de agosto de 2023

    • Atualizações de segurança do sistema operacional.
  • 15 de agosto de 2023

    • Atualizações de segurança do sistema operacional.
  • 23 de junho de 2023

    • A biblioteca Snowflake-jdbc foi atualizada para 3.13.29 para que fosse resolvido um problema de segurança.
    • Atualizações de segurança do sistema operacional.
  • 15 de junho de 2023

    • [SPARK-43413][SQL] Corrija a nulidade IN da subconsulta ListQuery.
    • Atualizações de segurança do sistema operacional.
  • 2 de junho de 2023

    • Corrigido um problema no Carregador Automático em que diferentes formatos de arquivo de origem eram inconsistentes quando o esquema fornecido não incluía partições inferidas. Esse problema pode causar falhas inesperadas ao ler arquivos com colunas ausentes no esquema de partição inferido.
  • 17 de maio de 2023

    • Atualizações de segurança do sistema operacional.
  • 25 de abril de 2023

    • Atualizações de segurança do sistema operacional.
  • 11 de abril de 2023

    • [SPARK-42967][CORE] Corrigir SparkListenerTaskStart.stageAttemptId quando uma tarefa é iniciada após o cancelamento do estágio.
    • Diversas correções de bugs.
  • 29 de março de 2023

    • Atualizações de segurança do sistema operacional.
  • 14 de março de 2023

    • Diversas correções de bugs.
  • 28 de fevereiro de 2023

    • Atualizações de segurança do sistema operacional.
  • 16 de fevereiro de 2023

    • Atualizações de segurança do sistema operacional.
  • 31 de janeiro de 2023

    • Os tipos de tabelas JDBC agora são EXTERNAL por padrão.
  • 18 de janeiro de 2023

    • Atualizações de segurança do sistema operacional.
  • 29 de novembro de 2022

    • Diversas correções de bugs.
  • 15 de novembro de 2022

    • Atualização do Apache commons-text para 1.10.0.
    • Atualizações de segurança do sistema operacional.
    • Diversas correções de bugs.
  • 1º de novembro de 2022

    • [SPARK-38542] [SQL] UnsafeHashedRelation deve serializar numKeys
  • 18 de outubro de 2022

    • Atualizações de segurança do sistema operacional.
  • 5 de outubro de 2022

    • Diversas correções de bugs.
    • Atualizações de segurança do sistema operacional.
  • 22 de setembro de 2022

    • [SPARK-40089][SQL] Corrigir a classificação para alguns tipos decimais
  • 06 de setembro de 2022

    • [SPARK-35542][CORE][ML] Correção: o classificador em buckets criado para várias colunas com os parâmetros splitsArray, inputCols e outputCols não pode ser carregado após salvá-lo
    • [SPARK-40079][CORE] Adição da validação inputCols do imputador para o caso de entrada vazio
  • 24 de agosto de 2022

    • [SPARK-39962][PYTHON][SQL] Aplicar projeção quando os atributos de grupo estiverem vazios
    • Atualizações de segurança do sistema operacional.
  • 9 de agosto de 2022

    • Atualizações de segurança do sistema operacional.
  • 27 de julho de 2022

    • Torne os resultados da operação DELTA MERGE consistentes quando a origem não for determinística.
    • Atualizações de segurança do sistema operacional.
    • Diversas correções de bugs.
  • 13 de julho de 2022

    • [SPARK-32680][SQL] Não pré-processe o CTAS V2 com uma consulta não resolvida
    • Desabilitado o uso de APIs de nuvem nativas do Carregador Automático para listagem de diretórios no Azure.
    • Atualizações de segurança do sistema operacional.
  • 5 de julho de 2022

    • Atualizações de segurança do sistema operacional.
    • Diversas correções de bugs.
  • 2 de junho de 2022

    • [SPARK-38918][SQL] A poda de coluna aninhada deve filtrar atributos que não pertencem à relação atual
    • Atualizações de segurança do sistema operacional.
  • 18 de maio de 2022

    • Atualize a versão do SDK do AWS da 1.11.655 para a 1.11.678.
    • Atualizações de segurança do sistema operacional.
    • Diversas correções de bugs.
  • 19 de abril de 2022

    • Atualizações de segurança do sistema operacional.
    • Diversas correções de bugs.
  • 6 de abril de 2022

    • Atualizações de segurança do sistema operacional.
    • Diversas correções de bugs.
  • 14 de março de 2022

    • Remover classes vulneráveis do jar log4j 1.2.17
    • Diversas correções de bugs.
  • 23 de fevereiro de 2022

    • [SPARK-37859][SQL] Não verifica se há metadados durante a comparação de esquema
  • 8 de fevereiro de 2022

    • Atualiza o JDK do Ubuntu para 1.8.0.312.
    • Atualizações de segurança do sistema operacional.
  • 1° de fevereiro de 2022

    • Atualizações de segurança do sistema operacional.
  • 26 de janeiro de 2022

    • Corrigiu um bug em que o comando OPTIMIZE falhava quando o dialeto SQL ANSI estava habilitado.
  • 19 de janeiro de 2022

    • O canal padrão do Conda foi removido da versão 7.3 ML LTS
    • Atualizações de segurança do sistema operacional.
  • 7 de dezembro de 2021

    • Atualizações de segurança do sistema operacional.
  • 4 de novembro de 2021

    • Corrigiu um bug que fazia com que fluxos do Streaming Estruturado falhassem com uma ArrayIndexOutOfBoundsException
    • Corrigiu uma condição de corrida que pode causar uma falha de consulta com uma IOException como java.io.IOException: No FileSystem for scheme ou que pode fazer com que as modificações em sparkContext.hadoopConfiguration não afetem as consultas.
  • 15 de setembro de 2021

    • Corrigiu uma condição de corrida que pode causar uma falha de consulta com uma IOException como java.io.IOException: org.apache.spark.SparkException: Failed to get broadcast_x_piecey of broadcast_x.
    • Atualizações de segurança do sistema operacional.
  • 8 de setembro de 2021

    • [SPARK-35700][SQL] [WARMFIX] Lê tabela char/varchar orc quando criada e gravada por sistemas externos.
    • [SPARK-36532][CORE][3.1] Corrigiu o deadlock em CoarseGrainedExecutorBackend.onDisconnected para evitar executorsconnected de impedir o travamento do desligamento do executor.
  • 25 de agosto de 2021

    • O conector Snowflake foi atualizado para 2.9.0.
  • 29 de julho de 2021

    • [SPARK-36034][BUILD] Troca de base datetime nos filtros enviados por push para o Parquet
    • [SPARK-34508][BUILD] Ignora HiveExternalCatalogVersionsSuite se a rede estiver inativa
  • 14 de julho de 2021

    • Introduziu o formato database.schema.table do conector do Azure Synapse.
    • Adicionou suporte para fornecer o formato databaseName.schemaName.tableName como a tabela de destino em vez de apenas schemaName.tableName ou tableName.
    • Corrigiu um bug que impedia que os usuários viajassem no tempo em versões mais antigas disponíveis com tabelas Delta.
  • 15 de junho de 2021

    • Corrige o bug NoSuchElementException em gravações otimizadas do Delta Lake que pode ocorrer durante a gravação de grandes quantidades de dados e a ocorrência de perdas de executor
    • Python atualizado com patch de segurança para corrigir vulnerabilidade de segurança do Python (CVE-2021-3177).
  • 30 de abril de 2021

    • Atualizações de segurança do sistema operacional.
    • [SPARK-35227][BUILD] Atualiza o resolvedor para pacotes Spark no SparkSubmit
    • [SPARK-34245][CORE] Verifica se o Master remove executores que não puderam enviar o estado concluído
    • [SPARK-35045][SQL] Adiciona uma opção interna para controlar o buffer de entrada em univocidade
  • 24 de março de 2021

    • [SPARK-34768][SQL] Respeita o tamanho padrão do buffer de entrada em Univocity
    • [SPARK-34534] Corrige a ordem de blockIds ao usar o FetchShuffleBlocks para pegar os blocos
    • [SPARK-33118][SQL] Falha ao CRIAR TABELA TEMPORÁRIA com o local
  • 9 de março de 2021

    • O driver do Azure Blob File System atualizado para Azure Data Lake Storage Gen2 agora está habilitado por padrão. Ele traz vários aprimoramentos na estabilidade.
    • Correção do separador de caminho no Windows para databricks-connect get-jar-dir
    • [UI] Corrige o link href da visualização do Spark DAG
    • [DBCONNECT] Adiciona suporte para FlatMapCoGroupsInPandas no Databricks Conexão 7.3
    • Restaurar o esquema de saída de SHOW DATABASES
    • [SQL] Usar a correta chave de compilação de remoção dinâmica quando a dica de junção de intervalo estiver habilitada
    • Desabilitar a verificação de obsolescência para arquivos de tabela Delta no cache de disco
    • [SQL] Não gera aviso de número de partição em ordem aleatória quando o AOS está habilitado
  • 24 de fevereiro de 2021

    • O conector do Spark BigQuery foi atualizado para v 0.18, que apresenta várias correções de bugs e suporte para iteradores de Arrow e Avro.
    • Corrigiu um problema de correção que fazia com que o Spark retornasse resultados incorretos quando a precisão decimal e a escala do arquivo Parquet eram diferentes do esquema do Spark.
    • Corrigiu o problema de falha de leitura nas tabelas do Microsoft SQL Server que contêm tipos de dados espaciais, adicionando suporte a tipos de tipo de gráfico de geometria e geografia para o Spark SQL.
    • Introduziu a nova configuração spark.databricks.hive.metastore.init.reloadFunctions.enabled. Essa configuração controla a inicialização do Hive interno. Quando definido como verdadeiro, o Azure Databricks recarrega todas as funções de todos os bancos de dados que os usuários têm em FunctionRegistry. Esse é o comportamento padrão no Metastore do Hive. Quando definido como falso, o Azure Databricks desabilita esse processo para otimização.
    • [SPARK-34212] Corrigiu os problemas relacionados à leitura de dados decimais de arquivos Parquet.
    • [SPARK-33579][UI] Corrige o executor de página em branco atrás do proxy.
    • [SPARK-20044][UI] Suporta a interface do usuário do Spark por trás do proxy reverso de front-end usando um prefixo de caminho.
    • [SPARK-33277][PYSPARK][SQL] Usa ContextAwareIterator para parar o consumo após o término da tarefa.
  • 4 de fevereiro de 2021

    • Corrigiu a regressão que impede a execução incremental de uma consulta que define um limite global, como SELECT * FROM table LIMIT nrows. A regressão ocorria quando os usuários executavam consultas por meio de ODBC/JDBC com a serialização de Arrow habilitada.
    • Corrigiu a regressão que causava falha no início do FUSE do DBFS quando as configurações de variáveis de ambiente do cluster continham sintaxe inválida de bash.
  • 20 de janeiro de 2021

    • Correção da regressão na versão de manutenção de 12 de janeiro de 2021 que causava uma AnalysisException incorreta e dizia que a coluna era ambígua em uma autojunção. Essa regressão ocorre quando um usuário faz a junção do DataFrame com o DataFrame derivado (denominado autojunção) nas seguintes condições:
      • Esses dois DataFrames têm colunas em comum, mas a saída da autojunção não tem colunas em comum. Por exemplo, df.join(df.select($"col" as "new_col"), cond)
      • O DataFrame derivado exclui algumas colunas por meio de select, groupBy ou window.
      • A condição de junção ou a transformação a seguir após o Dataframe unido refere-se às colunas não comuns. Por exemplo, df.join(df.drop("a"), df("a") === 1)
  • 12 de janeiro de 2021

    • Atualizações de segurança do sistema operacional.
    • [SPARK-33593][SQL] O leitor de vetor recebeu dados incorretos com o valor de partição binária
    • [SPARK-33677][SQL] Ignora a regra LikeSimplification se o padrão contiver escapeChar
    • [SPARK-33592][ML][PYTHON] Os parâmetros do validador Pyspark ML no estimatorParamMaps podem ser perdidos após salvar e recarregar
    • [SPARK-33071][SPARK-33536][SQL] Evita alterações no dataset_id do LogicalPlan em join() para não interromper o DetectAmbiguousSelfJoin
  • 8 de dezembro de 2020

    • [SPARK-33587][CORE] Encerra o executor em erros fatais aninhados
    • [SPARK-27421][SQL] Corrige o filtro da coluna int e classe de valor do java.lang.String ao remover a coluna de partição
    • [SPARK-33316][SQL] Usuário de suporte forneceu o esquema Avro anulável para o esquema de catalisador não anulável na gravação do Avro
    • Os trabalhos do Spark iniciados usando o Databricks Connect podem parar indefinidamente com Executor$TaskRunner.$anonfun$copySessionState em rastreamento de pilha do executor
    • Atualizações de segurança do sistema operacional.
  • 1º de dezembro de 2020

    • [SPARK-33404][SQL][3.0] Corrige os resultados incorretos na expressão date_trunc
    • [SPARK-33339][PYTHON] O aplicativo Pyspark será interrompido devido a um erro de não exceção
    • [SPARK-33183][SQL][HOTFIX] Corrige a regra EliminateSorts do otimizador e adiciona uma regra física para remover as classificações redundantes
    • [SPARK-33371][PYTHON][3.0] Atualiza o setup.py e testes para o Python 3.9
    • [SPARK-33391][SQL] O element_at com o CreateArray não respeita um índice baseado.
    • [SPARK-33306][SQL] O fuso horário é necessário ao converter uma data para uma cadeia de caracteres
    • [SPARK-33260][SQL] Corrige os resultados incorretos de SortExec quando sortOrder é Stream
  • 5 de novembro de 2020

    • Corrige o bloqueio de ABFS e WASB com relação a UserGroupInformation.getCurrentUser().
    • Corrige um bug de loop infinito quando o leitor do Avro lia os bytes MAGIC.
    • Adiciona suporte para o privilégio de USO.
    • Melhorias de desempenho para verificação de privilégios no controle de acesso à tabela.
  • 13 de outubro de 2020

    • Atualizações de segurança do sistema operacional.
    • Você pode ler e gravar do DBFS usando a montagem FUSE em /dbfs/ quando estiver em um cluster habilitado para passagem de credencial de alta simultaneidade. Suporta montagens regulares, mas as montagens que precisam de credenciais de passagem ainda não são suportadas.
    • [SPARK-32999][SQL] Usa Utils.getSimpleName para evitar que ocorra nome de classe malformado no TreeNode
    • [SPARK-32585][SQL] Suporta enumeração escalar em ScalaReflection
    • Corrigiu diretórios de listagem na montagem FUSE que contêm nomes de arquivos com caracteres XML inválidos
    • A montagem FUSE não usa mais ListMultipartUploads
  • 29 de setembro de 2020

    • [SPARK-32718][SQL] Remove palavras-chave desnecessárias nas unidades de intervalo
    • [SPARK-32635][SQL] Corrige a propagação dobrável
    • Adiciona a nova configuração spark.shuffle.io.decoder.consolidateThreshold. Define o valor de configuração como Long.MAX_VALUE para ignorar a consolidação de FrameBuffers de netty, que impede java.lang.IndexOutOfBoundsException em casos fora do padrão.
  • 25 de abril de 2023

    • Atualizações de segurança do sistema operacional.
  • 11 de abril de 2023

    • Diversas correções de bugs.
  • 29 de março de 2023

    • Diversas correções de bugs.
  • 14 de março de 2023

    • Atualizações de segurança do sistema operacional.
  • 28 de fevereiro de 2023

    • Atualizações de segurança do sistema operacional.
  • 16 de fevereiro de 2023

    • Atualizações de segurança do sistema operacional.
  • 31 de janeiro de 2023

    • Diversas correções de bugs.
  • 18 de janeiro de 2023

    • Atualizações de segurança do sistema operacional.
  • 29 de novembro de 2022

    • Atualizações de segurança do sistema operacional.
  • 15 de novembro de 2022

    • Atualizações de segurança do sistema operacional.
    • Diversas correções de bugs.
  • 1º de novembro de 2022

    • Atualizações de segurança do sistema operacional.
  • 18 de outubro de 2022

    • Atualizações de segurança do sistema operacional.
    • 5 de outubro de 2022
      • Atualizações de segurança do sistema operacional.
    • 24 de agosto de 2022
      • Atualizações de segurança do sistema operacional.
    • 9 de agosto de 2022
      • Atualizações de segurança do sistema operacional.
    • 27 de julho de 2022
      • Atualizações de segurança do sistema operacional.
    • 5 de julho de 2022
      • Atualizações de segurança do sistema operacional.
    • 2 de junho de 2022
      • Atualizações de segurança do sistema operacional.
    • 18 de maio de 2022
      • Atualizações de segurança do sistema operacional.
    • 19 de abril de 2022
      • Atualizações de segurança do sistema operacional.
      • Diversas correções de bugs.
    • 6 de abril de 2022
      • Atualizações de segurança do sistema operacional.
      • Diversas correções de bugs.
    • 14 de março de 2022
      • Diversas correções de bugs.
    • 23 de fevereiro de 2022
      • Diversas correções de bugs.
    • 8 de fevereiro de 2022
      • Atualiza o JDK do Ubuntu para 1.8.0.312.
      • Atualizações de segurança do sistema operacional.
    • 1° de fevereiro de 2022
      • Atualizações de segurança do sistema operacional.
    • 19 de janeiro de 2022
      • Atualizações de segurança do sistema operacional.
    • 22 de setembro de 2021
      • Atualizações de segurança do sistema operacional.
    • 30 de abril de 2021
      • Atualizações de segurança do sistema operacional.
      • [SPARK-35227][BUILD] Atualiza o resolvedor para pacotes Spark no SparkSubmit
    • 12 de janeiro de 2021
      • Atualizações de segurança do sistema operacional.
    • 8 de dezembro de 2020
      • [SPARK-27421][SQL] Corrige o filtro da coluna int e classe de valor do java.lang.String ao remover a coluna de partição
      • Atualizações de segurança do sistema operacional.
    • 1º de dezembro de 2020
    • [SPARK-33260][SQL] Corrige os resultados incorretos de SortExec quando sortOrder é Stream
    • 3 de novembro de 2020
      • Versão do Java atualizada de 1.8.0_252 para 1.8.0_265.
      • Corrige o bloqueio ABFS e WASB em relação a UserGroupInformation.getCurrentUser()
    • 13 de outubro de 2020
      • Atualizações de segurança do sistema operacional.

Suporte estendido do Databricks Runtime 6.4 (sem suporte)

Confira Databricks Runtime 6.4 (Sem suporte) e Suporte Estendido do Databricks Runtime 6.4 (Sem suporte).

  • 5 de julho de 2022

    • Atualizações de segurança do sistema operacional.
    • Diversas correções de bugs.
  • 2 de junho de 2022

    • Atualizações de segurança do sistema operacional.
  • 18 de maio de 2022

    • Atualizações de segurança do sistema operacional.
  • 19 de abril de 2022

    • Atualizações de segurança do sistema operacional.
    • Diversas correções de bugs.
  • 6 de abril de 2022

    • Atualizações de segurança do sistema operacional.
    • Diversas correções de bugs.
  • 14 de março de 2022

    • Remover classes vulneráveis do jar log4j 1.2.17
    • Diversas correções de bugs.
  • 23 de fevereiro de 2022

    • Diversas correções de bugs.
  • 8 de fevereiro de 2022

    • Atualiza o JDK do Ubuntu para 1.8.0.312.
    • Atualizações de segurança do sistema operacional.
  • 1° de fevereiro de 2022

    • Atualizações de segurança do sistema operacional.
  • 26 de janeiro de 2022

    • Corrigiu um bug em que o comando OPTIMIZE falhava quando o dialeto SQL ANSI estava habilitado.
  • 19 de janeiro de 2022

    • Atualizações de segurança do sistema operacional.
  • 8 de dezembro de 2021

    • Atualizações de segurança do sistema operacional.
  • 22 de setembro de 2021

    • Atualizações de segurança do sistema operacional.
  • 15 de junho de 2021

    • [SPARK-35576][SQL][3.1] Edita as informações confidenciais no resultado do comando Set
  • 7 de junho de 2021

    • Adiciona uma nova configuração chamada spark.sql.maven.additionalRemoteRepositories, uma configuração de cadeia de caracteres delimitada por vírgula do espelho do Maven que é remoto, adicional e opcional. O valor padrão é https://maven-central.storage-download.googleapis.com/maven2/.
  • 30 de abril de 2021

    • Atualizações de segurança do sistema operacional.
    • [SPARK-35227][BUILD] Atualiza o resolvedor para pacotes Spark no SparkSubmit
  • 9 de março de 2021

    • Porta HADOOP-17215 para o driver do Azure Blob File System (suporte para substituição condicional).
    • Correção do separador de caminho no Windows para databricks-connect get-jar-dir
    • Adicionou suporte para metastore do Hive nas versões 2.3.5, 2.3.6 e 2.3.7
    • O Arrow "totalResultsCollected" relatou incorretamente após o despejo
  • 24 de fevereiro de 2021

    • Introduziu a nova configuração spark.databricks.hive.metastore.init.reloadFunctions.enabled. Essa configuração controla a inicialização do Hive interno. Quando definido como verdadeiro, o Azure Databricks recarrega todas as funções de todos os bancos de dados que os usuários têm em FunctionRegistry. Esse é o comportamento padrão no Metastore do Hive. Quando definido como falso, o Azure Databricks desabilita esse processo para otimização.
  • 4 de fevereiro de 2021

    • Corrigiu a regressão que impede a execução incremental de uma consulta que define um limite global, como SELECT * FROM table LIMIT nrows. A regressão ocorria quando os usuários executavam consultas por meio de ODBC/JDBC com a serialização de Arrow habilitada.
    • Corrigiu a regressão que causava falha no início do FUSE do DBFS quando as configurações de variáveis de ambiente do cluster continham sintaxe inválida de bash.
  • 12 de janeiro de 2021

    • Atualizações de segurança do sistema operacional.
  • 8 de dezembro de 2020

    • [SPARK-27421][SQL] Corrige o filtro da coluna int e classe de valor do java.lang.String ao remover a coluna de partição
    • [SPARK-33183][SQL] Corrige a regra EliminateSorts do otimizador e adiciona uma regra física para remover as classificações redundantes
    • [Runtime 6.4 ML GPU] Instalamos anteriormente uma versão incorreta (2.7.8-1+cuda11.1) de NCCL. Esta versão o corrige para 2.4.8-1+cuda10.0, que é compatível com CUDA 10,0.
    • Atualizações de segurança do sistema operacional.
  • 1º de dezembro de 2020

    • [SPARK-33260][SQL] Corrige os resultados incorretos de SortExec quando sortOrder é Stream
    • [SPARK-32635][SQL] Corrige a propagação dobrável
  • 3 de novembro de 2020

    • Versão do Java atualizada de 1.8.0_252 para 1.8.0_265.
    • Corrige o bloqueio ABFS e WASB em relação a UserGroupInformation.getCurrentUser()
    • Corrige um bug de loop infinito do leitor do Avro ao ler os bytes MAGIC.
  • 13 de outubro de 2020

    • Atualizações de segurança do sistema operacional.
    • [SPARK-32999][SQL][2.4] Usa Utils.getSimpleName para evitar que ocorra nome de classe malformado no TreeNode
    • Corrigiu diretórios de listagem na montagem FUSE que contêm nomes de arquivos com caracteres XML inválidos
    • A montagem FUSE não usa mais ListMultipartUploads
  • 24 de setembro de 2020

    • Corrigiu uma limitação anterior em que a passagem no cluster padrão ainda restringia o uso do usuário de implementação do sistema de arquivos. Agora, os usuários poderão acessar os sistemas de arquivos locais sem restrições.
    • Atualizações de segurança do sistema operacional.
  • 8 de setembro de 2020

    • O novo parâmetro maxbinlength foi criado no Azure Synapse Analytics. Esse parâmetro é usado para controlar o tamanho de coluna das colunas BinaryType e é traduzido como VARBINARY(maxbinlength). Ele pode ser definido usando .option("maxbinlength", n), em que 0 < n < = 8000.
    • Atualiza o SDK do Armazenamento do Microsoft Azure para 8.6.4 e habilita o TCP para mantê-lo funcionando em conexões feitas pelo driver WASB
  • 25 de agosto de 2020

    • Corrigiu a resolução ambígua de atributo na automesclagem
  • 18 de agosto de 2020

    • [SPARK-32431][SQL] Verifica as colunas aninhadas duplicadas na leitura de fontes de base criadas
    • Corrigiu a condição de corrida no conector do AQS ao usar o Trigger.Once.
  • 11 de agosto de 2020

    • [SPARK-28676][CORE] Evita o excessivo registro em log do ContextCleaner
  • 3 de agosto de 2020

    • Agora você pode usar a função de transformação LDA em um cluster habilitado para passagem.
    • Atualizações de segurança do sistema operacional.
  • 7 de julho de 2020

    • Versão do Java atualizada de 1.8.0_232 para 1.8.0_252.
  • 21 de abril de 2020

    • [SPARK-31312][SQL] Instancia classe de cache para a instância de UDF em HiveFunctionWrapper
  • 7 de abril de 2020

    • Para resolver um problema de udf de pandas não funcionar com o PyArrow 0.15.0 e superiores, adicionamos uma variável de ambiente (ARROW_PRE_0_15_IPC_FORMAT=1) para habilitar o suporte para essas versões do PyArrow. Consulte as instruções em [SPARK-29367].
  • 10 de março de 2020

    • O dimensionamento automático otimizado agora é usado por padrão em clusters interativos no plano de segurança.
    • O conector (spark-snowflake_2.11) do Snowflake incluído no Databricks Runtime foi atualizado para a versão 2.5.9. snowflake-jdbc foi atualizado para a versão 3.12.0.

Databricks Runtime 5.5 LTS (sem suporte)

Consulte Databricks Runtime 5.5 (sem suporte) e Suporte estendido do Databricks Runtime 5.5 (sem suporte).

  • 8 de dezembro de 2021

    • Atualizações de segurança do sistema operacional.
  • 22 de setembro de 2021

    • Atualizações de segurança do sistema operacional.
  • 25 de agosto de 2021

    • Foi feito downgrade de alguns pacotes Python atualizados anteriormente na versão do Suporte estendido do 5.5 ML para manter uma melhor paridade com o 5.5 ML LTS (agora descontinuado). Consulte [_]/release-notes/runtime/5.5xml.md) para obter as diferenças atualizadas entre as duas versões.
  • 15 de junho de 2021

    • [SPARK-35576][SQL][3.1] Edita as informações confidenciais no resultado do comando Set
  • 7 de junho de 2021

    • Adiciona uma nova configuração chamada spark.sql.maven.additionalRemoteRepositories, uma configuração de cadeia de caracteres delimitada por vírgula do espelho do Maven que é remoto, adicional e opcional. O valor padrão é https://maven-central.storage-download.googleapis.com/maven2/.
  • 30 de abril de 2021

    • Atualizações de segurança do sistema operacional.
    • [SPARK-35227][BUILD] Atualiza o resolvedor para pacotes Spark no SparkSubmit
  • 9 de março de 2021

    • Porta HADOOP-17215 para o driver do Azure Blob File System (suporte para substituição condicional).
  • 24 de fevereiro de 2021

    • Introduziu a nova configuração spark.databricks.hive.metastore.init.reloadFunctions.enabled. Essa configuração controla a inicialização do Hive interno. Quando definido como verdadeiro, o Azure Databricks recarrega todas as funções de todos os bancos de dados que os usuários têm em FunctionRegistry. Esse é o comportamento padrão no Metastore do Hive. Quando definido como falso, o Azure Databricks desabilita esse processo para otimização.
  • 12 de janeiro de 2021

    • Atualizações de segurança do sistema operacional.
    • Corrige para [HADOOP-17130].
  • 8 de dezembro de 2020

    • [SPARK-27421][SQL] Corrige o filtro da coluna int e classe de valor do java.lang.String ao remover a coluna de partição
    • Atualizações de segurança do sistema operacional.
  • 1º de dezembro de 2020

    • [SPARK-33260][SQL] Corrige os resultados incorretos de SortExec quando sortOrder é Stream
    • [SPARK-32635][SQL] Corrige a propagação dobrável
  • 29 de outubro de 2020

    • Versão do Java atualizada de 1.8.0_252 para 1.8.0_265.
    • Corrige o bloqueio ABFS e WASB em relação a UserGroupInformation.getCurrentUser()
    • Corrige um bug de loop infinito do leitor do Avro ao ler os bytes MAGIC.
  • 13 de outubro de 2020

    • Atualizações de segurança do sistema operacional.
    • [SPARK-32999][SQL][2.4] Usa Utils.getSimpleName para evitar que ocorra nome de classe malformado no TreeNode
  • 24 de setembro de 2020

    • Atualizações de segurança do sistema operacional.
  • 8 de setembro de 2020

    • O novo parâmetro maxbinlength foi criado no Azure Synapse Analytics. Esse parâmetro é usado para controlar o tamanho de coluna das colunas BinaryType e é traduzido como VARBINARY(maxbinlength). Ele pode ser definido usando .option("maxbinlength", n), em que 0 < n < = 8000.
  • 18 de agosto de 2020

    • [SPARK-32431][SQL] Verifica as colunas aninhadas duplicadas na leitura de fontes de base criadas
    • Corrigiu a condição de corrida no conector do AQS ao usar o Trigger.Once.
  • 11 de agosto de 2020

    • [SPARK-28676][CORE] Evita o excessivo registro em log do ContextCleaner
  • 3 de agosto de 2020

    • Atualizações de segurança do sistema operacional
  • 7 de julho de 2020

    • Versão do Java atualizada de 1.8.0_232 para 1.8.0_252.
  • 21 de abril de 2020

    • [SPARK-31312][SQL] Instancia classe de cache para a instância de UDF em HiveFunctionWrapper
  • 7 de abril de 2020

    • Para resolver um problema de udf de pandas não funcionar com o PyArrow 0.15.0 e superiores, adicionamos uma variável de ambiente (ARROW_PRE_0_15_IPC_FORMAT=1) para habilitar o suporte para essas versões do PyArrow. Consulte as instruções em [SPARK-29367].
  • 25 de março de 2020

    • O conector (spark-snowflake_2.11) do Snowflake incluído no Databricks Runtime foi atualizado para a versão 2.5.9. snowflake-jdbc foi atualizado para a versão 3.12.0.
  • 10 de março de 2020

    • A saída do trabalho, como a saída de log emitida para stdout, está sujeita a um limite de tamanho de 20 MB. Se a saída total tiver um tamanho maior, a execução será cancelada e marcada como com falha. Para evitar que chegue nesse limite, você pode impedir que o stdout seja retornado do driver, definindo a configuração spark.databricks.driver.disableScalaOutput do Spark como true. Por padrão, o valor do sinalizador é false. O sinalizador controla a saída da célula para os trabalhos do JAR do Scala e os notebooks do Scala. Se o sinalizador estiver habilitado, o Spark não retornará os resultados de execução do trabalho para o cliente. O sinalizador não afeta os dados que são gravados nos arquivos de log do cluster. Recomenda-se definir esse sinalizador apenas para clusters automatizados para trabalhos JAR, pois ele desabilitará os resultados do notebook.
  • 18 de fevereiro de 2020

    • [SPARK-24783][SQL] O spark.sql.shuffle.partitions=0 deve lançar exceção
    • A passagem de credenciais com ADLS Gen2 tem uma degradação de desempenho devido ao tratamento local incorreto da thread quando a pré-busca do cliente ADLS está habilitada. Até que tenhamos uma correção adequada, esta versão desabilita a pré-busca do ADLS Gen2 quando a passagem de credencial está habilitada.
  • 28 de janeiro de 2020

    • [SPARK-30447][SQL] Problema de constante nulidade de propagação.
  • 14 de janeiro de 2020

    • Versão do Java atualizada de 1.8.0_222 para 1.8.0_232.
  • 19 de novembro de 2019

    • [SPARK-29743][SQL] A amostra deverá definir needCopyResult como verdadeiro se o needCopyResult do filho for verdadeiro
    • A versão do R foi atualizada incorretamente da 3.6.0 para 3.6.1. Fizemos o downgrade de volta para 3.6.0.
  • 5 de novembro de 2019

    • Versão do Java atualizada de 1.8.0_212 para 1.8.0_222.
  • 23 de outubro de 2019

    • [SPARK-29244][CORE] Impede que a página liberada no BytesToBytesMap seja liberada novamente
  • 8 de outubro de 2019

    • Alterações no lado do servidor para permitir que o driver ODBC do Simba Apache Spark se reconecte e continue após uma falha de conexão durante a busca de resultados (requer a versão 2.6.10 do driver do ODBC do Simba Apache Spark).
    • Corrigiu um problema que afetava o uso do comando Optimize com clusters habilitados para ACL de tabela.
    • Corrigiu um problema em que as bibliotecas pyspark.ml falhavam devido a um erro proibido de UDF Scala na ACL de tabela e nos clusters habilitados para passagem de credencial.
    • Lista de permitidos dos métodos SerDe e SerDeUtil para passagem de credencial.
    • Corrigiu o NullPointerException ao verificar o código de erro no cliente WASB.
  • 24 de setembro de 2019

    • Aprimorou a estabilidade do gravador do Parquet.
    • Corrigiu o problema em que a consulta Thrift cancelava antes de iniciar a execução e ficava presa no estado STARTED.
  • 10 de setembro de 2019

    • Adiciona iterador seguro de thread ao BytesToBytesMap
    • [SPARK-27992][SPARK-28881] Permite que o Python ingresse no thread de conexão para propagar erros
    • Corrigiu um bug que afetava determinadas consultas de agregação global.
    • Aprimorou a edição de credenciais.
    • [SPARK-27330][SS] Suporta a interrupção de tarefas no gravador de foreach
    • [SPARK-28642] Oculta as credenciais em SHOW CREATE TABLE
    • [SPARK-28699][SQL] Desabilita o uso de classificação de base para ShuffleExchangeExec no caso de repartição
  • 27 de agosto de 2019

    • [SPARK-20906][SQL] Permite esquema especificado pelo usuário na API to_avro com registro de esquema
    • [SPARK-27838][SQL] Usuário de suporte forneceu o esquema Avro não anulável para o esquema de catalisador anulável sem nenhum registro nulo
    • Melhoria na viagem no tempo do Delta Lake
    • Corrigiu um problema que afeta determinada expressão transform
    • Suporta variáveis de transmissão quando o Isolamento do processo está habilitado
  • 13 de agosto de 2019

    • A fonte de streaming Delta deverá verificar o protocolo mais recente de uma tabela
    • [SPARK-28260] Adiciona o estado CLOSED ao ExecutionState
    • [SPARK-28489][SS] Corrige um bug em que KafkaOffsetRangeCalculator.getRanges soltava deslocamentos
  • 30 de julho de 2019

    • [SPARK-28015][SQL] Verifica se o stringToDate() consome toda a entrada para os formatos aaaa e aaaa-[m]m
    • [SPARK-28308][CORE] A parte do subsegundo de CalendarInterval deve ser preenchida antes da análise
    • [SPARK-27485] O EnsureRequirements.reorder deve tratar expressões duplicadas normalmente
    • [SPARK-28355][CORE][PYTHON] Usa a configuração do Spark para definir o limite no qual a UDF é compactada por difusão

Suporte estendido do Databricks Light 2.4

Consulte Databricks Light 2.4 (sem suporte) e Suporte Estendido do Databricks Light 2.4 (Sem suporte).

Databricks Runtime 7.4 (sem suporte)

Confira Databricks Runtime 7.4 (sem suporte).

  • 30 de abril de 2021

    • Atualizações de segurança do sistema operacional.
    • [SPARK-35227][BUILD] Atualiza o resolvedor para pacotes Spark no SparkSubmit
    • [SPARK-34245][CORE] Verifica se o Master remove executores que não puderam enviar o estado concluído
    • [SPARK-35045][SQL] Adiciona uma opção interna para controlar o buffer de entrada na univocidade e uma configuração para o tamanho do buffer de entrada CSV
  • 24 de março de 2021

    • [SPARK-34768][SQL] Respeita o tamanho padrão do buffer de entrada em Univocity
    • [SPARK-34534] Corrige a ordem de blockIds ao usar o FetchShuffleBlocks para pegar os blocos
  • 9 de março de 2021

    • O driver do Azure Blob File System atualizado para Azure Data Lake Storage Gen2 agora está habilitado por padrão. Ele traz vários aprimoramentos na estabilidade.
    • [ES-67926][UI] Corrige o link href da visualização do Spark DAG
    • [ES-65064] Restaura o esquema de saída de SHOW DATABASES
    • [SC-70522][SQL] Usa a correta chave de compilação de remoção dinâmica quando a dica de junção de intervalo está habilitada
    • [SC-35081] Desabilitar a verificação de obsolescência para arquivos de tabela Delta no cache de disco
    • [SC-70640] Corrige o NPE quando a resposta do EventGridClient não tem nenhuma entidade
    • [SC-70220][SQL] Não gera aviso de número de partição em ordem aleatória quando o AOS está habilitado
  • 24 de fevereiro de 2021

    • O conector do Spark BigQuery foi atualizado para v 0.18, que apresenta várias correções de bugs e suporte para iteradores de Arrow e Avro.
    • Corrigiu um problema de correção que fazia com que o Spark retornasse resultados incorretos quando a precisão decimal e a escala do arquivo Parquet eram diferentes do esquema do Spark.
    • Corrigiu o problema de falha de leitura nas tabelas do Microsoft SQL Server que contêm tipos de dados espaciais, adicionando suporte a tipos de tipo de gráfico de geometria e geografia para o Spark SQL.
    • Introduziu a nova configuração spark.databricks.hive.metastore.init.reloadFunctions.enabled. Essa configuração controla a inicialização do Hive interno. Quando definido como verdadeiro, o Azure Databricks recarrega todas as funções de todos os bancos de dados que os usuários têm em FunctionRegistry. Esse é o comportamento padrão no Metastore do Hive. Quando definido como falso, o Azure Databricks desabilita esse processo para otimização.
    • [SPARK-34212] Corrigiu os problemas relacionados à leitura de dados decimais de arquivos Parquet.
    • [SPARK-33579][UI] Corrige o executor de página em branco atrás do proxy.
    • [SPARK-20044][UI] Suporta a interface do usuário do Spark por trás do proxy reverso de front-end usando um prefixo de caminho.
    • [SPARK-33277][PYSPARK][SQL] Usa ContextAwareIterator para parar o consumo após o término da tarefa.
  • 4 de fevereiro de 2021

    • Corrigiu a regressão que impede a execução incremental de uma consulta que define um limite global, como SELECT * FROM table LIMIT nrows. A regressão ocorria quando os usuários executavam consultas por meio de ODBC/JDBC com a serialização de Arrow habilitada.
    • Corrigiu a regressão que causava falha no início do FUSE do DBFS quando as configurações de variáveis de ambiente do cluster continham sintaxe inválida de bash.
  • 20 de janeiro de 2021

    • Correção da regressão na versão de manutenção de 12 de janeiro de 2021 que causava uma AnalysisException incorreta e dizia que a coluna era ambígua em uma autojunção. Essa regressão ocorre quando um usuário faz a junção do DataFrame com o DataFrame derivado (denominado autojunção) nas seguintes condições:
      • Esses dois DataFrames têm colunas em comum, mas a saída da autojunção não tem colunas em comum. Por exemplo, df.join(df.select($"col" as "new_col"), cond)
      • O DataFrame derivado exclui algumas colunas por meio de select, groupBy ou window.
      • A condição de junção ou a transformação a seguir após o Dataframe unido refere-se às colunas não comuns. Por exemplo, df.join(df.drop("a"), df("a") === 1)
  • 12 de janeiro de 2021

    • Atualizações de segurança do sistema operacional.
    • [SPARK-33593][SQL] O leitor de vetor recebeu dados incorretos com o valor de partição binária
    • [SPARK-33677][SQL] Ignora a regra LikeSimplification se o padrão contiver escapeChar
    • [SPARK-33071][SPARK-33536][SQL] Evita alterações no dataset_id do LogicalPlan em join() para não interromper o DetectAmbiguousSelfJoin
  • 8 de dezembro de 2020

    • [SPARK-33587][CORE] Encerra o executor em erros fatais aninhados
    • [SPARK-27421][SQL] Corrige o filtro da coluna int e classe de valor do java.lang.String ao remover a coluna de partição
    • [SPARK-33316][SQL] Usuário de suporte forneceu o esquema Avro anulável para o esquema de catalisador não anulável na gravação do Avro
    • Atualizações de segurança do sistema operacional.
  • 1º de dezembro de 2020

    • [SPARK-33404][SQL][3.0] Corrige os resultados incorretos na expressão date_trunc
    • [SPARK-33339][PYTHON] O aplicativo Pyspark será interrompido devido a um erro de não exceção
    • [SPARK-33183][SQL][HOTFIX] Corrige a regra EliminateSorts do otimizador e adiciona uma regra física para remover as classificações redundantes
    • [SPARK-33371][PYTHON][3.0] Atualiza o setup.py e testes para o Python 3.9
    • [SPARK-33391][SQL] O element_at com o CreateArray não respeita um índice baseado.
    • [SPARK-33306][SQL] O fuso horário é necessário ao converter uma data para uma cadeia de caracteres
    • [SPARK-33260][SQL] Corrige os resultados incorretos de SortExec quando sortOrder é Stream
    • [SPARK-33272][SQL] Remove o mapeamento de atributos em QueryPlan.transformUpWithNewOutput

Databricks Runtime 7.2 (sem suporte)

Confira Databricks Runtime 7.2 (sem suporte).

  • 4 de fevereiro de 2021

    • Corrigiu a regressão que impede a execução incremental de uma consulta que define um limite global, como SELECT * FROM table LIMIT nrows. A regressão ocorria quando os usuários executavam consultas por meio de ODBC/JDBC com a serialização de Arrow habilitada.
    • Corrigiu a regressão que causava falha no início do FUSE do DBFS quando as configurações de variáveis de ambiente do cluster continham sintaxe inválida de bash.
  • 20 de janeiro de 2021

    • Correção da regressão na versão de manutenção de 12 de janeiro de 2021 que causava uma AnalysisException incorreta e dizia que a coluna era ambígua em uma autojunção. Essa regressão ocorre quando um usuário faz a junção do DataFrame com o DataFrame derivado (denominado autojunção) nas seguintes condições:
      • Esses dois DataFrames têm colunas em comum, mas a saída da autojunção não tem colunas em comum. Por exemplo, df.join(df.select($"col" as "new_col"), cond)
      • O DataFrame derivado exclui algumas colunas por meio de select, groupBy ou window.
      • A condição de junção ou a transformação a seguir após o Dataframe unido refere-se às colunas não comuns. Por exemplo, df.join(df.drop("a"), df("a") === 1)
  • 12 de janeiro de 2021

    • Atualizações de segurança do sistema operacional.
    • [SPARK-33593][SQL] O leitor de vetor recebeu dados incorretos com o valor de partição binária
    • [SPARK-33677][SQL] Ignora a regra LikeSimplification se o padrão contiver escapeChar
    • [SPARK-33071][SPARK-33536][SQL] Evita alterações no dataset_id do LogicalPlan em join() para não interromper o DetectAmbiguousSelfJoin
  • 8 de dezembro de 2020

    • [SPARK-27421][SQL] Corrige o filtro da coluna int e classe de valor do java.lang.String ao remover a coluna de partição
    • [SPARK-33404][SQL] Corrige os resultados incorretos na expressão date_trunc
    • [SPARK-33339][PYTHON] O aplicativo Pyspark será interrompido devido a um erro de não exceção
    • [SPARK-33183][SQL] Corrige a regra EliminateSorts do otimizador e adiciona uma regra física para remover as classificações redundantes
    • [SPARK-33391][SQL] O element_at com o CreateArray não respeita um índice baseado.
    • Atualizações de segurança do sistema operacional.
  • 1º de dezembro de 2020

    • [SPARK-33306][SQL] O fuso horário é necessário ao converter uma data para uma cadeia de caracteres
    • [SPARK-33260][SQL] Corrige os resultados incorretos de SortExec quando sortOrder é Stream
  • 3 de novembro de 2020

    • Versão do Java atualizada de 1.8.0_252 para 1.8.0_265.
    • Corrige o bloqueio ABFS e WASB em relação a UserGroupInformation.getCurrentUser()
    • Corrige um bug de loop infinito do leitor do Avro ao ler os bytes MAGIC.
  • 13 de outubro de 2020

    • Atualizações de segurança do sistema operacional.
    • [SPARK-32999][SQL] Usa Utils.getSimpleName para evitar que ocorra nome de classe malformado no TreeNode
    • Corrigiu diretórios de listagem na montagem FUSE que contêm nomes de arquivos com caracteres XML inválidos
    • A montagem FUSE não usa mais ListMultipartUploads
  • 29 de setembro de 2020

    • [SPARK-28863][SQL][WARMFIX] Introduz o AlreadyOptimized para evitar a reanálise de V1FallbackWriters
    • [SPARK-32635][SQL] Corrige a propagação dobrável
    • Adiciona a nova configuração spark.shuffle.io.decoder.consolidateThreshold. Define o valor de configuração como Long.MAX_VALUE para ignorar a consolidação de FrameBuffers de netty, que impede java.lang.IndexOutOfBoundsException em casos fora do padrão.
  • 24 de setembro de 2020

    • [SPARK-32764][SQL] -0,0 deve ser igual a 0,0
    • [SPARK-32753][SQL] Somente copia as tags para o nó sem tags ao transformar planos
    • [SPARK-32659][SQL] Corrige o problema de dados da remoção de partição dinâmica inserida no tipo não atômico
    • Atualizações de segurança do sistema operacional.
  • 8 de setembro de 2020

    • O novo parâmetro maxbinlength foi criado no Azure Synapse Analytics. Esse parâmetro é usado para controlar o tamanho de coluna das colunas BinaryType e é traduzido como VARBINARY(maxbinlength). Ele pode ser definido usando .option("maxbinlength", n), em que 0 < n < = 8000.

Databricks Runtime 7.1 (sem suporte)

Confira Databricks Runtime 7.1 (sem suporte).

  • 4 de fevereiro de 2021

    • Corrigiu a regressão que causava falha no início do FUSE do DBFS quando as configurações de variáveis de ambiente do cluster continham sintaxe inválida de bash.
  • 20 de janeiro de 2021

    • Correção da regressão na versão de manutenção de 12 de janeiro de 2021 que causava uma AnalysisException incorreta e dizia que a coluna era ambígua em uma autojunção. Essa regressão ocorre quando um usuário faz a junção do DataFrame com o DataFrame derivado (denominado autojunção) nas seguintes condições:
      • Esses dois DataFrames têm colunas em comum, mas a saída da autojunção não tem colunas em comum. Por exemplo, df.join(df.select($"col" as "new_col"), cond)
      • O DataFrame derivado exclui algumas colunas por meio de select, groupBy ou window.
      • A condição de junção ou a transformação a seguir após o Dataframe unido refere-se às colunas não comuns. Por exemplo, df.join(df.drop("a"), df("a") === 1)
  • 12 de janeiro de 2021

    • Atualizações de segurança do sistema operacional.
    • [SPARK-33593][SQL] O leitor de vetor recebeu dados incorretos com o valor de partição binária
    • [SPARK-33677][SQL] Ignora a regra LikeSimplification se o padrão contiver escapeChar
    • [SPARK-33071][SPARK-33536][SQL] Evita alterações no dataset_id do LogicalPlan em join() para não interromper o DetectAmbiguousSelfJoin
  • 8 de dezembro de 2020

    • [SPARK-27421][SQL] Corrige o filtro da coluna int e classe de valor do java.lang.String ao remover a coluna de partição
    • Os trabalhos do Spark iniciados usando o Databricks Connect podem parar indefinidamente com Executor$TaskRunner.$anonfun$copySessionState em rastreamento de pilha do executor
    • Atualizações de segurança do sistema operacional.
  • 1º de dezembro de 2020

    • [SPARK-33404][SQL][3.0] Corrige os resultados incorretos na expressão date_trunc
    • [SPARK-33339][PYTHON] O aplicativo Pyspark será interrompido devido a um erro de não exceção
    • [SPARK-33183][SQL][HOTFIX] Corrige a regra EliminateSorts do otimizador e adiciona uma regra física para remover as classificações redundantes
    • [SPARK-33371][PYTHON][3.0] Atualiza o setup.py e testes para o Python 3.9
    • [SPARK-33391][SQL] O element_at com o CreateArray não respeita um índice baseado.
    • [SPARK-33306][SQL] O fuso horário é necessário ao converter uma data para uma cadeia de caracteres
  • 3 de novembro de 2020

    • Versão do Java atualizada de 1.8.0_252 para 1.8.0_265.
    • Corrige o bloqueio ABFS e WASB em relação a UserGroupInformation.getCurrentUser()
    • Corrige um bug de loop infinito do leitor do Avro ao ler os bytes MAGIC.
  • 13 de outubro de 2020

    • Atualizações de segurança do sistema operacional.
    • [SPARK-32999][SQL] Usa Utils.getSimpleName para evitar que ocorra nome de classe malformado no TreeNode
    • Corrigiu diretórios de listagem na montagem FUSE que contêm nomes de arquivos com caracteres XML inválidos
    • A montagem FUSE não usa mais ListMultipartUploads
  • 29 de setembro de 2020

    • [SPARK-28863][SQL][WARMFIX] Introduz o AlreadyOptimized para evitar a reanálise de V1FallbackWriters
    • [SPARK-32635][SQL] Corrige a propagação dobrável
    • Adiciona a nova configuração spark.shuffle.io.decoder.consolidateThreshold. Define o valor de configuração como Long.MAX_VALUE para ignorar a consolidação de FrameBuffers de netty, que impede java.lang.IndexOutOfBoundsException em casos fora do padrão.
  • 24 de setembro de 2020

    • [SPARK-32764][SQL] -0,0 deve ser igual a 0,0
    • [SPARK-32753][SQL] Somente copia as tags para o nó sem tags ao transformar planos
    • [SPARK-32659][SQL] Corrige o problema de dados da remoção de partição dinâmica inserida no tipo não atômico
    • Atualizações de segurança do sistema operacional.
  • 8 de setembro de 2020

    • O novo parâmetro maxbinlength foi criado no Azure Synapse Analytics. Esse parâmetro é usado para controlar o tamanho de coluna das colunas BinaryType e é traduzido como VARBINARY(maxbinlength). Ele pode ser definido usando .option("maxbinlength", n), em que 0 < n < = 8000.
  • 25 de agosto de 2020

    • [SPARK-32159][SQL] Corrige a integração entre Aggregator[Array[_], _, _] e UnresolvedMapObjects
    • [SPARK-32559][SQL] Corrige a lógica de corte em UTF8String.toInt/toLong, que não manipulava corretamente caracteres não ASCII
    • [SPARK-32543][R] Remove o uso de arrow::as_tibble no SparkR
    • [SPARK-32091][CORE] Ignora erros de tempo limite ao remover blocos no executor perdido
    • Corrigiu um problema que afetava o conector do Azure Synapse com as credenciais do MSI
    • Corrigiu a resolução ambígua de atributo na automesclagem
  • 18 de agosto de 2020

    • [SPARK-32594][SQL] Corrige a serialização de datas inseridas nas tabelas do Hive
    • [SPARK-32237][SQL] Resolve dica na CTE
    • [SPARK-32431][SQL] Verifica as colunas aninhadas duplicadas na leitura de fontes de base criadas
    • [SPARK-32467][UI] Evita a codificação de URL duas vezes no redirecionamento https
    • Corrigiu a condição de corrida no conector do AQS ao usar o Trigger.Once.
  • 11 de agosto de 2020

    • [SPARK-32280][SPARK-32372][SQL] O ResolveReferences.dedupRight só deve regravar atributos para nós ancestrais do plano de conflito
    • [SPARK-32234][SQL] Os comandos do Spark SQL estão falhando ao selecionar as tabelas ORC
  • 3 de agosto de 2020

    • Agora você pode usar a função de transformação LDA em um cluster habilitado para passagem.

Databricks Runtime 7.0 (sem suporte)

Confira Databricks Runtime 7.0 (sem suporte).

  • 4 de fevereiro de 2021

    • Corrigiu a regressão que causava falha no início do FUSE do DBFS quando as configurações de variáveis de ambiente do cluster continham sintaxe inválida de bash.
  • 20 de janeiro de 2021

    • Correção da regressão na versão de manutenção de 12 de janeiro de 2021 que causava uma AnalysisException incorreta e dizia que a coluna era ambígua em uma autojunção. Essa regressão ocorre quando um usuário faz a junção do DataFrame com o DataFrame derivado (denominado autojunção) nas seguintes condições:
      • Esses dois DataFrames têm colunas em comum, mas a saída da autojunção não tem colunas em comum. Por exemplo, df.join(df.select($"col" as "new_col"), cond)
      • O DataFrame derivado exclui algumas colunas por meio de select, groupBy ou window.
      • A condição de junção ou a transformação a seguir após o Dataframe unido refere-se às colunas não comuns. Por exemplo, df.join(df.drop("a"), df("a") === 1)
  • 12 de janeiro de 2021

    • Atualizações de segurança do sistema operacional.
    • [SPARK-33593][SQL] O leitor de vetor recebeu dados incorretos com o valor de partição binária
    • [SPARK-33677][SQL] Ignora a regra LikeSimplification se o padrão contiver escapeChar
    • [SPARK-33071][SPARK-33536][SQL] Evita alterações no dataset_id do LogicalPlan em join() para não interromper o DetectAmbiguousSelfJoin
  • 8 de dezembro de 2020

    • [SPARK-27421][SQL] Corrige o filtro da coluna int e classe de valor do java.lang.String ao remover a coluna de partição
    • [SPARK-33404][SQL] Corrige os resultados incorretos na expressão date_trunc
    • [SPARK-33339][PYTHON] O aplicativo Pyspark será interrompido devido a um erro de não exceção
    • [SPARK-33183][SQL] Corrige a regra EliminateSorts do otimizador e adiciona uma regra física para remover as classificações redundantes
    • [SPARK-33391][SQL] O element_at com o CreateArray não respeita um índice baseado.
    • Atualizações de segurança do sistema operacional.
  • 1º de dezembro de 2020

    • [SPARK-33306][SQL] O fuso horário é necessário ao converter uma data para uma cadeia de caracteres
  • 3 de novembro de 2020

    • Versão do Java atualizada de 1.8.0_252 para 1.8.0_265.
    • Corrige o bloqueio ABFS e WASB em relação a UserGroupInformation.getCurrentUser()
    • Corrige um bug de loop infinito do leitor do Avro ao ler os bytes MAGIC.
  • 13 de outubro de 2020

    • Atualizações de segurança do sistema operacional.
    • [SPARK-32999][SQL] Usa Utils.getSimpleName para evitar que ocorra nome de classe malformado no TreeNode
    • Corrigiu diretórios de listagem na montagem FUSE que contêm nomes de arquivos com caracteres XML inválidos
    • A montagem FUSE não usa mais ListMultipartUploads
  • 29 de setembro de 2020

    • [SPARK-28863][SQL][WARMFIX] Introduz o AlreadyOptimized para evitar a reanálise de V1FallbackWriters
    • [SPARK-32635][SQL] Corrige a propagação dobrável
    • Adiciona a nova configuração spark.shuffle.io.decoder.consolidateThreshold. Define o valor de configuração como Long.MAX_VALUE para ignorar a consolidação de FrameBuffers de netty, que impede java.lang.IndexOutOfBoundsException em casos fora do padrão.
  • 24 de setembro de 2020

    • [SPARK-32764][SQL] -0,0 deve ser igual a 0,0
    • [SPARK-32753][SQL] Somente copia as tags para o nó sem tags ao transformar planos
    • [SPARK-32659][SQL] Corrige o problema de dados da remoção de partição dinâmica inserida no tipo não atômico
    • Atualizações de segurança do sistema operacional.
  • 8 de setembro de 2020

    • O novo parâmetro maxbinlength foi criado no Azure Synapse Analytics. Esse parâmetro é usado para controlar o tamanho de coluna das colunas BinaryType e é traduzido como VARBINARY(maxbinlength). Ele pode ser definido usando .option("maxbinlength", n), em que 0 < n < = 8000.
  • 25 de agosto de 2020

    • [SPARK-32159][SQL] Corrige a integração entre Aggregator[Array[_], _, _] e UnresolvedMapObjects
    • [SPARK-32559][SQL] Corrige a lógica de corte em UTF8String.toInt/toLong, que não manipulava corretamente caracteres não ASCII
    • [SPARK-32543][R] Remove o uso de arrow::as_tibble no SparkR
    • [SPARK-32091][CORE] Ignora erros de tempo limite ao remover blocos no executor perdido
    • Corrigiu um problema que afetava o conector do Azure Synapse com as credenciais do MSI
    • Corrigiu a resolução ambígua de atributo na automesclagem
  • 18 de agosto de 2020

    • [SPARK-32594][SQL] Corrige a serialização de datas inseridas nas tabelas do Hive
    • [SPARK-32237][SQL] Resolve dica na CTE
    • [SPARK-32431][SQL] Verifica as colunas aninhadas duplicadas na leitura de fontes de base criadas
    • [SPARK-32467][UI] Evita a codificação de URL duas vezes no redirecionamento https
    • Corrigiu a condição de corrida no conector do AQS ao usar o Trigger.Once.
  • 11 de agosto de 2020

    • [SPARK-32280][SPARK-32372][SQL] O ResolveReferences.dedupRight só deve regravar atributos para nós ancestrais do plano de conflito
    • [SPARK-32234][SQL] Os comandos do Spark SQL estão falhando ao selecionar as tabelas ORC
    • Agora você pode usar a função de transformação LDA em um cluster habilitado para passagem.

Databricks Runtime 6.6 (sem suporte)

Confira Databricks Runtime 6.6 (sem suporte).

  • 1º de dezembro de 2020

    • [SPARK-33260][SQL] Corrige os resultados incorretos de SortExec quando sortOrder é Stream
    • [SPARK-32635][SQL] Corrige a propagação dobrável
  • 3 de novembro de 2020

    • Versão do Java atualizada de 1.8.0_252 para 1.8.0_265.
    • Corrige o bloqueio ABFS e WASB em relação a UserGroupInformation.getCurrentUser()
    • Corrige um bug de loop infinito do leitor do Avro ao ler os bytes MAGIC.
  • 13 de outubro de 2020

    • Atualizações de segurança do sistema operacional.
    • [SPARK-32999][SQL][2.4] Usa Utils.getSimpleName para evitar que ocorra nome de classe malformado no TreeNode
    • Corrigiu diretórios de listagem na montagem FUSE que contêm nomes de arquivos com caracteres XML inválidos
    • A montagem FUSE não usa mais ListMultipartUploads
  • 24 de setembro de 2020

    • Atualizações de segurança do sistema operacional.
  • 8 de setembro de 2020

    • O novo parâmetro maxbinlength foi criado no Azure Synapse Analytics. Esse parâmetro é usado para controlar o tamanho de coluna das colunas BinaryType e é traduzido como VARBINARY(maxbinlength). Ele pode ser definido usando .option("maxbinlength", n), em que 0 < n < = 8000.
    • Atualiza o SDK do Armazenamento do Microsoft Azure para 8.6.4 e habilita o TCP para mantê-lo funcionando em conexões feitas pelo driver WASB
  • 25 de agosto de 2020

    • Corrigiu a resolução ambígua de atributo na automesclagem
  • 18 de agosto de 2020

    • [SPARK-32431][SQL] Verifica as colunas aninhadas duplicadas na leitura de fontes de base criadas
    • Corrigiu a condição de corrida no conector do AQS ao usar o Trigger.Once.
  • 11 de agosto de 2020

    • [SPARK-28676][CORE] Evita o excessivo registro em log do ContextCleaner
    • [SPARK-31967][UI] Faça o downgrade para vis.js 4.21.0 para corrigir os trabalhos de regressão do tempo de carregamento da interface do usuário
  • 3 de agosto de 2020

    • Agora você pode usar a função de transformação LDA em um cluster habilitado para passagem.
    • Atualizações de segurança do sistema operacional.

Databricks Runtime 6.5 (sem suporte)

Confira Databricks Runtime 6.5 (sem suporte).

  • 24 de setembro de 2020
    • Corrigiu uma limitação anterior em que a passagem no cluster padrão ainda restringia o uso do usuário de implementação do sistema de arquivos. Agora, os usuários poderão acessar os sistemas de arquivos locais sem restrições.
    • Atualizações de segurança do sistema operacional.
  • 8 de setembro de 2020
    • O novo parâmetro maxbinlength foi criado no Azure Synapse Analytics. Esse parâmetro é usado para controlar o tamanho de coluna das colunas BinaryType e é traduzido como VARBINARY(maxbinlength). Ele pode ser definido usando .option("maxbinlength", n), em que 0 < n < = 8000.
    • Atualiza o SDK do Armazenamento do Microsoft Azure para 8.6.4 e habilita o TCP para mantê-lo funcionando em conexões feitas pelo driver WASB
  • 25 de agosto de 2020
    • Corrigiu a resolução ambígua de atributo na automesclagem
  • 18 de agosto de 2020
    • [SPARK-32431][SQL] Verifica as colunas aninhadas duplicadas na leitura de fontes de base criadas
    • Corrigiu a condição de corrida no conector do AQS ao usar o Trigger.Once.
  • 11 de agosto de 2020
    • [SPARK-28676][CORE] Evita o excessivo registro em log do ContextCleaner
  • 3 de agosto de 2020
    • Agora você pode usar a função de transformação LDA em um cluster habilitado para passagem.
    • Atualizações de segurança do sistema operacional.
  • 7 de julho de 2020
    • Versão do Java atualizada de 1.8.0_242 para 1.8.0_252.
  • 21 de abril de 2020
    • [SPARK-31312][SQL] Instancia classe de cache para a instância de UDF em HiveFunctionWrapper

Databricks Runtime 6.3 (sem suporte)

Confira Databricks Runtime 6.3 (sem suporte).

  • 7 de julho de 2020
    • Versão do Java atualizada de 1.8.0_232 para 1.8.0_252.
  • 21 de abril de 2020
    • [SPARK-31312][SQL] Instancia classe de cache para a instância de UDF em HiveFunctionWrapper
  • 7 de abril de 2020
    • Para resolver um problema de udf de pandas não funcionar com o PyArrow 0.15.0 e superiores, adicionamos uma variável de ambiente (ARROW_PRE_0_15_IPC_FORMAT=1) para habilitar o suporte para essas versões do PyArrow. Consulte as instruções em [SPARK-29367].
  • 10 de março de 2020
    • O conector (spark-snowflake_2.11) do Snowflake incluído no Databricks Runtime foi atualizado para a versão 2.5.9. snowflake-jdbc foi atualizado para a versão 3.12.0.
  • 18 de fevereiro de 2020
    • A passagem de credenciais com ADLS Gen2 tem uma degradação de desempenho devido ao tratamento local incorreto da thread quando a pré-busca do cliente ADLS está habilitada. Até que tenhamos uma correção adequada, esta versão desabilita a pré-busca do ADLS Gen2 quando a passagem de credencial está habilitada.
  • 11 de fevereiro de 2020
    • [SPARK-24783][SQL] O spark.sql.shuffle.partitions=0 deve lançar exceção
    • [SPARK-30447][SQL] Problema de constante nulidade de propagação
    • [SPARK-28152][SQL] Adição de uma configuração herdada para o mapeamento numérico antigo de MsSqlServerDialect
    • Lista de permitidos da função de substituição para que o MLModels estenda o MLWriter e possa chamar a função.

Databricks Runtime 6.2 (sem suporte)

Confira Databricks Runtime 6.2 (sem suporte).

  • 21 de abril de 2020
    • [SPARK-31312][SQL] Instancia classe de cache para a instância de UDF em HiveFunctionWrapper
  • 7 de abril de 2020
    • Para resolver um problema de udf de pandas não funcionar com o PyArrow 0.15.0 e superiores, adicionamos uma variável de ambiente (ARROW_PRE_0_15_IPC_FORMAT=1) para habilitar o suporte para essas versões do PyArrow. Consulte as instruções em [SPARK-29367].
  • 25 de março de 2020
    • A saída do trabalho, como a saída de log emitida para stdout, está sujeita a um limite de tamanho de 20 MB. Se a saída total tiver um tamanho maior, a execução será cancelada e marcada como com falha. Para evitar que chegue nesse limite, você pode impedir que o stdout seja retornado do driver, definindo a configuração spark.databricks.driver.disableScalaOutput do Spark como true. Por padrão, o valor do sinalizador é false. O sinalizador controla a saída da célula para os trabalhos do JAR do Scala e os notebooks do Scala. Se o sinalizador estiver habilitado, o Spark não retornará os resultados de execução do trabalho para o cliente. O sinalizador não afeta os dados que são gravados nos arquivos de log do cluster. Recomenda-se definir esse sinalizador apenas para clusters automatizados para trabalhos JAR, pois ele desabilitará os resultados do notebook.
  • 10 de março de 2020
    • O conector (spark-snowflake_2.11) do Snowflake incluído no Databricks Runtime foi atualizado para a versão 2.5.9. snowflake-jdbc foi atualizado para a versão 3.12.0.
  • 18 de fevereiro de 2020
    • [SPARK-24783][SQL] O spark.sql.shuffle.partitions=0 deve lançar exceção
    • A passagem de credenciais com ADLS Gen2 tem uma degradação de desempenho devido ao tratamento local incorreto da thread quando a pré-busca do cliente ADLS está habilitada. Até que tenhamos uma correção adequada, esta versão desabilita a pré-busca do ADLS Gen2 quando a passagem de credencial está habilitada.
  • 28 de janeiro de 2020
    • Lista de permitidos da função de substituição do ML Model Writers para clusters habilitados para passagem de credencial, para que o salvamento do modelo possa usar o modo de substituição em clusters de passagem de credencial.
    • [SPARK-30447][SQL] Problema de constante nulidade de propagação.
    • [SPARK-28152][SQL] Adiciona uma configuração herdada para mapeamento numérico do MsSqlServerDialect antigo.
  • 14 de janeiro de 2020
    • Versão do Java atualizada de 1.8.0_222 para 1.8.0_232.
  • 10 de dezembro de 2019
    • [SPARK-29904][SQL] Analisa os carimbos de data/hora com precisão de microssegundos por fontes de dados JSON/CSV.

Databricks Runtime 6.1 (sem suporte)

Confira Databricks Runtime 6.1 (sem suporte).

  • 7 de abril de 2020
    • Para resolver um problema de udf de pandas não funcionar com o PyArrow 0.15.0 e superiores, adicionamos uma variável de ambiente (ARROW_PRE_0_15_IPC_FORMAT=1) para habilitar o suporte para essas versões do PyArrow. Consulte as instruções em [SPARK-29367].
  • 25 de março de 2020
    • A saída do trabalho, como a saída de log emitida para stdout, está sujeita a um limite de tamanho de 20 MB. Se a saída total tiver um tamanho maior, a execução será cancelada e marcada como com falha. Para evitar que chegue nesse limite, você pode impedir que o stdout seja retornado do driver, definindo a configuração spark.databricks.driver.disableScalaOutput do Spark como true. Por padrão, o valor do sinalizador é false. O sinalizador controla a saída da célula para os trabalhos do JAR do Scala e os notebooks do Scala. Se o sinalizador estiver habilitado, o Spark não retornará os resultados de execução do trabalho para o cliente. O sinalizador não afeta os dados que são gravados nos arquivos de log do cluster. Recomenda-se definir esse sinalizador apenas para clusters automatizados para trabalhos JAR, pois ele desabilitará os resultados do notebook.
  • 10 de março de 2020
    • O conector (spark-snowflake_2.11) do Snowflake incluído no Databricks Runtime foi atualizado para a versão 2.5.9. snowflake-jdbc foi atualizado para a versão 3.12.0.
  • 18 de fevereiro de 2020
    • [SPARK-24783][SQL] O spark.sql.shuffle.partitions=0 deve lançar exceção
    • A passagem de credenciais com ADLS Gen2 tem uma degradação de desempenho devido ao tratamento local incorreto da thread quando a pré-busca do cliente ADLS está habilitada. Até que tenhamos uma correção adequada, esta versão desabilita a pré-busca do ADLS Gen2 quando a passagem de credencial está habilitada.
  • 28 de janeiro de 2020
    • [SPARK-30447][SQL] Problema de constante nulidade de propagação.
    • [SPARK-28152][SQL] Adiciona uma configuração herdada para mapeamento numérico do MsSqlServerDialect antigo.
  • 14 de janeiro de 2020
    • Versão do Java atualizada de 1.8.0_222 para 1.8.0_232.
  • 7 de novembro de 2019
  • 5 de novembro de 2019
    • Corrigiu um bug no FUSE de DBFS para tratar os pontos de montagem que têm // no caminho.
    • [SPARK-29081] Substitui as chamadas de SerializationUtils.clone em propriedades com uma implementação mais rápida
    • [SPARK-29244][CORE] Impede que a página liberada no BytesToBytesMap seja liberada novamente
    • (6,1 ML) A biblioteca mkl versão 2019.4 foi instalada acidentalmente. Fizemos o downgrade para a versão mkl 2019.3 para corresponder com o Anaconda Distribution 2019.03.

Databricks Runtime 6.0 (sem suporte)

Confira Databricks Runtime 6.0 (sem suporte).

  • 25 de março de 2020
    • A saída do trabalho, como a saída de log emitida para stdout, está sujeita a um limite de tamanho de 20 MB. Se a saída total tiver um tamanho maior, a execução será cancelada e marcada como com falha. Para evitar que chegue nesse limite, você pode impedir que o stdout seja retornado do driver, definindo a configuração spark.databricks.driver.disableScalaOutput do Spark como true. Por padrão, o valor do sinalizador é false. O sinalizador controla a saída da célula para os trabalhos do JAR do Scala e os notebooks do Scala. Se o sinalizador estiver habilitado, o Spark não retornará os resultados de execução do trabalho para o cliente. O sinalizador não afeta os dados que são gravados nos arquivos de log do cluster. Recomenda-se definir esse sinalizador apenas para clusters automatizados para trabalhos JAR, pois ele desabilitará os resultados do notebook.
  • 18 de fevereiro de 2020
    • A passagem de credenciais com ADLS Gen2 tem uma degradação de desempenho devido ao tratamento local incorreto da thread quando a pré-busca do cliente ADLS está habilitada. Até que tenhamos uma correção adequada, esta versão desabilita a pré-busca do ADLS Gen2 quando a passagem de credencial está habilitada.
  • 11 de fevereiro de 2020
    • [SPARK-24783][SQL] O spark.sql.shuffle.partitions=0 deve lançar exceção
  • 28 de janeiro de 2020
    • [SPARK-30447][SQL] Problema de constante nulidade de propagação.
    • [SPARK-28152][SQL] Adiciona uma configuração herdada para mapeamento numérico do MsSqlServerDialect antigo.
  • 14 de janeiro de 2020
    • Versão do Java atualizada de 1.8.0_222 para 1.8.0_232.
  • 19 de novembro de 2019
    • [SPARK-29743][SQL] A amostra deverá definir needCopyResult como verdadeiro se o needCopyResult do filho for verdadeiro
  • 5 de novembro de 2019
    • dbutils.tensorboard.start() Agora suporta o TensorBoard 2.0 (se for instalado manualmente).
    • Corrigiu um bug no FUSE de DBFS para tratar os pontos de montagem que têm // no caminho.
    • [SPARK-29081] Substitui as chamadas de SerializationUtils.clone em propriedades com uma implementação mais rápida
  • 23 de outubro de 2019
    • [SPARK-29244][CORE] Impede que a página liberada no BytesToBytesMap seja liberada novamente
  • 8 de outubro de 2019
    • Alterações no lado do servidor para permitir que o driver ODBC do Simba Apache Spark se reconecte e continue após uma falha de conexão durante a busca de resultados (requer a versão 2.6.10 do driver do ODBC do Simba Apache Spark).
    • Corrigiu um problema que afetava o uso do comando Optimize com clusters habilitados para ACL de tabela.
    • Corrigiu um problema em que as bibliotecas pyspark.ml falhavam devido a um erro proibido de UDF Scala na ACL de tabela e nos clusters habilitados para passagem de credencial.
    • Lista de permitidos dos métodos SerDe e SerDeUtil para passagem de credencial.
    • Corrigiu o NullPointerException ao verificar o código de erro no cliente WASB.
    • Corrigiu o problema em que as credenciais do usuário não eram encaminhadas para os trabalhos criados pelo dbutils.notebook.run().

Databricks Runtime 5.4 ML (sem suporte)

Confira Databricks Runtime 5.4 para ML (sem suporte).

  • 18 de junho de 2019
    • Tratamento aprimorado de execuções ativas do MLflow na integração do Hyperopt
    • Mensagens aprimoradas no Hyperopt
    • Pacote Marchkdown atualizado de 3.1 para 3.1.1

Databricks Runtime 5.4 (sem suporte)

Confira Databricks Runtime 5.4 (sem suporte).

  • 19 de novembro de 2019
    • [SPARK-29743][SQL] A amostra deverá definir needCopyResult como verdadeiro se o needCopyResult do filho for verdadeiro
  • 8 de outubro de 2019
    • Alterações no lado do servidor para permitir que o driver ODBC do Simba Apache Spark se reconecte e continue após uma falha de conexão durante a busca de resultados (requer a versão 2.6.10 do driver do ODBC do Simba Apache Spark).
    • Corrigiu o NullPointerException ao verificar o código de erro no cliente WASB.
  • 10 de setembro de 2019
    • Adiciona iterador seguro de thread ao BytesToBytesMap
    • Corrigiu um bug que afetava determinadas consultas de agregação global.
    • [SPARK-27330][SS] Suporta a interrupção de tarefas no gravador de foreach
    • [SPARK-28642] Oculta as credenciais em SHOW CREATE TABLE
    • [SPARK-28699][SQL] Desabilita o uso de classificação de base para ShuffleExchangeExec no caso de repartição
    • [SPARK-28699][CORE] Corrige um caso fora do padrão ao anular o estágio indeterminado
  • 27 de agosto de 2019
    • Corrigiu um problema que afetava determinadas expressões transform
  • 13 de agosto de 2019
    • A fonte de streaming Delta deverá verificar o protocolo mais recente de uma tabela
    • [SPARK-28489][SS] Corrige um bug em que KafkaOffsetRangeCalculator.getRanges soltava deslocamentos
  • 30 de julho de 2019
    • [SPARK-28015][SQL] Verifica se o stringToDate() consome toda a entrada para os formatos aaaa e aaaa-[m]m
    • [SPARK-28308][CORE] A parte do subsegundo de CalendarInterval deve ser preenchida antes da análise
    • [SPARK-27485] O EnsureRequirements.reorder deve tratar expressões duplicadas normalmente
  • 2 de julho de 2019
    • Snappy-java atualizado de 1.1.7.1 para 1.1.7.3.
  • 18 de junho de 2019
    • Tratamento aprimorado de execuções ativas do MLflow na integração do MLlib
    • Mensagem aprimorada do Assistente do Databricks relacionada ao uso do cache de disco
    • Corrigiu um bug que afetava o uso de funções de ordem superior
    • Corrigiu um bug que afetava as consultas aos metadados do Delta

Databricks Runtime 5.3 (sem suporte)

Confira Databricks Runtime 5.3 (sem suporte).

  • 7 de novembro de 2019
    • [SPARK-29743][SQL] A amostra deverá definir needCopyResult como verdadeiro se o needCopyResult do filho for verdadeiro
  • 8 de outubro de 2019
    • Alterações no lado do servidor para permitir que o driver ODBC do Simba Apache Spark se reconecte e continue após uma falha de conexão durante a busca de resultados (requer a versão 2.6.10 do driver do ODBC do Simba Apache Spark).
    • Corrigiu o NullPointerException ao verificar o código de erro no cliente WASB.
  • 10 de setembro de 2019
    • Adiciona iterador seguro de thread ao BytesToBytesMap
    • Corrigiu um bug que afetava determinadas consultas de agregação global.
    • [SPARK-27330][SS] Suporta a interrupção de tarefas no gravador de foreach
    • [SPARK-28642] Oculta as credenciais em SHOW CREATE TABLE
    • [SPARK-28699][SQL] Desabilita o uso de classificação de base para ShuffleExchangeExec no caso de repartição
    • [SPARK-28699][CORE] Corrige um caso fora do padrão ao anular o estágio indeterminado
  • 27 de agosto de 2019
    • Corrigiu um problema que afetava determinadas expressões transform
  • 13 de agosto de 2019
    • A fonte de streaming Delta deverá verificar o protocolo mais recente de uma tabela
    • [SPARK-28489][SS] Corrige um bug em que KafkaOffsetRangeCalculator.getRanges soltava deslocamentos
  • 30 de julho de 2019
    • [SPARK-28015][SQL] Verifica se o stringToDate() consome toda a entrada para os formatos aaaa e aaaa-[m]m
    • [SPARK-28308][CORE] A parte do subsegundo de CalendarInterval deve ser preenchida antes da análise
    • [SPARK-27485] O EnsureRequirements.reorder deve tratar expressões duplicadas normalmente
  • 18 de junho de 2019
    • Mensagem aprimorada do Assistente do Databricks relacionada ao uso do cache de disco
    • Corrigiu um bug que afetava o uso de funções de ordem superior
    • Corrigiu um bug que afetava as consultas aos metadados do Delta
  • 28 de maio de 2019
    • Melhorou a estabilidade do Delta
    • Tolera IOExceptions ao ler o arquivo LAST_CHECKPOINT do Delta
      • Recuperação adicionada à instalação da biblioteca com falha
  • 7 de maio de 2019
    • Porta HADOOP-15778 (ABFS: corrige a limitação do lado do cliente para leitura) para o conector do Azure Data Lake Storage Gen2
    • Porta HADOOP-16040 (ABFS: correção de bug para configuração do tolerateOobAppends) para o conector do Azure Data Lake Storage Gen2
    • Corrigiu um bug que afetava as ACLs de tabela
    • Corrigiu uma condição de corrida ao carregar um arquivo de soma de verificação de log do Delta
    • Corrigiu a lógica de detecção de conflitos do Delta para não identificar "insert + overwrite" como operação "append" pura
    • Garante que o cache de disco não seja desabilitado quando as ACLs de tabela estiverem habilitadas
    • [SPARK-27494][SS] Valores/chaves nulos não funcionam na origem v2 do Kafka
    • [SPARK-27446][R] Usa a configuração existente do Spark, se disponível.
    • [SPARK-27454] [SPARK-27454][ML][SQL] O datasource da imagem do Spark falha ao encontrar imagens ilegais
    • [SPARK-27160][SQL] Corrige o DecimalType ao criar filtros orc
    • [SPARK-27338][CORE] Corrige o deadlock entre UnsafeExternalSorter e TaskMemoryManager

Databricks Runtime 5.2 (sem suporte)

Confira Databricks Runtime 5.2 (sem suporte).

  • 10 de setembro de 2019
    • Adiciona iterador seguro de thread ao BytesToBytesMap
    • Corrigiu um bug que afetava determinadas consultas de agregação global.
    • [SPARK-27330][SS] Suporta a interrupção de tarefas no gravador de foreach
    • [SPARK-28642] Oculta as credenciais em SHOW CREATE TABLE
    • [SPARK-28699][SQL] Desabilita o uso de classificação de base para ShuffleExchangeExec no caso de repartição
    • [SPARK-28699][CORE] Corrige um caso fora do padrão ao anular o estágio indeterminado
  • 27 de agosto de 2019
    • Corrigiu um problema que afetava determinadas expressões transform
  • 13 de agosto de 2019
    • A fonte de streaming Delta deverá verificar o protocolo mais recente de uma tabela
    • [SPARK-28489][SS] Corrige um bug em que KafkaOffsetRangeCalculator.getRanges soltava deslocamentos
  • 30 de julho de 2019
    • [SPARK-28015][SQL] Verifica se o stringToDate() consome toda a entrada para os formatos aaaa e aaaa-[m]m
    • [SPARK-28308][CORE] A parte do subsegundo de CalendarInterval deve ser preenchida antes da análise
    • [SPARK-27485] O EnsureRequirements.reorder deve tratar expressões duplicadas normalmente
  • 2 de julho de 2019
    • Tolera IOExceptions ao ler o arquivo LAST_CHECKPOINT do Delta
  • 18 de junho de 2019
    • Mensagem aprimorada do Assistente do Databricks relacionada ao uso do cache de disco
    • Corrigiu um bug que afetava o uso de funções de ordem superior
    • Corrigiu um bug que afetava as consultas aos metadados do Delta
  • 28 de maio de 2019
    • Recuperação adicionada à instalação da biblioteca com falha
  • 7 de maio de 2019
    • Porta HADOOP-15778 (ABFS: corrige a limitação do lado do cliente para leitura) para o conector do Azure Data Lake Storage Gen2
    • Porta HADOOP-16040 (ABFS: correção de bug para configuração do tolerateOobAppends) para o conector do Azure Data Lake Storage Gen2
    • Corrigiu uma condição de corrida ao carregar um arquivo de soma de verificação de log do Delta
    • Corrigiu a lógica de detecção de conflitos do Delta para não identificar "insert + overwrite" como operação "append" pura
    • Garante que o cache de disco não seja desabilitado quando as ACLs de tabela estiverem habilitadas
    • [SPARK-27494][SS] Valores/chaves nulos não funcionam na origem v2 do Kafka
    • [SPARK-27454] [SPARK-27454][ML][SQL] O datasource da imagem do Spark falha ao encontrar imagens ilegais
    • [SPARK-27160][SQL] Corrige o DecimalType ao criar filtros orc
    • [SPARK-27338][CORE] Corrige o deadlock entre UnsafeExternalSorter e TaskMemoryManager
  • 26 de março de 2019
    • Evita literalmente a inserção de deslocamentos dependentes da plataforma no código gerado em todo o estágio
    • [SPARK-26665][CORE] Corrige um bug em que o BlockTransferService.fetchBlockSync fica esperando para sempre.
    • [SPARK-27134][SQL] A função array_distinct não funciona corretamente com colunas que contêm matriz de matriz.
    • [SPARK-24669][SQL] Invalida tabelas no caso de SOLTAR BANCO DE DADOS EM CASCATA.
    • [SPARK-26572][SQL] Corrige a avaliação do resultado de codegen agregado.
    • Corrigiu um bug que afetava determinados PythonUDFs.
  • 26 de fevereiro de 2019
    • [SPARK-26864][SQL] A consulta pode retornar resultado incorreto quando a udf do Python é usada como uma condição left semi join.
    • [SPARK-26887][PYTHON] Cria datetime.date diretamente em vez de criar datetime64 como dados intermediários.
    • Corrigiu um bug que afetava o servidor JDBC/ODBC.
    • Corrigiu um bug que afetava o PySpark.
    • Exclui os arquivos ocultos ao compilar o HadoopRDD.
    • Corrigiu um bug no Delta que causava problemas de serialização.
  • 12 de fevereiro de 2019
    • Corrigiu um problema que afetava o uso do Delta com pontos de montagem do ADLS Gen2 do Azure.
    • Corrigiu um problema em que o protocolo de rede de nível inferior do Spark era violado ao enviar grandes mensagens de erro de RPC com criptografia habilitada (quando spark.network.crypto.enabled era definido como verdadeiro).
  • 30 de janeiro de 2019
    • Corrigiu o StackOverflowError ao colocar a dica de junção de distorção na relação em cache.
    • Corrigiu a inconsistência entre o RDD em cache de um cache SQL e seu plano físico, o que causava um resultado incorreto.
    • [SPARK-26706][SQL] Corrige illegalNumericPrecedence para ByteType.
    • [SPARK-26709][SQL] O OptimizeMetadataOnlyQuery não manipula registros vazios corretamente.
    • Fontes de dados CSV/JSON devem evitar caminhos de glob ao inferir esquema.
    • Corrigiu a inferência de restrição no operador do Window.
    • Corrigiu um problema que afetava a instalação de bibliotecas do Python com clusters com a ACL de tabela habilitada.

Databricks Runtime 5.1 (sem suporte)

Confira Databricks Runtime 5.1 (sem suporte).

  • 13 de agosto de 2019
    • A fonte de streaming Delta deverá verificar o protocolo mais recente de uma tabela
    • [SPARK-28489][SS] Corrige um bug em que KafkaOffsetRangeCalculator.getRanges soltava deslocamentos
  • 30 de julho de 2019
    • [SPARK-28015][SQL] Verifica se o stringToDate() consome toda a entrada para os formatos aaaa e aaaa-[m]m
    • [SPARK-28308][CORE] A parte do subsegundo de CalendarInterval deve ser preenchida antes da análise
    • [SPARK-27485] O EnsureRequirements.reorder deve tratar expressões duplicadas normalmente
  • 2 de julho de 2019
    • Tolera IOExceptions ao ler o arquivo LAST_CHECKPOINT do Delta
  • 18 de junho de 2019
    • Corrigiu um bug que afetava o uso de funções de ordem superior
    • Corrigiu um bug que afetava as consultas aos metadados do Delta
  • 28 de maio de 2019
    • Recuperação adicionada à instalação da biblioteca com falha
  • 7 de maio de 2019
    • Porta HADOOP-15778 (ABFS: corrige a limitação do lado do cliente para leitura) para o conector do Azure Data Lake Storage Gen2
    • Porta HADOOP-16040 (ABFS: correção de bug para configuração do tolerateOobAppends) para o conector do Azure Data Lake Storage Gen2
    • Corrigiu uma condição de corrida ao carregar um arquivo de soma de verificação de log do Delta
    • Corrigiu a lógica de detecção de conflitos do Delta para não identificar "insert + overwrite" como operação "append" pura
    • [SPARK-27494][SS] Valores/chaves nulos não funcionam na origem v2 do Kafka
    • [SPARK-27454] [SPARK-27454][ML][SQL] O datasource da imagem do Spark falha ao encontrar imagens ilegais
    • [SPARK-27160][SQL] Corrige o DecimalType ao criar filtros orc
    • [SPARK-27338][CORE] Corrige o deadlock entre UnsafeExternalSorter e TaskMemoryManager
  • 26 de março de 2019
    • Evita literalmente a inserção de deslocamentos dependentes da plataforma no código gerado em todo o estágio
    • Corrigiu um bug que afetava determinados PythonUDFs.
  • 26 de fevereiro de 2019
    • [SPARK-26864][SQL] A consulta pode retornar resultado incorreto quando a udf do Python é usada como uma condição left semi join.
    • Corrigiu um bug que afetava o servidor JDBC/ODBC.
    • Exclui os arquivos ocultos ao compilar o HadoopRDD.
  • 12 de fevereiro de 2019
    • Corrigiu um problema que afetava a instalação de bibliotecas do Python com clusters com a ACL de tabela habilitada.
    • Corrigiu a inconsistência entre o RDD em cache de um cache SQL e seu plano físico, o que causava um resultado incorreto.
    • [SPARK-26706][SQL] Corrige illegalNumericPrecedence para ByteType.
    • [SPARK-26709][SQL] O OptimizeMetadataOnlyQuery não manipula registros vazios corretamente.
    • Corrigiu a inferência de restrição no operador do Window.
    • Corrigiu um problema em que o protocolo de rede de nível inferior do Spark era violado ao enviar grandes mensagens de erro de RPC com criptografia habilitada (quando spark.network.crypto.enabled era definido como verdadeiro).
  • 30 de janeiro de 2019
    • Corrigiu um problema que causava df.rdd.count() com o UDT retornando uma resposta incorreta para determinados casos.
    • Corrigiu um problema que afetava a instalação de cache local de pacotes Python.
    • [SPARK-26267] Tenta novamente ao detectar deslocamentos incorretos do Kafka.
    • Corrigiu um bug que afetava várias fontes de fluxo de arquivos em uma consulta de streaming.
    • Corrigiu o StackOverflowError ao colocar a dica de junção de distorção na relação em cache.
    • Corrigiu a inconsistência entre o RDD em cache de um cache SQL e seu plano físico, o que causava um resultado incorreto.
  • 8 de janeiro de 2019
    • Corrigiu o problema que causava o erro org.apache.spark.sql.expressions.Window.rangeBetween(long,long) is not whitelisted.
    • [SPARK-26352] A reordenação de junção não deve alterar a ordem dos atributos de saída.
    • [SPARK-26366] O ReplaceExceptWithFilter deve considerar NULL como Falso.
    • Melhoria de estabilidade no Delta Lake.
    • O Delta Lake está habilitado.
    • Corrigiu o problema que causava falha no acesso ao Azure Data Lake Storage Gen2 quando a passagem de credenciais do Microsoft Entra ID está habilitada para o Azure Data Lake Storage Gen1.
    • O cache de E/S do Databricks agora está habilitado para os tipos de instâncias de trabalho da série Ls para todos os tipos de preço.

Databricks Runtime 5.0 (sem suporte)

Confira Databricks Runtime 5.0 (sem suporte).

  • 18 de junho de 2019
    • Corrigiu um bug que afetava o uso de funções de ordem superior
  • 7 de maio de 2019
    • Corrigiu uma condição de corrida ao carregar um arquivo de soma de verificação de log do Delta
    • Corrigiu a lógica de detecção de conflitos do Delta para não identificar "insert + overwrite" como operação "append" pura
    • [SPARK-27494][SS] Valores/chaves nulos não funcionam na origem v2 do Kafka
    • [SPARK-27454] [SPARK-27454][ML][SQL] O datasource da imagem do Spark falha ao encontrar imagens ilegais
    • [SPARK-27160][SQL] Corrige o DecimalType ao criar filtros orc
      • [SPARK-27338][CORE] Corrige o deadlock entre UnsafeExternalSorter e TaskMemoryManager
  • 26 de março de 2019
    • Evita literalmente a inserção de deslocamentos dependentes da plataforma no código gerado em todo o estágio
    • Corrigiu um bug que afetava determinados PythonUDFs.
  • 12 de março de 2019
    • [SPARK-26864][SQL] A consulta pode retornar resultado incorreto quando a udf do Python é usada como uma condição left semi join.
  • 26 de fevereiro de 2019
    • Corrigiu um bug que afetava o servidor JDBC/ODBC.
    • Exclui os arquivos ocultos ao compilar o HadoopRDD.
  • 12 de fevereiro de 2019
    • Corrigiu a inconsistência entre o RDD em cache de um cache SQL e seu plano físico, o que causava um resultado incorreto.
    • [SPARK-26706][SQL] Corrige illegalNumericPrecedence para ByteType.
    • [SPARK-26709][SQL] O OptimizeMetadataOnlyQuery não manipula registros vazios corretamente.
    • Corrigiu a inferência de restrição no operador do Window.
    • Corrigiu um problema em que o protocolo de rede de nível inferior do Spark era violado ao enviar grandes mensagens de erro de RPC com criptografia habilitada (quando spark.network.crypto.enabled era definido como verdadeiro).
  • 30 de janeiro de 2019
    • Corrigiu um problema que causava df.rdd.count() com o UDT retornando uma resposta incorreta para determinados casos.
    • [SPARK-26267] Tenta novamente ao detectar deslocamentos incorretos do Kafka.
    • Corrigiu um bug que afetava várias fontes de fluxo de arquivos em uma consulta de streaming.
    • Corrigiu o StackOverflowError ao colocar a dica de junção de distorção na relação em cache.
    • Corrigiu a inconsistência entre o RDD em cache de um cache SQL e seu plano físico, o que causava um resultado incorreto.
  • 8 de janeiro de 2019
    • Corrigiu o problema que causava o erro org.apache.spark.sql.expressions.Window.rangeBetween(long,long) is not whitelisted.
    • [SPARK-26352] A reordenação de junção não deve alterar a ordem dos atributos de saída.
    • [SPARK-26366] O ReplaceExceptWithFilter deve considerar NULL como Falso.
    • Melhoria de estabilidade no Delta Lake.
    • O Delta Lake está habilitado.
    • O cache de E/S do Databricks agora está habilitado para os tipos de instâncias de trabalho da série Ls para todos os tipos de preço.
  • 18 de dezembro de 2018
    • [SPARK-26293] Exceção de conversão ao ter o UDF do Python na subconsulta
    • Corrigiu um problema que afetava determinadas consultas usando Join e Limit.
    • Credenciais editadas dos nomes RDD na interface do usuário do Spark
  • 6 de dezembro de 2018
    • Corrigiu um problema que causava o resultado incorreto da consulta ao usar orderBy seguido imediatamente por groupBy com a chave group-by como a parte principal da chave sort-by.
    • Connector do Snowflake para Spark atualizado da versão 2.4.9.2-spark_2.4_pre_release para a versão 2.4.10.
    • Ignora apenas os arquivos corrompidos após uma ou mais tentativas quando o sinalizador spark.sql.files.ignoreCorruptFiles ou spark.sql.files.ignoreMissingFiles está habilitado.
    • Corrigiu um problema que afetava determinadas consultas de autojoin.
    • Corrigiu um bug com o servidor thrift em que as sessões às vezes eram vazadas quando canceladas.
    • [SPARK-26307] Corrigiu o CTAS quando se fazia INSERT em uma tabela particionada usando o SerDe do Hive.
    • [SPARK-26147] As UDFs do Python na condição do join falham mesmo ao usar colunas de apenas um lado do join
    • [SPARK-26211] Corrige o InSet para binário e struct e matriz com nulos.
    • [SPARK-26181]O método hasMinMaxStats de ColumnStatsMap não está correto.
    • Corrigiu um problema que afetava a instalação do Python Wheels em ambientes sem acesso à internet.
  • 20 de novembro de 2018
    • Corrigiu um problema que fazia com que o notebook ficasse inacessível após o cancelamento de uma consulta de streaming.
    • Corrigiu um problema que afetava determinadas consultas usando funções de janela.
    • Corrigiu um problema que afetava o fluxo do Delta com várias alterações de esquema.
    • Corrigiu um problema que afetava determinadas consultas de agregação com left semi/anti joins.

Databricks Runtime 4.3 (sem suporte)

Confira Databricks Runtime 4.3 (sem suporte).

  • 9 de abril de 2019

    • [SPARK-26665][CORE] Corrige um bug em que o BlockTransferService.fetchBlockSync fica esperando para sempre.
    • [SPARK-24669][SQL] Invalida tabelas no caso de SOLTAR BANCO DE DADOS EM CASCATA.
  • 12 de março de 2019

    • Corrigiu um bug que afetava a geração de código.
    • Corrigiu um bug que afetava o Delta.
  • 26 de fevereiro de 2019

    • Corrigiu um bug que afetava o servidor JDBC/ODBC.
  • 12 de fevereiro de 2019

    • [SPARK-26709][SQL] O OptimizeMetadataOnlyQuery não manipula registros vazios corretamente.
    • Exclui os arquivos ocultos ao compilar o HadoopRDD.
    • Corrigiu a conversão de filtro do Parquet do predicado IN quando seu valor está vazio.
    • Corrigiu um problema em que o protocolo de rede de nível inferior do Spark era violado ao enviar grandes mensagens de erro de RPC com criptografia habilitada (quando spark.network.crypto.enabled era definido como verdadeiro).
  • 30 de janeiro de 2019

    • Corrigiu um problema que causava df.rdd.count() com o UDT retornando uma resposta incorreta para determinados casos.
    • Corrigiu a inconsistência entre o RDD em cache de um cache SQL e seu plano físico, o que causava um resultado incorreto.
  • 8 de janeiro de 2019

    • Corrigiu o problema que causava o erro org.apache.spark.sql.expressions.Window.rangeBetween(long,long) is not whitelisted.
    • Credenciais editadas dos nomes RDD na interface do usuário do Spark
    • [SPARK-26352] A reordenação de junção não deve alterar a ordem dos atributos de saída.
    • [SPARK-26366] O ReplaceExceptWithFilter deve considerar NULL como Falso.
    • O Delta Lake está habilitado.
    • O cache de E/S do Databricks agora está habilitado para os tipos de instâncias de trabalho da série Ls para todos os tipos de preço.
  • 18 de dezembro de 2018

    • [SPARK-25002] Avro: revisa o namespace do registro de saída.
    • Corrigiu um problema que afetava determinadas consultas usando Join e Limit.
    • [SPARK-26307] Corrigiu o CTAS quando se fazia INSERT em uma tabela particionada usando o SerDe do Hive.
    • Ignora apenas os arquivos corrompidos após uma ou mais tentativas quando o sinalizador spark.sql.files.ignoreCorruptFiles ou spark.sql.files.ignoreMissingFiles está habilitado.
    • [SPARK-26181]O método hasMinMaxStats de ColumnStatsMap não está correto.
    • Corrigiu um problema que afetava a instalação do Python Wheels em ambientes sem acesso à internet.
    • Corrigiu um problema de desempenho no analisador de consulta.
    • Corrigiu um problema no PySpark que causava falha nas ações de DataFrame com o erro "conexão recusada".
    • Corrigiu um problema que afetava determinadas consultas de autojoin.
  • 20 de novembro de 2018

    • [SPARK-17916][SPARK-25241]Corrige a cadeia de caracteres vazia que está sendo analisada como nula quando o NullValue está definido.
    • [SPARK-25387] Corrige o NPE causado por entrada inadequada de CSV.
    • Corrigiu um problema que afetava determinadas consultas de agregação com left semi/anti joins.
  • 6 de novembro de 2018

    • [SPARK-25741] As URLs longas não são renderizadas corretamente na interface do usuário da Web.
    • [SPARK-25714] Corrige a manipulação de NULL na regra do otimizador BooleanSimplification.
    • Corrigiu um problema que afetava a limpeza de objetos temporários no conector do Synapse Analytics.
    • [SPARK-25816] Corrige a resolução de atributo em extratores aninhados.
  • 16 de outubro de 2018

    • Corrigiu um bug que afetava a saída da execução SHOW CREATE TABLE em tabelas do Delta.
    • Corrigiu um bug que afetava a operação Union.
  • 25 de setembro de 2018

    • [SPARK-25368][SQL] Inferência de restrição incorreta retorna resultado incorreto.
    • [SPARK-25402][SQL] Tratamento do nulo em BooleanSimplification.
    • Corrigiu NotSerializableException na fonte de dados Avro.
  • 11 de setembro de 2018

    • [SPARK-25214][SS] Corrige o problema da origem Kafka V2 retornar registros duplicados quando failOnDataLoss=false.
    • [SPARK-24987][SS] Corrige o vazamento do consumidor Kafka quando não há deslocamentos novos para articlePartition.
    • A redução do filtro deve tratar o valor nulo corretamente.
    • Melhoria de estabilidade do mecanismo de execução.
  • 28 de Agosto de 2018

    • Corrigiu um bug no comando Delete do Delta Lake que excluía incorretamente as linhas em que a condição avaliava como NULL.
    • [SPARK-25142] Adiciona mensagens de erro quando o trabalho do Python não pode abrir o soquete no _load_from_socket.
  • 23 de agosto de 2018

    • [SPARK-23935]O mapEntry gera org.codehaus.commons.compiler.CompileException.
    • Corrigiu o problema do mapa com nulos no leitor do Parquet.
    • [SPARK-25051][SQL] O FixNullability não deve parar no AnalysisBarrier.
    • [SPARK-25081] Corrigiu um bug em que o ShuffleExternalSorter acessava uma página de memória liberada quando o despejo falhava ao alocar memória.
    • Corrigiu uma interação entre o Databricks do Delta e o Pyspark que causava falhas de leitura transitórias.
    • [SPARK-25084]O "distribuir por" em várias colunas (entre colchetes) pode levar a um problema codegen.
    • [SPARK-25096] Afrouxa a nulidade se a conversão for permitir valor nulo à foça.
    • Reduziu o número padrão de threads usadas pelo comando Optimize do Delta Lake, reduzindo a sobrecarga de memória e fazer commit mais rapidamente nos dados.
    • [SPARK-25114] Corrige o RecordBinaryComparator quando a subtração entre duas palavras é divisível por Integer.MAX_VALUE.
    • Corrigiu a edição do gerenciador de segredo quando o comando funciona parcialmente.

Databricks Runtime 4.2 (sem suporte)

Confira Databricks Runtime 4.2 (sem suporte).

  • 26 de fevereiro de 2019

    • Corrigiu um bug que afetava o servidor JDBC/ODBC.
  • 12 de fevereiro de 2019

    • [SPARK-26709][SQL] O OptimizeMetadataOnlyQuery não manipula registros vazios corretamente.
    • Exclui os arquivos ocultos ao compilar o HadoopRDD.
    • Corrigiu a conversão de filtro do Parquet do predicado IN quando seu valor está vazio.
    • Corrigiu um problema em que o protocolo de rede de nível inferior do Spark era violado ao enviar grandes mensagens de erro de RPC com criptografia habilitada (quando spark.network.crypto.enabled era definido como verdadeiro).
  • 30 de janeiro de 2019

    • Corrigiu um problema que causava df.rdd.count() com o UDT retornando uma resposta incorreta para determinados casos.
  • 8 de janeiro de 2019

    • Corrigiu o problema que causava o erro org.apache.spark.sql.expressions.Window.rangeBetween(long,long) is not whitelisted.
    • Credenciais editadas dos nomes RDD na interface do usuário do Spark
    • [SPARK-26352] A reordenação de junção não deve alterar a ordem dos atributos de saída.
    • [SPARK-26366] O ReplaceExceptWithFilter deve considerar NULL como Falso.
    • O Delta Lake está habilitado.
    • O cache de E/S do Databricks agora está habilitado para os tipos de instâncias de trabalho da série Ls para todos os tipos de preço.
  • 18 de dezembro de 2018

    • [SPARK-25002] Avro: revisa o namespace do registro de saída.
    • Corrigiu um problema que afetava determinadas consultas usando Join e Limit.
    • [SPARK-26307] Corrigiu o CTAS quando se fazia INSERT em uma tabela particionada usando o SerDe do Hive.
    • Ignora apenas os arquivos corrompidos após uma ou mais tentativas quando o sinalizador spark.sql.files.ignoreCorruptFiles ou spark.sql.files.ignoreMissingFiles está habilitado.
    • [SPARK-26181]O método hasMinMaxStats de ColumnStatsMap não está correto.
    • Corrigiu um problema que afetava a instalação do Python Wheels em ambientes sem acesso à internet.
    • Corrigiu um problema de desempenho no analisador de consulta.
    • Corrigiu um problema no PySpark que causava falha nas ações de DataFrame com o erro "conexão recusada".
    • Corrigiu um problema que afetava determinadas consultas de autojoin.
  • 20 de novembro de 2018

    • [SPARK-17916][SPARK-25241]Corrige a cadeia de caracteres vazia que está sendo analisada como nula quando o NullValue está definido.
    • Corrigiu um problema que afetava determinadas consultas de agregação com left semi/anti joins.
  • 6 de novembro de 2018

    • [SPARK-25741] As URLs longas não são renderizadas corretamente na interface do usuário da Web.
    • [SPARK-25714] Corrige a manipulação de NULL na regra do otimizador BooleanSimplification.
  • 16 de outubro de 2018

    • Corrigiu um bug que afetava a saída da execução SHOW CREATE TABLE em tabelas do Delta.
    • Corrigiu um bug que afetava a operação Union.
  • 25 de setembro de 2018

    • [SPARK-25368][SQL] Inferência de restrição incorreta retorna resultado incorreto.
    • [SPARK-25402][SQL] Tratamento do nulo em BooleanSimplification.
    • Corrigiu NotSerializableException na fonte de dados Avro.
  • 11 de setembro de 2018

    • [SPARK-25214][SS] Corrige o problema da origem Kafka V2 retornar registros duplicados quando failOnDataLoss=false.
    • [SPARK-24987][SS] Corrige o vazamento do consumidor Kafka quando não há deslocamentos novos para articlePartition.
    • A redução do filtro deve tratar o valor nulo corretamente.
  • 28 de Agosto de 2018

    • Corrigiu um bug no comando Delete do Delta Lake que excluía incorretamente as linhas em que a condição avaliava como NULL.
  • 23 de agosto de 2018

    • Corrigiu o NoClassDefError para instantâneo do Delta
    • [SPARK-23935]O mapEntry gera org.codehaus.commons.compiler.CompileException.
    • [SPARK-24957][SQL] A média com decimais seguido por agregação retorna resultado incorreto. Pode retornar resultados incorretos de AVERAGE. O CAST adicionado no operador Average será ignorado se o resultado de Divide for do mesmo tipo em que é convertido.
    • [SPARK-25081] Corrigiu um bug em que o ShuffleExternalSorter acessava uma página de memória liberada quando o despejo falhava ao alocar memória.
    • Corrigiu uma interação entre o Databricks do Delta e o Pyspark que causava falhas de leitura transitórias.
    • [SPARK-25114] Corrige o RecordBinaryComparator quando a subtração entre duas palavras é divisível por Integer.MAX_VALUE.
    • [SPARK-25084]O "distribuir por" em várias colunas (entre colchetes) pode levar a um problema codegen.
    • [SPARK-24934][SQL] Inclui explicitamente na lista de permitidos, tipos com suporte em limites superiores/inferiores para remoção de partição na memória. Quando tipos de dados complexos são usados em filtros de consulta em dados armazenados em cache, o Spark sempre retorna um conjunto de resultados vazio. A remoção baseada em estatísticas em memória gera resultados incorretos, porque NULL está definido para limites superiores/inferiores para tipos complexos. A correção é não usar a remoção baseada em estatísticas em memória para tipos complexos.
    • Corrigiu a edição do gerenciador de segredo quando o comando funciona parcialmente.
    • Corrigiu o problema do mapa com nulos no leitor do Parquet.
  • 2 de agosto de 2018

    • API writeStream.table adicionada no Python.
    • Corrigiu um problema que afetava o ponto de verificação do Delta.
    • [SPARK-24867][SQL] Adiciona AnalysisBarrier a DataFrameWriter. O cache do SQL não está sendo utilizado ao usar o DataFrameWriter para gravar um DataFrame com UDF. Essa é uma regressão causada pelas alterações que fizemos no AnalysisBarrier, já que nem todas as regras do analisador são idempotentes.
    • Corrigiu um problema que fazia com que o comando mergeInto produzisse resultados incorretos.
    • Melhorou a estabilidade ao acessar o Azure Data Lake Storage Gen1.
    • [SPARK-24809] A serialização de LongHashedRelation no executor pode resultar em erro de dados.
    • [SPARK-24878][SQL] Corrige a função reversa para o tipo matriz do tipo primitivo que contém nulos.
  • 11 de julho de 2018

    • Corrigiu um bug na execução da consulta que causava agregações em colunas decimais com diferentes precisões e retornava resultados incorretos em alguns casos.
    • Corrigiu o bug NullPointerException que era lançado durante as operações de agregação avançadas, como agrupamento de conjuntos.

Databricks Runtime 4.1 ML (sem suporte)

Consulte Databricks Runtime 4.1 ML (sem suporte).

  • 31 de julho de 2018
    • O Azure Synapse Analytics foi adicionado ao ML Runtime 4,1
    • Corrigiu um bug que causava resultados incorretos de consulta quando o nome de uma coluna de partição usado em um predicado diferia do caso dessa coluna no esquema da tabela.
    • Corrigiu um bug que afetava o mecanismo de execução do Spark SQL.
    • Corrigiu um bug que afetava a geração de código.
    • Corrigiu um bug (java.lang.NoClassDefFoundError) que afetava o Delta Lake.
    • Melhorou o tratamento de erro no Delta Lake.
    • Corrigiu um bug que causava dados incorretos ignorando as estatísticas a serem coletadas para colunas de cadeia de caracteres de 32 caracteres ou mais.

Databricks Runtime 4.1 (sem suporte)

Confira Databricks Runtime 4.1 (sem suporte).

  • 8 de janeiro de 2019

    • [SPARK-26366] O ReplaceExceptWithFilter deve considerar NULL como Falso.
    • O Delta Lake está habilitado.
  • 18 de dezembro de 2018

    • [SPARK-25002] Avro: revisa o namespace do registro de saída.
    • Corrigiu um problema que afetava determinadas consultas usando Join e Limit.
    • [SPARK-26307] Corrigiu o CTAS quando se fazia INSERT em uma tabela particionada usando o SerDe do Hive.
    • Ignora apenas os arquivos corrompidos após uma ou mais tentativas quando o sinalizador spark.sql.files.ignoreCorruptFiles ou spark.sql.files.ignoreMissingFiles está habilitado.
    • Corrigiu um problema que afetava a instalação do Python Wheels em ambientes sem acesso à internet.
    • Corrigiu um problema no PySpark que causava falha nas ações de DataFrame com o erro "conexão recusada".
    • Corrigiu um problema que afetava determinadas consultas de autojoin.
  • 20 de novembro de 2018

    • [SPARK-17916][SPARK-25241]Corrige a cadeia de caracteres vazia que está sendo analisada como nula quando o NullValue está definido.
    • Corrigiu um problema que afetava determinadas consultas de agregação com left semi/anti joins.
  • 6 de novembro de 2018

    • [SPARK-25741] As URLs longas não são renderizadas corretamente na interface do usuário da Web.
    • [SPARK-25714] Corrige a manipulação de NULL na regra do otimizador BooleanSimplification.
  • 16 de outubro de 2018

    • Corrigiu um bug que afetava a saída da execução SHOW CREATE TABLE em tabelas do Delta.
    • Corrigiu um bug que afetava a operação Union.
  • 25 de setembro de 2018

    • [SPARK-25368][SQL] Inferência de restrição incorreta retorna resultado incorreto.
    • [SPARK-25402][SQL] Tratamento do nulo em BooleanSimplification.
    • Corrigiu NotSerializableException na fonte de dados Avro.
  • 11 de setembro de 2018

    • [SPARK-25214][SS] Corrige o problema da origem Kafka V2 retornar registros duplicados quando failOnDataLoss=false.
    • [SPARK-24987][SS] Corrige o vazamento do consumidor Kafka quando não há deslocamentos novos para articlePartition.
    • A redução do filtro deve tratar o valor nulo corretamente.
  • 28 de Agosto de 2018

    • Corrigiu um bug no comando Delete do Delta Lake que excluía incorretamente as linhas em que a condição avaliava como NULL.
    • [SPARK-25084]O "distribuir por" em várias colunas (entre colchetes) pode levar a um problema codegen.
    • [SPARK-25114] Corrige o RecordBinaryComparator quando a subtração entre duas palavras é divisível por Integer.MAX_VALUE.
  • 23 de agosto de 2018

    • Corrigiu o NoClassDefError para instantâneo do Delta.
    • [SPARK-24957][SQL] A média com decimais seguido por agregação retorna resultado incorreto. Pode retornar resultados incorretos de AVERAGE. O CAST adicionado no operador Average será ignorado se o resultado de Divide for do mesmo tipo em que é convertido.
    • Corrigiu o problema do mapa com nulos no leitor do Parquet.
    • [SPARK-24934][SQL] Inclui explicitamente na lista de permitidos, tipos com suporte em limites superiores/inferiores para remoção de partição na memória. Quando tipos de dados complexos são usados em filtros de consulta em dados armazenados em cache, o Spark sempre retorna um conjunto de resultados vazio. A remoção baseada em estatísticas em memória gera resultados incorretos, porque NULL está definido para limites superiores/inferiores para tipos complexos. A correção é não usar a remoção baseada em estatísticas em memória para tipos complexos.
    • [SPARK-25081] Corrigiu um bug em que o ShuffleExternalSorter acessava uma página de memória liberada quando o despejo falhava ao alocar memória.
    • Corrigiu uma interação entre o Databricks do Delta e o Pyspark que causava falhas de leitura transitórias.
    • Corrigiu a edição do gerenciador de segredo quando o comando funciona parcialmente
  • 2 de agosto de 2018

    • [SPARK-24613][SQL] O cache com UDF não pode ser encontrado com caches dependentes subsequentes. Encapsula o plano lógico com um AnalysisBarrier para compilação do plano de execução no CacheManager, a fim de evitar o plano que está sendo analisado novamente. Isso também é uma regressão do Spark 2,3.
    • Corrigiu um problema do conector do Synapse Analytics que está afetando a conversão do fuso horário para gravar dados DataType.
    • Corrigiu um problema que afetava o ponto de verificação do Delta.
    • Corrigiu um problema que fazia com que o comando mergeInto produzisse resultados incorretos.
    • [SPARK-24867][SQL] Adiciona AnalysisBarrier a DataFrameWriter. O cache do SQL não está sendo utilizado ao usar o DataFrameWriter para gravar um DataFrame com UDF. Essa é uma regressão causada pelas alterações que fizemos no AnalysisBarrier, já que nem todas as regras do analisador são idempotentes.
    • [SPARK-24809] A serialização de LongHashedRelation no executor pode resultar em erro de dados.
  • 11 de julho de 2018

    • Corrigiu um bug na execução da consulta que causava agregações em colunas decimais com diferentes precisões e retornava resultados incorretos em alguns casos.
    • Corrigiu o bug NullPointerException que era lançado durante as operações de agregação avançadas, como agrupamento de conjuntos.
  • 28 de junho de 2018

    • Corrigiu um bug que causava resultados incorretos de consulta quando o nome de uma coluna de partição usado em um predicado diferia do caso dessa coluna no esquema da tabela.
  • 7 de junho de 2018

    • Corrigiu um bug que afetava o mecanismo de execução do Spark SQL.
    • Corrigiu um bug que afetava a geração de código.
    • Corrigiu um bug (java.lang.NoClassDefFoundError) que afetava o Delta Lake.
    • Melhorou o tratamento de erro no Delta Lake.
  • 17 de maio de 2018

    • Corrigiu um bug que causava dados incorretos ignorando as estatísticas a serem coletadas para colunas de cadeia de caracteres de 32 caracteres ou mais.

Databricks Runtime 4.0 (sem suporte)

Confira Databricks Runtime 4.0 (sem suporte).

  • 6 de novembro de 2018

    • [SPARK-25714] Corrige a manipulação de NULL na regra do otimizador BooleanSimplification.
  • 16 de outubro de 2018

    • Corrigiu um bug que afetava a operação Union.
  • 25 de setembro de 2018

    • [SPARK-25368][SQL] Inferência de restrição incorreta retorna resultado incorreto.
    • [SPARK-25402][SQL] Tratamento do nulo em BooleanSimplification.
    • Corrigiu NotSerializableException na fonte de dados Avro.
  • 11 de setembro de 2018

    • A redução do filtro deve tratar o valor nulo corretamente.
  • 28 de Agosto de 2018

    • Corrigiu um bug no comando Delete do Delta Lake que excluía incorretamente as linhas em que a condição avaliava como NULL.
  • 23 de agosto de 2018

    • Corrigiu o problema do mapa com nulos no leitor do Parquet.
    • Corrigiu a edição do gerenciador de segredo quando o comando funciona parcialmente
    • Corrigiu uma interação entre o Databricks do Delta e o Pyspark que causava falhas de leitura transitórias.
    • [SPARK-25081] Corrigiu um bug em que o ShuffleExternalSorter acessava uma página de memória liberada quando o despejo falhava ao alocar memória.
    • [SPARK-25114] Corrige o RecordBinaryComparator quando a subtração entre duas palavras é divisível por Integer.MAX_VALUE.
  • 2 de agosto de 2018

    • [SPARK-24452] Evita possível estouro na adição de inteiros ou múltiplos.
    • [SPARK-24588] A junção de streaming deve exigir HashClusteredPartitioning de filhos.
    • Corrigiu um problema que fazia com que o comando mergeInto produzisse resultados incorretos.
    • [SPARK-24867][SQL] Adiciona AnalysisBarrier a DataFrameWriter. O cache do SQL não está sendo utilizado ao usar o DataFrameWriter para gravar um DataFrame com UDF. Essa é uma regressão causada pelas alterações que fizemos no AnalysisBarrier, já que nem todas as regras do analisador são idempotentes.
    • [SPARK-24809] A serialização de LongHashedRelation no executor pode resultar em erro de dados.
  • 28 de junho de 2018

    • Corrigiu um bug que causava resultados incorretos de consulta quando o nome de uma coluna de partição usado em um predicado diferia do caso dessa coluna no esquema da tabela.
  • 7 de junho de 2018

    • Corrigiu um bug que afetava o mecanismo de execução do Spark SQL.
    • Melhorou o tratamento de erro no Delta Lake.
  • 17 de maio de 2018

    • Correções de bugs para o gerenciamento de segredos do Databricks.
    • Melhorou a estabilidade na leitura dos dados armazenados no Azure Data Lake Store.
    • Corrigiu um bug que afetava o cache RDD.
    • Corrigiu um bug que afetava o Null-safe Equal no SQL do Spark.
  • 24 de abril de 2018

    • O SKD do Azure Data Lake Store foi atualizado da versão 2.0.11 para a 2.2.8 para melhorar a estabilidade de acesso ao Azure Data Lake Store.
    • Corrigiu um bug que afetava a inserção de substituições em tabelas particionadas do Hive quando spark.databricks.io.hive.fastwriter.enabled era false.
    • Corrigiu um problema de falha na serialização de tarefas.
    • Melhorou a estabilidade do Delta Lake.
  • 14 de março de 2018

    • Impede atualizações desnecessárias de metadados ao gravar no Delta Lake.
    • Corrigiu um problema causado por uma condição de corrida que, em raras circunstâncias, levava à perda de alguns arquivos de saída.

Databricks Runtime 3.5 LTS (sem suporte)

Consulte Databricks Runtime 3.5 LTS (sem suporte).

  • 7 de novembro de 2019

    • [SPARK-29743][SQL] A amostra deverá definir needCopyResult como verdadeiro se o needCopyResult do filho for verdadeiro
  • 8 de outubro de 2019

    • Alterações no lado do servidor para permitir que o driver ODBC do Simba Apache Spark se reconecte e continue após uma falha de conexão durante a busca de resultados (requer a versão 2.6.10 do driver do ODBC do Simba Apache Spark).
  • 10 de setembro de 2019

    • [SPARK-28699][SQL] Desabilita o uso de classificação de base para ShuffleExchangeExec no caso de repartição
  • 9 de abril de 2019

    • [SPARK-26665][CORE] Corrige um bug em que o BlockTransferService.fetchBlockSync fica esperando para sempre.
  • 12 de fevereiro de 2019

    • Corrigiu um problema em que o protocolo de rede de nível inferior do Spark era violado ao enviar grandes mensagens de erro de RPC com criptografia habilitada (quando spark.network.crypto.enabled era definido como verdadeiro).
  • 30 de janeiro de 2019

    • Corrigiu um problema que causava df.rdd.count() com o UDT retornando uma resposta incorreta para determinados casos.
  • 18 de dezembro de 2018

    • Ignora apenas os arquivos corrompidos após uma ou mais tentativas quando o sinalizador spark.sql.files.ignoreCorruptFiles ou spark.sql.files.ignoreMissingFiles está habilitado.
    • Corrigiu um problema que afetava determinadas consultas de autojoin.
  • 20 de novembro de 2018

    • [SPARK-25816] Corrigiu a resolução de atributo em extratores aninhados.
  • 6 de novembro de 2018

    • [SPARK-25714] Corrige a manipulação de NULL na regra do otimizador BooleanSimplification.
  • 16 de outubro de 2018

    • Corrigiu um bug que afetava a operação Union.
  • 25 de setembro de 2018

    • [SPARK-25402][SQL] Tratamento do nulo em BooleanSimplification.
    • Corrigiu NotSerializableException na fonte de dados Avro.
  • 11 de setembro de 2018

    • A redução do filtro deve tratar o valor nulo corretamente.
  • 28 de Agosto de 2018

    • Corrigiu um bug no comando Delete do Delta Lake que excluía incorretamente as linhas em que a condição avaliava como NULL.
    • [SPARK-25114] Corrige o RecordBinaryComparator quando a subtração entre duas palavras é divisível por Integer.MAX_VALUE.
  • 23 de agosto de 2018

    • [SPARK-24809] A serialização de LongHashedRelation no executor pode resultar em erro de dados.
    • Corrigiu o problema do mapa com nulos no leitor do Parquet.
    • [SPARK-25081] Corrigiu um bug em que o ShuffleExternalSorter acessava uma página de memória liberada quando o despejo falhava ao alocar memória.
    • Corrigiu uma interação entre o Databricks do Delta e o Pyspark que causava falhas de leitura transitórias.
  • 28 de junho de 2018

    • Corrigiu um bug que causava resultados incorretos de consulta quando o nome de uma coluna de partição usado em um predicado diferia do caso dessa coluna no esquema da tabela.
  • 28 de junho de 2018

    • Corrigiu um bug que causava resultados incorretos de consulta quando o nome de uma coluna de partição usado em um predicado diferia do caso dessa coluna no esquema da tabela.
  • 7 de junho de 2018

    • Corrigiu um bug que afetava o mecanismo de execução do Spark SQL.
    • Melhorou o tratamento de erro no Delta Lake.
  • 17 de maio de 2018

    • Melhorou a estabilidade na leitura dos dados armazenados no Azure Data Lake Store.
    • Corrigiu um bug que afetava o cache RDD.
    • Corrigiu um bug que afetava o Null-safe Equal no SQL do Spark.
    • Corrigiu um bug que afetava determinadas agregações em consultas de streaming.
  • 24 de abril de 2018

    • O SKD do Azure Data Lake Store foi atualizado da versão 2.0.11 para a 2.2.8 para melhorar a estabilidade de acesso ao Azure Data Lake Store.
    • Corrigiu um bug que afetava a inserção de substituições em tabelas particionadas do Hive quando spark.databricks.io.hive.fastwriter.enabled era false.
    • Corrigiu um problema de falha na serialização de tarefas.
  • 09 de março de 2018

    • Corrigiu um problema causado por uma condição de corrida que, em raras circunstâncias, levava à perda de alguns arquivos de saída.
  • 1º de março de 2018

    • Aprimorou a eficiência no tratamento de fluxos que levam muito tempo para parar.
    • Corrigiu um problema que afetava o preenchimento automático do Python.
    • Foram aplicados patches de segurança do Ubuntu.
    • Corrigiu um problema que afetava determinadas consultas usando UDFs do Python e funções de janela.
    • Corrigiu um problema que afetava o uso de UDFs em um cluster com o controle de acesso de tabela habilitado.
  • 29 de janeiro de 2018

    • Corrigiu um problema que afetava a manipulação de tabelas armazenadas no Blob do Azure.
    • Corrigiu a agregação após o dropDuplicates em DataFrame vazio.

Databricks Runtime 3.4 (sem suporte)

Confira Databricks Runtime 3.4 (sem suporte).

  • 7 de junho de 2018

    • Corrigiu um bug que afetava o mecanismo de execução do Spark SQL.
    • Melhorou o tratamento de erro no Delta Lake.
  • 17 de maio de 2018

    • Melhorou a estabilidade na leitura dos dados armazenados no Azure Data Lake Store.
    • Corrigiu um bug que afetava o cache RDD.
    • Corrigiu um bug que afetava o Null-safe Equal no SQL do Spark.
  • 24 de abril de 2018

    • Corrigiu um bug que afetava a inserção de substituições em tabelas particionadas do Hive quando spark.databricks.io.hive.fastwriter.enabled era false.
  • 09 de março de 2018

    • Corrigiu um problema causado por uma condição de corrida que, em raras circunstâncias, levava à perda de alguns arquivos de saída.
  • 13 de dezembro de 2017

    • Corrigiu um problema que afetava o UDFs no Scala.
    • Corrigiu um problema que afetava o uso do índice para ignorar dados em tabelas de fonte de dados armazenadas em caminhos não DBFS.
  • 7 de dezembro de 2017

    • Melhorou a estabilidade de embaralhamento.

Versões do Databricks Runtime sem suporte

Para as notas sobre a versão original, clique no link abaixo do subtítulo.