Junho de 2022

Estes recursos e aprimoramentos da plataforma Azure Databricks foram lançados em junho de 2022.

Observação

As versões são disponibilizadas em fases. Talvez sua conta do Azure Databricks só seja atualizada uma semana após a data de lançamento inicial.

ALTER TABLE alterações de permissão para o Catálogo do Unity

30 de junho de 2022

No Catálogo do Unity, houve uma atualização dos privilégios necessários para executar instruções ALTER TABLE. Anteriormente, OWNERSHIP de uma tabela era necessário para executar todas as instruções ALTER TABLE. Agora, OWNERSHIP só é necessário na tabela para alterar o proprietário, conceder permissões na tabela, alterar o nome dela e modificar uma definição de exibição. Para todas as outras operações de metadados em uma tabela (por exemplo, atualizar comentários, propriedades ou colunas), é possível fazer atualizações com a permissão MODIFY na tabela.

Confira ALTER TABLE e ALTER TABLE.

O Suporte Estendido do Databricks Runtime 6.4 chega ao fim do suporte

30 de junho de 2022

O suporte do Suporte Estendido do Databricks Runtime 6.4 terminou em 30 de junho. Confira Ciclos de vida de suporte do Databricks Runtime.

Término do suporte do Databricks Runtime série 10.2

22 de junho de 2022

O suporte ao Databricks Runtime 10.2 e ao Databricks Runtime 10.2 para Machine Learning foi encerrado em 22 de junho. Confira Ciclos de vida de suporte do Databricks Runtime.

Driver ODBC do Databricks 2.6.24

22 de junho de 2022

Lançamos a versão 2.6.24 do driver ODBC do Databricks (download). Esta versão adiciona suporte para configurar a tradução de consulta para sintaxes CTAS, permite que os usuários substituam SQL_ATTR_QUERY_TIMEOUT no conector e atualiza a biblioteca OpenSSL.

Essa versão também corrige os seguintes problemas:

  • O conector não permite o uso de certificados de servidor e intermediários que não tenham uma entrada de CDP (pontos de distribuição de CRL).
  • Ao usar um proxy, o conector define o nome do host incorreto para a SNI (Indicação de Nome do Servidor) do SSL.

O provedor do Databricks Terraform agora está em GA

22 de junho de 2022

O provedor do Databricks Terraform agora está em disponibilidade geral.

O Terraform permite automatizar totalmente a implantação para suas plataformas de dados com os processos de IaC (infraestrutura como código) existentes do Terraform.

Você pode usar o provedor do Databricks Terraform para definir ativos nos workspaces do Azure Databricks, como clusters e trabalhos, e para impor o controle de acesso por meio de permissões para usuários, grupos e entidades de serviço.

O provedor do Databricks Terraform fornece uma trilha de auditoria completa das implantações. Você pode usar o provedor do Databricks Terraform como um backbone para suas estratégias de recuperação de desastre e continuidade dos negócios.

O provedor do Databricks Terraform também dá suporte ao Catálogo do Unity (Versão Prévia), permitindo que você implante esse importante recurso de governança com facilidade e em escala.

O Databricks Runtime 11.0 e 11.0 ML estão em GA; o Photon 11.0 está em Versão Prévia Pública

16 de junho de 2022

O Databricks Runtime 11.0 e o Databricks Runtime 11.0 ML estão em disponibilidade geral. O Databricks Runtime 11.0 Photon está em Versão Prévia Pública.

ConsulteDatabricks Runtime 11.0 (sem suporte) e Databricks Runtime 11.0 para Machine Learning (sem suporte).

Alterar para o diretório de trabalho padrão do Repos no Databricks Runtime 11.0

16 de junho de 2022

O diretório de trabalho do Python para notebooks em um repositório usa como padrão o diretório que contém os notebooks. Por exemplo, em vez de /databricks/driver, o diretório de trabalho padrão é /Workspace/Repos/<user>/<repo>/<path-to-notebook>. Isso permite que a importação e a leitura de arquivos em Repos funcionem por padrão em clusters do Databricks Runtime 11.0.

Isso também significa que a gravação no diretório de trabalho atual falha com uma mensagem de erro Read-only filesystem. Se você quiser continuar gravando no sistema de arquivos local para um cluster, grave em /tmp/<filename> ou /databricks/driver/<filename>.

Término do suporte do Databricks Runtime série 10.1

14 de junho de 2022

O suporte ao Databricks Runtime 10.1 e ao Databricks Runtime 10.1 para Machine Learning foi encerrado em 14 de junho. Confira Ciclos de vida de suporte do Databricks Runtime.

Agora o Delta Live Tables dá suporte ao SCD tipo 2

13 a 21 de junho de 2022: versão 3.74

Seus pipelines do Delta Live Tables agora podem usar o SCD tipo 2 para capturar alterações de dados de origem e manter o histórico completo de atualizações em registros. Isso aprimora o suporte ao Delta Live Tables existente para SCD tipo 1. Consulte Captura de dados de alterações simplificada com a API APPLY CHANGES no Delta Live Tables.

Criar pipelines do Delta Live Tables diretamente na interface do usuário do Azure Databricks

13 a 21 de junho de 2022: versão 3.74

Agora você pode criar um pipeline do Delta Live Tables no menu Criar, na barra lateral da interface do usuário do Azure Databricks.

Selecionar o canal do Delta Live Tables quando criar ou editar um pipeline

13 a 21 de junho de 2022: versão 3.74

Agora você pode configurar o canal para o pipeline do Delta Live Tables com as caixas de diálogo Criar pipeline e Editar configurações de pipeline. Anteriormente, a configuração do canal exigia a edição das configurações na configuração JSON do pipeline.

Comunicar-se entre as tarefas nos seus trabalhos do Azure Databricks com valores de tarefa

13 de junho de 2022

Agora você pode comunicar valores entre tarefas em seus trabalhos do Azure Databricks com os valores de tarefa. Por exemplo, você pode usar valores de tarefa para transmitir a saída de um modelo de machine learning para tarefas downstream na mesma execução de trabalho. Confira Subutilitário taskValues (dbutils.jobs.taskValues).

Habilitar a alternância de contas na interface do usuário do Databricks

8 de junho de 2022

Se pertencerem a mais de uma conta, os usuários agora poderão alternar entre contas na interface do usuário do Databricks. Para usar o alternador de contas, clique no endereço de email na parte superior da interface do usuário do Databricks e passe o mouse sobre Alternar conta. Em seguida, selecione a conta para a qual você quer navegar.