Share via


Terminologia do Microsoft Fabric

Aprenda as definições de termos usados no Microsoft Fabric, incluindo termos específicos para Synapse Data Warehouse, Synapse Data Engineering, Synapse Data Science, Synapse Real-Time Analytics, Data Factory e Power BI.

Termos gerais

  • Capacidade: Capacidade é um conjunto dedicado de recursos que está disponível em um determinado momento para ser usado. A capacidade define a capacidade de um recurso para executar uma atividade ou produzir resultados. Itens diferentes consomem capacidade diferente em um determinado momento. O Fabric oferece capacidade por meio do Fabric SKU e Trials. Para obter mais informações, consulte O que é capacidade?

  • Experiência: uma coleção de recursos direcionados a uma funcionalidade específica. As experiências do Fabric incluem Synapse Data Warehouse, Synapse Data Engineering, Synapse Data Science, Synapse Real-Time Analytics, Data Factory e Power BI.

  • Item: um item um conjunto de recursos dentro de uma experiência. Os usuários podem criá-los, editá-los e excluí-los. Cada tipo de item fornece recursos diferentes. Por exemplo, a experiência em Engenharia de Dados inclui os itens de definição de trabalho lakehouse, notebook e Spark.

  • Locatário: um locatário é uma única instância do Fabric para uma organização e está alinhado com uma ID do Microsoft Entra.

  • Espaço de trabalho: um espaço de trabalho é uma coleção de itens que reúne diferentes funcionalidades em um único ambiente projetado para colaboração. Ele atua como um contêiner que usa capacidade para o trabalho que é executado e fornece controles para quem pode acessar os itens nele. Por exemplo, em um espaço de trabalho, os usuários criam relatórios, blocos de anotações, modelos semânticos, etc. Para obter mais informações, consulte o artigo Espaços de trabalho.

Engenharia de Dados do Azure Synapse

  • Lakehouse: Uma lakehouse é uma coleção de arquivos, pastas e tabelas que representam um banco de dados sobre um data lake usado pelo mecanismo Apache Spark e pelo mecanismo SQL para processamento de big data. Um lakehouse inclui recursos aprimorados para transações ACID ao usar as tabelas formatadas Delta de código aberto. O item lakehouse é hospedado em uma pasta de espaço de trabalho exclusiva no Microsoft OneLake. Ele contém arquivos em vários formatos (estruturados e não estruturados) organizados em pastas e subpastas. Para obter mais informações, consulte O que é uma casa no lago?

  • Notebook: Um notebook Fabric é uma ferramenta de programação interativa multilinguagem com funções avançadas. O que inclui a criação de código e markdown, execução e monitoramento de um trabalho do Spark, visualização e visualização de resultados e colaboração com a equipe. Ele ajuda engenheiros de dados e cientistas de dados a explorar e processar dados e criar experimentos de aprendizado de máquina com experiência em código e low-code. Ele pode ser facilmente transformado em uma atividade de pipeline para orquestração.

  • Aplicativo Spark: um aplicativo Apache Spark é um programa escrito por um usuário usando uma das linguagens de API do Spark (Scala, Python, Spark SQL ou Java) ou linguagens adicionadas pela Microsoft (.NET com C# ou F#). Quando um aplicativo é executado, ele é dividido em um ou mais trabalhos do Spark que são executados em paralelo para processar os dados mais rapidamente. Para obter mais informações, consulte Monitoramento de aplicativos Spark.

  • Trabalho do Apache Spark: um trabalho do Spark faz parte de um aplicativo do Spark que é executado em paralelo com outros trabalhos no aplicativo. Um trabalho consiste em várias tarefas. Para obter mais informações, consulte Monitoramento de trabalhos do Spark.

  • Definição de trabalho do Apache Spark: uma definição de trabalho do Spark é um conjunto de parâmetros, definido pelo usuário, indicando como um aplicativo Spark deve ser executado. Ele permite que você envie trabalhos em lote ou streaming para o cluster do Spark. Para obter mais informações, consulte O que é uma definição de trabalho do Apache Spark?

  • V-order: Uma otimização de gravação para o formato de arquivo parquet que permite leituras rápidas e fornece eficiência de custos e melhor desempenho. Todos os mecanismos de malha gravam arquivos de parquet ordenados em V por padrão.

Data Factory

  • Conector: o Data Factory oferece um rico conjunto de conectores que permitem que você se conecte a diferentes tipos de armazenamentos de dados. Uma vez conectado, você pode transformar os dados. Para obter mais informações, consulte conectores.

  • Pipeline de dados: no Data Factory, um pipeline de dados é usado para orquestrar a movimentação e a transformação de dados. Esses pipelines são diferentes dos pipelines de implantação no Fabric. Para obter mais informações, consulte Pipelines na visão geral do Data Factory.

  • Dataflow Gen2: Os fluxos de dados fornecem uma interface low-code para ingerir dados de centenas de fontes de dados e transformar seus dados. Os fluxos de dados na malha são chamados de Dataflow Gen2. O Dataflow Gen1 existe no Power BI. O Dataflow Gen2 oferece recursos extras em comparação com os fluxos de dados no Azure Data Factory ou no Power BI. Não é possível atualizar de Gen1 para Gen2. Para obter mais informações, consulte Fluxos de dados na visão geral do Data Factory.

Ciência de Dados do Azure Synapse

  • Data Wrangler: O Data Wrangler é uma ferramenta baseada em notebook que oferece aos usuários uma experiência imersiva para conduzir análises exploratórias de dados. O recurso combina uma exibição de dados em forma de grade com estatísticas de resumo dinâmicas e um conjunto de operações comuns de limpeza de dados, todas disponíveis com alguns ícones selecionados. Cada operação gera código que pode ser salvo de volta no bloco de anotações como um script reutilizável.

  • Experimento: Um experimento de aprendizado de máquina é a principal unidade de organização e controle para todas as execuções de aprendizado de máquina relacionadas. Para obter mais informações, consulte Experimentos de aprendizado de máquina no Microsoft Fabric.

  • Modelo: Um modelo de aprendizado de máquina é um arquivo treinado para reconhecer certos tipos de padrões. Você treina um modelo sobre um conjunto de dados e fornece a ele um algoritmo que ele usa para raciocinar e aprender com esse conjunto de dados. Para obter mais informações, consulte Modelo de aprendizado de máquina.

  • Executar: Uma execução corresponde a uma única execução do código do modelo. No MLflow, o rastreamento é baseado em experimentos e execuções.

Armazém de dados Synapse

  • Ponto de extremidade de análise SQL: cada Lakehouse tem um ponto de extremidade de análise SQL que permite que um usuário consulte dados de tabela delta com TSQL sobre TDS. Para obter mais informações, consulte Ponto de extremidade de análise SQL.

  • Synapse Data Warehouse: O Synapse Data Warehouse funciona como um armazém de dados tradicional e suporta todos os recursos transacionais do T-SQL que você esperaria de um armazém de dados corporativo. Para obter mais informações, consulte Synapse Data Warehouse.

Análise em Tempo Real do Azure Synapse

  • Banco de dados KQL: O banco de dados KQL contém dados em um formato no qual você pode executar consultas KQL. Para obter mais informações, consulte Consultar um banco de dados KQL.

  • KQL Queryset: O KQL Queryset é o item usado para executar consultas, exibir resultados e manipular resultados de consulta em dados do banco de dados do Data Explorer. O conjunto de consultas inclui os bancos de dados e tabelas, as consultas e os resultados. O KQL Queryset permite que você salve consultas para uso futuro ou exporte e compartilhe consultas com outras pessoas. Para obter mais informações, consulte Consultar dados no conjunto de consultas KQL

  • Fluxo de eventos: o recurso de fluxos de eventos do Microsoft Fabric fornece um local centralizado na plataforma Fabric para capturar, transformar e rotear eventos em tempo real para destinos com uma experiência sem código. Um fluxo de eventos consiste em várias fontes de dados de streaming, destinos de ingestão e um processador de eventos quando a transformação é necessária. Para obter mais informações, consulte Fluxos de eventos do Microsoft Fabric.

OneLake

  • Atalho: os atalhos são referências incorporadas no OneLake que apontam para outros locais de armazenamento de arquivos. Eles fornecem uma maneira de se conectar aos dados existentes sem ter que copiá-los diretamente. Para obter mais informações, consulte Atalhos do OneLake.