Partilhar via


Expandir o Smart Store Analytics

Os utilizadores avançados do Smart Store Analytics podem aceder a dados e análises relevantes a partir do próprio data lake storage. O acesso pode ser através de quaisquer outros serviços ou aplicações que suportem a definição do Microsoft Azure Data Lake Storage e do Common Data Model, por exemplo, Microsoft Azure Synapse Analytics, Microsoft Azure Data Factory ou Microsoft Power BI.

Importante

Tem de utilizar o Microsoft Azure Data Lake Storage Gen2 uma vez que o Microsoft Azure Data Lake Storage Gen1 será incompatível.

O modelo de dados do Smart Store Analytics está em conformidade com os modelos de base de dados do Azure Synapse para Retalho, é melhorado com as especificidades do Smart Store Analytics e simplifica a ligação de outras aplicações aos dados de lake.

Estrutura do data lake do Smart Store Analytics

O data lake do Smart Store Analytics segue a definição de Common Data Model (metadados Common Data Model).

A imagem mostra a estrutura do data lake para Smart Stores Analytics.

A pasta raiz é denominada smartstores/. Na pasta raiz, há dois instantâneos de dados:

Dados transformados do fornecedor de loja inteligente (dados não processados da loja inteligente)

O manifesto raiz do Common Data Model para os dados não processados é root.manifesto.cdm.json. O ficheiro de manifesto refere-se aos ficheiros do esquema e ficheiros de dados reais localizados nas subpastas (nomeados após as tabelas), por exemplo, smartstores/Order/.

A subpasta de cada tabela contém:

  • ficheiro de esquema, que define os metadados, as colunas e os tipos de tabelas, no formato table-name.cdm.json, por exemplo, Order.cdm.json

  • ficheiros de dados, também conhecidos como partições de dados ou registos de tabela, no formato parquet, por exemplo, Order-cec9368060a849b8aab7583b62b506eb-00001.med

Dados gerados pelos módulos Retail Analytical e AI a partir dos dados não processados da loja inteligente

Todos os dados gerados estão numa pasta com o nome GUID, por exemplo, smartstores/14a7334b-7176-ed11-9985-00224804e0d0/. O manifesto raiz do Common Data Model para estes dados é kpi.manifest.cdm.json. O ficheiro de manifesto refere-se aos ficheiros de esquema e aos ficheiros de dados reais localizados na pasta com o nome GUID.

A pasta com o nome GUID contém:

  • Ficheiro de esquema para cada tabela, que define os metadados, as colunas e os tipos de tabelas, no formato table-name.cdm.json, por exemplo, OrderMetrics.cdm.json

  • Ficheiros de dados, também conhecidos como partições de dados ou registos de tabela, no formato parquet, por exemplo, part-00000-1e110bf0-6474-400b-b40a-086fce9f8e2a-c000.snappy.parquet

Importante

De acordo com o contrato de metadados do Common Data Model, os utilizadores necessitam apenas dos dados dos ficheiros manifest.cdm.json. Não precisam de interpretar a estrutura de pastas ou outros ficheiros internos presentes no data lake.

Utilização do data lake do Smart Store Analytics

Aqui estão alguns exemplos de dados sincronizados em análise/AI Insights gerados pelo Microsoft Cloud for Retail.

Pipeline de dados com o Microsoft Azure Data Factory

Para criar um pipeline de dados:

  1. Crie uma instância do Azure Data Factory e associe-a ao data lake storage do Smart Store Analytics. Deverá ter um serviço associado a um teste de ligação com êxito.

A imagem mostra como criar um serviço associado do Azure Data Factory.

Nota

A forma mais fácil de ligar uma instância do Azure Data Factory ao Azure Data Lake Storage é atribuir uma função de contribuidor a uma identidade gerida do Azure Data Factory na conta Azure Data Lake Storage. Para obter detalhes, consulte a documentação do Azure Data Factory.

  1. Selecione Publicar tudo para publicar a nova ligação.

A imagem mostra como publicar um serviço associado do Azure Data Factory.

Criar um pipeline de dados com o Microsoft Azure Data Factory

Para criar um pipeline de cópia para a pasta smartstores/ como uma origem, efetue os seguintes passos:

  1. Na secção Autor, selecione Novo fluxo de dados para criar um novo fluxo de dados.

A imagem mostra como criar um novo fluxo de dados.

  1. Inicie a depuração para uma verificação mais rápida da configuração do pipeline.

A imagem mostra como iniciar a depuração do fluxo de dados.

  1. Configure as definições de Origem do seguinte modo:
  • Para o tipo de Origem, selecione Em linha

A imagem mostra o tipo de origem em linha selecionado.

  • Para o tipo de conjunto de dados Em Linha, selecione Common Data Model

A imagem mostra um modelo de dados comum como origem em linha.

  • Utilize a ligação do Azure Data Lake Storage criada para o data lake de Lojas Inteligentes.

A imagem mostra a utilização do serviço associado para o data lake.

  1. Na secção Opções de origem, configure a origem do esquema do Common Data Model da seguinte forma:
  • Selecione Manifesto como o formato de Metadados.

A imagem mostra a seleção do manifesto como formato de metadados.

  • Na localização raiz, navegue e selecione a pasta smartstores.

  • Na secção Ficheiro de manifesto, navegue até selecionar o manifesto raiz necessário. Selecione o ficheiro raiz para os dados de análise e de AI Insights, kpi.manifesto.cdm.json.

    A imagem mostra a seleção de ficheiros de manifesto raiz

  • Na secção Entidade, selecione a entidade (tabela) que necessita de copiar/transformar, por exemplo, FISProductAssociationsUI a partir do pacote Frequentemente Comprados em Conjunto.

A imagem mostra a seleção do pacote frequentemente comprados em conjunto.

  1. No separador Projeção, selecione Permitir desfasamento de esquema. Esta seleção garantirá que o esquema não seja validado na origem, mas efetuará o desfasamento para outros passos de transformação/sink.

A imagem mostra a permissão do desfasamento de esquema.

  1. No separador Pré-visualização de dados, selecione Recarregar para validar a configuração da origem de dados.

A imagem mostra a validação da origem de dados.

  1. Adicione um passo de sink - defina os parâmetros e o mapeamento de dados conforme necessário para o seu cenário.

  2. Selecione Publicar para publicar as alterações.