Power Query anslutningsappar (förhandsversion – tillbakadragen)

Viktigt

Power Query anslutningsappsstöd introducerades som en gated offentlig förhandsversion under Kompletterande användningsvillkor för Microsoft Azure förhandsversioner, men har nu upphört. Om du har en söklösning som använder en Power Query-anslutning kan du migrera till en alternativ lösning.

Migrera senast den 28 november

Förhandsversionen av Power Query-anslutningsappen tillkännagavs i maj 2021 och kommer inte att gå vidare till allmän tillgänglighet. Följande migreringsvägledning är tillgänglig för Snowflake och PostgreSQL. Om du använder en annan anslutningsapp och behöver migreringsinstruktioner kan du använda e-postkontaktinformationen i förhandsversionen för att begära hjälp eller öppna ett ärende med Azure Support.

Förutsättningar

Migrera en Snowflake-datapipeline

Det här avsnittet beskriver hur du kopierar data från en Snowflake-databas till ett Azure Cognitive Search index. Det finns ingen process för direkt indexering från Snowflake till Azure Cognitive Search, så det här avsnittet innehåller en mellanlagringsfas som kopierar databasinnehåll till en Azure Storage blobcontainer. Sedan indexeras du från den mellanlagringscontainern med hjälp av en Data Factory-pipeline.

Steg 1: Hämta snowflake-databasinformation

  1. Gå till Snowflake och logga in på ditt Snowflake-konto. Ett Snowflake-konto ser ut som https://< account_name.snowflakecomputing.com>.

  2. När du har loggat in samlar du in följande information från det vänstra fönstret. Du använder den här informationen i nästa steg:

    • Från Data väljer du Databaser och kopierar namnet på databaskällan.
    • Från Admin väljer du Användarroller & och kopierar namnet på användaren. Kontrollera att användaren har läsbehörigheter.
    • Från Admin väljer du Konton och kopierar kontots LOCATOR-värde.
    • Från Snowflake-URL:en, som liknar https://app.snowflake.com/<region_name>/xy12345/organization). kopiera regionnamnet. I https://app.snowflake.com/south-central-us.azure/xy12345/organizationär south-central-us.azuretill exempel regionnamnet .
    • Från Admin väljer du Lager och kopierar namnet på det lager som är associerat med databasen som du ska använda som källa.

Steg 2: Konfigurera länkad Snowflake-tjänst

  1. Logga in på Azure Data Factory Studio med ditt Azure-konto.

  2. Välj din datafabrik och välj sedan Fortsätt.

  3. Välj ikonen Hantera på den vänstra menyn.

    Screenshot showing how to choose the Manage icon in Azure Data Factory to configure Snowflake Linked Service.

  4. Under Länkade tjänster väljer du Ny.

    Screenshot showing how to choose New Linked Service in Azure Data Factory.

  5. I den högra rutan i datalagersökningen anger du "snowflake". Välj Snowflake-panelen och välj Fortsätt.

    Screenshot showing how to choose Snowflake tile in new Linked Service data store.

  6. Fyll i formuläret Ny länkad tjänst med de data som du samlade in i föregående steg. Kontonamnet innehåller ett LOCATOR-värde och regionen (till exempel: ).xy56789south-central-us.azure

    Screenshot showing how to fill out Snowflake Linked Service form.

  7. När formuläret har slutförts väljer du Testa anslutning.

  8. Om testet lyckas väljer du Skapa.

Steg 3: Konfigurera Snowflake Dataset

  1. Välj ikonen Författare på den vänstra menyn.

  2. Välj Datauppsättningar och välj sedan menyn Åtgärder för datauppsättningar (...).

    Screenshot showing how to choose the Author icon and datasets option.

  3. Välj Ny datauppsättning.

    Screenshot showing how to choose a new dataset in Azure Data Factory for Snowflake.

  4. I den högra rutan i datalagersökningen anger du "snowflake". Välj Snowflake-panelen och välj Fortsätt.

    Screenshot showing how to choose Snowflake from data source for Dataset.

  5. I Ange egenskaper:

    • Välj den länkade tjänst som du skapade i steg 2.
    • Välj den tabell som du vill importera och välj sedan OK.

    Screenshot showing how to configure dataset properties for Snowflake.

  6. Välj Spara.

Skapa ett nytt index i din Azure Cognitive Search-tjänst med samma schema som det du för närvarande har konfigurerat för dina Snowflake-data.

Du kan återanvända det index som du använder för Snowflake Power Connector. I Azure Portal letar du upp indexet och väljer sedan Indexdefinition (JSON). Välj definitionen och kopiera den till brödtexten i din nya indexbegäran.

Screenshot showing how to copy existing Azure Cognitive Search index JSON configuration for existing Snowflake index.

Steg 5: Konfigurera Azure Cognitive Search länkad tjänst

  1. Välj Ikonen Hantera på den vänstra menyn.

    Screenshot showing how to choose the Manage icon in Azure Data Factory to add a new linked service.

  2. Under Länkade tjänster väljer du Ny.

    Screenshot showing how to choose New Linked Service in Azure Data Factory for Cognitive Search.

  3. I den högra rutan i datalagersökningen anger du "sök". Välj Azure Search-panelen och välj Fortsätt.

    Screenshot showing how to choose New Linked Search in Azure Data Factory to import from Snowflake.

  4. Fyll i de nya länkade tjänstvärdena :

    • Välj den Azure-prenumeration där din Azure Cognitive Search tjänst finns.
    • Välj den Azure Cognitive Search tjänst som har indexeraren för Power Query-anslutningsappen.
    • Välj Skapa.

    Screenshot showing how to choose New Linked Search Service in Azure Data Factory with its properties to import from Snowflake.

Steg 6: Konfigurera Azure Cognitive Search datauppsättning

  1. Välj Ikonen Författare på den vänstra menyn.

  2. Välj Datauppsättningar och välj sedan menyn Åtgärder för datauppsättningar (...).

    Screenshot showing how to choose the Author icon and datasets option for Cognitive Search.

  3. Välj Ny datauppsättning.

    Screenshot showing how to choose a new dataset in Azure Data Factory.

  4. I den högra rutan i datalagersökningen anger du "sök". Välj Azure Search-panelen och välj Fortsätt.

    Screenshot showing how to choose an Azure Cognitive Search service for a Dataset in Azure Data Factory to use as sink.

  5. I Ange egenskaper:

    • Välj den länkade tjänst som nyligen skapades i steg 5.

    • Välj det sökindex som du skapade i steg 4.

    • Välj OK.

      Screenshot showing how to choose New Search Linked Service in Azure Data Factory for Snowflake.

  6. Välj Spara.

Steg 7: Konfigurera Azure Blob Storage länkad tjänst

  1. Välj Ikonen Hantera på den vänstra menyn.

    Screenshot showing how to choose the Manage icon in Azure Data Factory to link a new service.

  2. Under Länkade tjänster väljer du Ny.

    Screenshot showing how to choose New Linked Service in Azure Data Factory to assign a storage account.

  3. I den högra rutan i datalagringssökningen anger du "lagring". Välj panelen Azure Blob Storage och välj Fortsätt.

    Screenshot showing how to choose New Linked Blob Storage Service to use as sink for Snowflake in Azure Data Factory.

  4. Fyll i de nya länkade tjänstvärdena :

    • Välj Autentiseringstyp: SAS-URI. Endast den här autentiseringstypen kan användas för att importera data från Snowflake till Azure Blob Storage.

    • Generera en SAS-URL för lagringskontot som du ska använda för mellanlagring. Klistra in BLOB SAS-URL:en i FÄLTET SAS-URL.

    • Välj Skapa.

      Screenshot showing how to fill out New Linked Search Service form in Azure Data Factory with its properties to import from SnowFlake.

Steg 8: Konfigurera Storage datauppsättning

  1. Välj Ikonen Författare på den vänstra menyn.

  2. Välj Datauppsättningar och välj sedan menyn Åtgärder för datauppsättningar (...).

    Screenshot showing how to choose the Author icon and datasets option.

  3. Välj Ny datauppsättning.

    Screenshot showing how to choose a new dataset for storage in Azure Data Factory.

  4. I den högra rutan i datalagringssökningen anger du "lagring". Välj panelen Azure Blob Storage och välj Fortsätt.

    Screenshot showing how to choose a new blob storage data store in Azure Data Factory for staging.

  5. Välj Format för avgränsadtext och välj Fortsätt.

  6. I Ange egenskaper:

    • Under Länkad tjänst väljer du den länkade tjänst som skapades i steg 7.

    • Under Filsökväg väljer du den container som ska vara mottagare för mellanlagringsprocessen och väljer OK.

      Screenshot showing how to configure properties for storage dataset for Snowflake in Azure Data Factory.

    • I Radgränsare väljer du Radmatning (\n).

    • Markera första raden som en rubrikruta .

    • Välj Spara.

      Screenshot showing how to save a DelimitedText configuration to be used as sink for Snowflake.

Steg 9: Konfigurera pipeline

  1. I den vänstra menyn väljer du Ikonen Författare .

  2. Välj Pipelines och välj sedan ellipsmenyn Pipelineåtgärder (...).

    Screenshot showing how to choose the Author icon and Pipelines option to configure Pipeline for Snowflake data transformation.

  3. Välj Ny pipeline.

    Screenshot showing how to choose a new Pipeline in Azure Data Factory to create for Snowflake data ingestion.

  4. Skapa och konfigurera Data Factory-aktiviteter som kopierar från Snowflake till Azure Storage container:

    • Expandera avsnittet Flytta & transformering och dra och släpp aktiviteten Kopiera data till den tomma arbetsytan för pipelineredigeraren.

      Screenshot showing how to drag and drop a Copy data activity in Pipeline canvas to copy data from Snowflake.

    • Öppna fliken Allmänt . Acceptera standardvärdena om du inte behöver anpassa körningen.

    • På fliken Källa väljer du din Snowflake-tabell. Låt de återstående alternativen vara kvar med standardvärdena.

      Screenshot showing how to configure the Source in a pipeline to import data from Snowflake.

    • På fliken Mottagare :

      • Välj Storage datauppsättningen DelimitedText som skapades i steg 8.

      • I Filnamnstillägg lägger du till .csv.

      • Låt de återstående alternativen vara kvar med standardvärdena.

        Screenshot showing how to configure the sink in a Pipeline to move the data to Azure Storage from Snowflake.

    • Välj Spara.

  5. Konfigurera de aktiviteter som kopierar från Azure Storage Blob till ett sökindex:

    • Expandera avsnittet Flytta & transformering och dra och släpp aktiviteten Kopiera data till den tomma arbetsytan för pipelineredigeraren.

      Screenshot showing how to drag and drop a Copy data activity in Pipeline canvas to index from Storage.

    • På fliken Allmänt godkänner du standardvärdena, såvida du inte behöver anpassa körningen.

    • På fliken Källa :

      • Välj Storage datauppsättningen DelimitedText som skapades i steg 8.
      • I Filsökvägstyp väljer du Sökväg till jokerteckenfil.
      • Lämna standardvärdena för alla återstående fält.

      Screenshot showing how to configure the Source in a pipeline to import data from blob storage to Azure Cognitive Search index for staging phase.

    • På fliken Mottagare väljer du ditt Azure Cognitive Search index. Låt de återstående alternativen vara kvar med standardvärdena.

      Screenshot showing how to configure the Sink in a pipeline to import data from blob storage to Azure Cognitive Search index as final step from pipeline.

    • Välj Spara.

Steg 10: Konfigurera aktivitetsordning

  1. I redigeraren för pipeline-arbetsytan väljer du den lilla gröna rutan vid kanten av pipelineaktivitetspanelen. Dra den till aktiviteten "Index från Storage-konto för att Azure Cognitive Search" för att ange körningsordningen.

  2. Välj Spara.

    Screenshot showing how to link Pipeline activities to provide the order of execution for Snowflake.

Steg 11: Lägga till en pipeline-utlösare

  1. Välj Lägg till utlösare för att schemalägga pipelinekörningen och välj Ny/Redigera.

    Screenshot showing how to add a new trigger for a Pipeline in Data Factory to run for Snowflake.

  2. I listrutan Välj utlösare väljer du Nytt.

    Screenshot showing how to select adding a new trigger for a Pipeline in Data Factory for Snowflake.

  3. Granska utlösaralternativen för att köra pipelinen och välj OK.

    Screenshot showing how to configure a trigger to run a Pipeline in Data Factory for Snowflake.

  4. Välj Spara.

  5. Välj Publicera.

    How to Publish a Pipeline in Data Factory for Snowflake ingestion to index.

Migrera en PostgreSQL-datapipeline

Det här avsnittet beskriver hur du kopierar data från en PostgreSQL-databas till ett Azure Cognitive Search index. Det finns ingen process för direkt indexering från PostgreSQL till Azure Cognitive Search, så det här avsnittet innehåller en mellanlagringsfas som kopierar databasinnehåll till en Azure Storage blobcontainer. Sedan indexeras du från den mellanlagringscontainern med hjälp av en Data Factory-pipeline.

Steg 1: Konfigurera länkad PostgreSQL-tjänst

  1. Logga in på Azure Data Factory Studio med ditt Azure-konto.

  2. Välj din Data Factory och välj Fortsätt.

  3. På den vänstra menyn väljer du ikonen Hantera .

    How to choose the Manage icon in Azure Data Factory.

  4. Under Länkade tjänster väljer du Nytt.

    Screenshot showing how to choose New Linked Service in Azure Data Factory.

  5. I den högra rutan i datalagersökningen anger du "postgresql". Välj den PostgreSQL-panel som representerar var PostgreSQL-databasen finns (Azure eller något annat) och välj Fortsätt. I det här exemplet finns PostgreSQL-databasen i Azure.

    How to choose PostgreSQL data store for a Linked Service in Azure Data Factory.

  6. Fyll i värdena för Ny länkad tjänst :

    • I Kontovalsmetod väljer du Retur manuellt.

    • Från sidan Azure Database for PostgreSQL Översikt i Azure Portal klistrar du in följande värden i respektive fält:

      • Lägg till Servernamn i Fullständigt kvalificerat domännamn.
      • Lägg till Admin användarnamn i Användarnamn.
      • Lägg till databas till databasnamn.
      • Ange lösenordet för Admin användarnamn i Användarnamn.
      • Välj Skapa.

      Choose the Manage icon in Azure Data Factory

Steg 2: Konfigurera PostgreSQL-datauppsättning

  1. I den vänstra menyn väljer du Ikonen Författare .

  2. Välj Datauppsättningar och välj sedan ellipsmenyn Åtgärder för datauppsättningar (...).

    Screenshot showing how to choose the Author icon and datasets option.

  3. Välj Ny datauppsättning.

    Screenshot showing how to choose a new dataset in Azure Data Factory.

  4. I den högra rutan i datalagersökningen anger du "postgresql". Välj Panelen Azure PostgreSQL . Välj Fortsätt.

    Screenshot showing how to choose PostgreSQL data store for a Dataset in Azure Data Factory.

  5. Fyll i värdena för Ange egenskaper :

    • Välj den länkade PostgreSQL-tjänst som skapades i steg 1.

    • Välj den tabell som du vill importera/indexera.

    • Välj OK.

      Screenshot showing how to set PostgreSQL properties for dataset in Azure Data Factory.

  6. Välj Spara.

Skapa ett nytt index i din Azure Cognitive Search-tjänst med samma schema som det som används för dina PostgreSQL-data.

Du kan återanvända det index som du använder för PostgreSQL Power Connector. Leta upp indexet i Azure Portal och välj sedan Indexdefinition (JSON). Välj definitionen och kopiera den till brödtexten i din nya indexbegäran.

Screenshot showing how to copy existing Azure Cognitive Search index JSON configuration.

Steg 4: Konfigurera Azure Cognitive Search länkad tjänst

  1. På den vänstra menyn väljer du ikonen Hantera .

    Screenshot showing how to choose the Manage icon in Azure Data Factory to link a service.

  2. Under Länkade tjänster väljer du Nytt.

    Screenshot showing how to choose New Linked Service in Azure Data Factory.

  3. I den högra rutan i datalagersökningen anger du "search". Välj Azure Search-panelen och välj Fortsätt.

    Screenshot showing how to choose New Linked Search service in Azure Data Factory.

  4. Fyll i värdena för Ny länkad tjänst :

    • Välj den Azure-prenumeration där din Azure Cognitive Search-tjänst finns.
    • Välj den Azure Cognitive Search-tjänst som har indexeraren för Power Query-anslutningsappen.
    • Välj Skapa.

    Screenshot showing how to choose New Linked Search Service in Azure Data Factory with its properties to import from PostgreSQL.

Steg 5: Konfigurera Azure Cognitive Search datauppsättning

  1. I den vänstra menyn väljer du Ikonen Författare .

  2. Välj Datauppsättningar och välj sedan ellipsmenyn Åtgärder för datauppsättningar (...).

    Screenshot showing how to choose the Author icon and datasets option.

  3. Välj Ny datauppsättning.

    Screenshot showing how to choose a new dataset in Azure Data Factory.

  4. I den högra rutan i datalagersökningen anger du "search". Välj Azure Search-panelen och välj Fortsätt.

    Screenshot showing how to choose an Azure Cognitive Search service for a Dataset in Azure Data Factory.

  5. I Ange egenskaper:

    • Välj den länkade tjänst som skapats för Azure Cognitive Search i steg 4.

    • Välj det index som du skapade som en del av steg 3.

    • Välj OK.

      Screenshot showing how to fill out Set Properties for search dataset.

  6. Välj Spara.

Steg 6: Konfigurera Azure Blob Storage länkad tjänst

  1. På den vänstra menyn väljer du Hantera-ikonen .

    Screenshot showing how to choose the Manage icon in Azure Data Factory to link a service.

  2. Under Länkade tjänster väljer du Nytt.

    Screenshot showing how to choose New Linked Service in Azure Data Factory.

  3. I den högra rutan i datalagersökningen anger du "lagring". Välj panelen Azure Blob Storage och välj Fortsätt.

    Screenshot showing how to choose a new data store

  4. Fyll i de nya länkade tjänstvärdena :

    • Välj Autentiseringstyp: SAS-URI. Endast den här metoden kan användas för att importera data från PostgreSQL till Azure Blob Storage.

    • Generera en SAS-URL för lagringskontot som du ska använda för mellanlagring och kopiera blob-SAS-URL:en till FÄLTET SAS-URL.

    • Välj Skapa.

      Screenshot showing how to fill out New Linked Search Service form in Azure Data Factory with its properties to import from PostgreSQL.

Steg 7: Konfigurera Storage datauppsättning

  1. Välj Ikonen Författare på den vänstra menyn.

  2. Välj Datauppsättningar och välj sedan menyn Åtgärder för datauppsättningar (...).

    Screenshot showing how to choose the Author icon and datasets option.

  3. Välj Ny datauppsättning.

    Screenshot showing how to choose a new dataset in Azure Data Factory.

  4. I den högra rutan i datalagringssökningen anger du "lagring". Välj panelen Azure Blob Storage och välj Fortsätt.

    Screenshot showing how to choose a new blob storage data store in Azure Data Factory.

  5. Välj Format för avgränsadtext och välj Fortsätt.

  6. I Radgränsare väljer du Radmatning (\n).

  7. Markera första raden som en rubrikruta .

  8. Välj Spara.

    Screenshot showing options to import data to Azure Storage blob.

Steg 8: Konfigurera pipeline

  1. Välj Ikonen Författare på den vänstra menyn.

  2. Välj Pipelines och välj sedan menyn Pipelines Actions ellipses (...).

    Screenshot showing how to choose the Author icon and Pipelines option.

  3. Välj Ny pipeline.

    Screenshot showing how to choose a new Pipeline in Azure Data Factory.

  4. Skapa och konfigurera datafabriksaktiviteter som kopierar från PostgreSQL till Azure Storage container.

    • Expandera Avsnittet Flytta & transformering och dra och släpp aktiviteten Kopiera data till den tomma pipelineredigerarens arbetsyta.

      Screenshot showing how to drag and drop in Azure Data Factory to copy data from PostgreSQL.

    • Öppna fliken Allmänt , acceptera standardvärdena, såvida du inte behöver anpassa körningen.

    • På fliken Källa väljer du tabellen PostgreSQL. Lämna de återstående alternativen med standardvärdena.

      Screenshot showing how to configure Source to import data from PostgreSQL into Azure Storage blob in staging phase.

    • På fliken Mottagare :

      • Välj Storage AvgränsadText PostgreSQL-datauppsättning som konfigurerades i steg 7.

      • I Filnamnstillägg lägger du till .csv

      • Lämna de återstående alternativen med standardvärdena.

        Screenshot showing how to configure sink to import data from PostgreSQL into Azure Storage blob.

    • Välj Spara.

  5. Konfigurera de aktiviteter som kopierar från Azure Storage till ett sökindex:

    • Expandera Avsnittet Flytta & transformering och dra och släpp aktiviteten Kopiera data till den tomma pipelineredigerarens arbetsyta.

      Screenshot showing how to drag and drop in Azure Data Factory to configure a copy activity.

    • På fliken Allmänt lämnar du standardvärdena, såvida du inte behöver anpassa körningen.

    • På fliken Källa :

      • Välj den Storage källdatauppsättning som konfigurerades i steg 7.
      • I fältet Filsökvägstyp väljer du Sökväg till jokerteckenfil.
      • Lämna alla återstående fält med standardvärden.

      Screenshot showing how to configure Source for indexing from Storage to Azure Cognitive Search index.

    • På fliken Mottagare väljer du ditt Azure Cognitive Search index. Lämna de återstående alternativen med standardvärdena.

      Screenshot showing how to configure Sink for indexing from Storage to Azure Cognitive Search index.

    • Välj Spara.

Steg 9: Konfigurera aktivitetsordning

  1. I redigeraren Pipeline-arbetsytor väljer du den lilla gröna rutan i kanten av pipelineaktiviteten. Dra den till aktiviteten "Index från Storage-konto för att Azure Cognitive Search" för att ange körningsordningen.

  2. Välj Spara.

    Screenshot showing how to configure activity order in the pipeline for proper execution.

Steg 10: Lägg till en pipeline-utlösare

  1. Välj Lägg till utlösare för att schemalägga pipelinekörningen och välj Ny/Redigera.

    Screenshot showing how to add a new trigger for a Pipeline in Data Factory.

  2. I listrutan Välj utlösare väljer du Ny.

    Screenshot showing how to select adding a new trigger for a Pipeline in Data Factory.

  3. Granska utlösaralternativen för att köra pipelinen och välj OK.

    Screenshot showing how to configure a trigger to run a Pipeline in Data Factory.

  4. Välj Spara.

  5. Välj Publicera.

    Screenshot showing how to Publish a Pipeline in Data Factory for PostgreSQL data copy.

Äldre innehåll för förhandsversion av Power Query-anslutningsapp

En Power Query-anslutningsapp används med en sökindexerare för att automatisera datainmatning från olika datakällor, inklusive de på andra molnleverantörer. Den använder Power Query för att hämta data.

Datakällor som stöds i förhandsversionen är:

  • Amazon Redshift
  • Elasticsearch
  • PostgreSQL
  • Salesforce-objekt
  • Salesforce-rapporter
  • Smartsheet
  • Snowflake

Funktioner som stöds

Power Query anslutningsappar används i indexerare. En indexerare i Azure Cognitive Search är en crawler som extraherar sökbara data och metadata från en extern datakälla och fyller i ett index baserat på fält-till-fält-mappningar mellan indexet och datakällan. Den här metoden kallas ibland för en "pull-modell" eftersom tjänsten hämtar data utan att du behöver skriva någon kod som lägger till data i ett index. Indexerare är ett bekvämt sätt för användare att indexeras innehåll från sin datakälla utan att behöva skriva en egen crawler eller push-modell.

Indexerare som refererar till Power Query datakällor har samma stöd för kompetensuppsättningar, scheman, logik för ändringsidentifiering med högt vattenmärke och de flesta parametrar som andra indexerare stöder.

Förutsättningar

Innan du börjar hämta data från en av de datakällor som stöds bör du se till att alla dina resurser har konfigurerats.

  • Azure Cognitive Search i en region som stöds.

  • Registrera dig för förhandsversionen. Den här funktionen måste vara aktiverad på serverdelen.

  • Azure Blob Storage konto, som används som mellanhand för dina data. Data flödar från datakällan och sedan till Blob Storage och sedan till indexet. Det här kravet finns bara med den första gated preview.

Regional tillgänglighet

Förhandsversionen är endast tillgänglig för söktjänster i följande regioner:

  • Central US
  • East US
  • USA, östra 2
  • USA, norra centrala
  • Europa, norra
  • USA, södra centrala
  • USA, västra centrala
  • Europa, västra
  • USA, västra
  • USA, västra 2

Begränsningar för förhandsversion

I det här avsnittet beskrivs de begränsningar som är specifika för den aktuella versionen av förhandsversionen.

Komma igång med Azure Portal

Azure Portal har stöd för Power Query-anslutningsappar. Genom att samplingsdata och läsa metadata i containern kan guiden Importera data i Azure Cognitive Search skapa ett standardindex, mappa källfält till målindexfält och läsa in indexet i en enda åtgärd. Beroende på källdatas storlek och komplexitet kan du ha ett fungerande fulltextsökningsindex på några minuter.

Följande video visar hur du konfigurerar en Power Query-anslutning i Azure Cognitive Search.

Steg 1 – Förbereda källdata

Kontrollera att datakällan innehåller data. Guiden Importera data läser metadata och utför datasampling för att härleda ett indexschema, men den läser också in data från datakällan. Om data saknas stoppas och returneras och fel returneras.

Steg 2 – Starta guiden Importera data

När du har godkänts för förhandsversionen ger Azure Cognitive Search-teamet dig en Azure Portal-länk som använder en funktionsflagga så att du kan komma åt Power Query-anslutningsappar. Öppna den här sidan och starta guiden från kommandofältet på Azure Cognitive Search-tjänstsidan genom att välja Importera data.

Screenshot of the Import data command

Steg 3 – Välj din datakälla

Det finns några datakällor som du kan hämta data från med hjälp av den här förhandsversionen. Alla datakällor som använder Power Query innehåller en "Powered By Power Query" på panelen. Välj din datakälla.

Screenshot of the Select a data source page.

När du har valt din datakälla väljer du Nästa: Konfigurera dina data för att gå vidare till nästa avsnitt.

Steg 4 – Konfigurera dina data

I det här steget konfigurerar du anslutningen. Varje datakälla kräver olika information. För några få datakällor innehåller Power Query-dokumentationen mer information om hur du ansluter till dina data.

När du har angett dina autentiseringsuppgifter för anslutningen väljer du Nästa.

Steg 5 – Välj dina data

Importguiden förhandsgranskar olika tabeller som är tillgängliga i din datakälla. I det här steget ska du kontrollera en tabell som innehåller de data som du vill importera till ditt index.

Screenshot of data preview.

När du har valt tabellen väljer du Nästa.

Steg 6 – Transformera dina data (valfritt)

Power Query anslutningsappar ger dig en omfattande användargränssnittsupplevelse som gör att du kan manipulera dina data så att du kan skicka rätt data till ditt index. Du kan ta bort kolumner, filtrera rader och mycket mer.

Du behöver inte transformera dina data innan du importerar dem till Azure Cognitive Search.

Screenshot of Transform your data page.

Mer information om hur du transformerar data med Power Query finns i Använda Power Query i Power BI Desktop.

När data har transformerats väljer du Nästa.

Steg 7 – Lägga till Azure Blob Storage

Förhandsversionen av Power Query-anslutningsappen kräver för närvarande att du anger ett bloblagringskonto. Det här steget finns bara med den första grindförhandsgranskningen. Det här bloblagringskontot fungerar som tillfällig lagring för data som flyttas från datakällan till ett Azure Cognitive Search index.

Vi rekommenderar att du anger en anslutningssträng för lagringskontot med fullständig åtkomst:

{ "connectionString" : "DefaultEndpointsProtocol=https;AccountName=<your storage account>;AccountKey=<your account key>;" }

Du kan hämta anslutningssträngen från Azure Portal genom att gå till lagringskontobladet > Inställningar > Nycklar (för klassiska lagringskonton) eller Inställningar > åtkomstnycklar (för Azure Resource Manager-lagringskonton).

När du har angett ett namn på datakällan och en anslutningssträng väljer du "Nästa: Lägg till kognitiva färdigheter (valfritt)".

Steg 8 – Lägg till kognitiva färdigheter (valfritt)

AI-berikning är en förlängning av indexerare som kan användas för att göra ditt innehåll mer sökbart.

Du kan lägga till berikanden som ger fördelar i ditt scenario. När du är klar väljer du Nästa: Anpassa målindex.

Steg 9 – Anpassa målindex

På sidan Index bör du se en lista med fält med en datatyp och en serie kryssrutor för att ange indexattribut. Guiden kan generera en fältlista baserat på metadata och genom att sampling av källdata.

Du kan massval av attribut genom att markera kryssrutan överst i en attributkolumn. Välj Hämtningsbar och Sökbar för varje fält som ska returneras till en klientapp och som omfattas av bearbetning av fulltextsökning. Du kommer att märka att heltal inte är fulltext eller fuzzy-sökbara (tal utvärderas ordagrant och är ofta användbara i filter).

Mer information finns i beskrivningen av indexattribut och språkanalysverktyg.

Ta en stund att granska dina val. När du har kört guiden skapas fysiska datastrukturer och du kan inte redigera de flesta egenskaperna för dessa fält utan att släppa och återskapa alla objekt.

Screenshot of Create your index page.

När du är klar väljer du Nästa: Skapa en indexerare.

Steg 10 – Skapa en indexerare

Det sista steget skapar indexeraren. Om du namnger indexeraren kan den finnas som en fristående resurs, som du kan schemalägga och hantera oberoende av index- och datakällans objekt, som skapats i samma guidesekvens.

Utdata från guiden Importera data är en indexerare som crawlar datakällan och importerar de data som du har valt till ett index på Azure Cognitive Search.

När du skapar indexeraren kan du välja att köra indexeraren enligt ett schema och lägga till ändringsidentifiering. Om du vill lägga till ändringsidentifiering anger du kolumnen "högvattenmärke".

Screenshot of Create your indexer page.

När du har fyllt i den här sidan väljer du Skicka.

Princip för ändringsidentifiering av högvattenmärke

Den här principen för ändringsidentifiering förlitar sig på en kolumn med högvattenmärke som samlar in versionen eller tiden då en rad senast uppdaterades.

Krav

  • Alla infogningar anger ett värde för kolumnen.
  • Alla uppdateringar av ett objekt ändrar också värdet för kolumnen.
  • Värdet för den här kolumnen ökar med varje infogning eller uppdatering.

Kolumnnamn som inte stöds

Fältnamn i ett Azure Cognitive Search index måste uppfylla vissa krav. Ett av dessa krav är att vissa tecken som "/" inte tillåts. Om ett kolumnnamn i databasen inte uppfyller dessa krav kommer indexschemaidentifieringen inte att identifiera kolumnen som ett giltigt fältnamn och du ser inte kolumnen som ett föreslaget fält för indexet. Normalt skulle användning av fältmappningar lösa det här problemet, men fältmappningar stöds inte i portalen.

Om du vill indexera innehåll från en kolumn i tabellen som har ett fältnamn som inte stöds byter du namn på kolumnen under fasen "Transformera dina data" i importdataprocessen. Du kan till exempel byta namn på en kolumn med namnet "Faktureringskod/postnummer" till "postnummer". Genom att byta namn på kolumnen identifierar indexschemaidentifieringen den som ett giltigt fältnamn och lägger till den som ett förslag i indexdefinitionen.

Nästa steg

I den här artikeln beskrivs hur du hämtar data med hjälp av Power Query-anslutningsappar. Eftersom den här förhandsgranskningsfunktionen har upphört förklaras också hur du migrerar befintliga lösningar till ett scenario som stöds.

Mer information om indexerare finns i Indexerare i Azure Cognitive Search.