Dela via


Skapa ett sjöhus för Direct Lake

Den här artikeln beskriver hur du skapar ett sjöhus, skapar en Delta-tabell i lakehouse och sedan skapar en grundläggande semantisk modell för lakehouse i en Microsoft Fabric-arbetsyta.

Innan du börjar skapa ett lakehouse för Direct Lake bör du läsa Översikt över Direct Lake.

Skapa ett sjöhus

  1. I din Microsoft Fabric-arbetsyta väljer du Nya>fler alternativ och sedan i Datateknik väljer du Lakehouse-panelen.

    Skärmbild som visar Lakehouse-panelen i Data engineering.

  2. I dialogrutan New lakehouse (Nytt sjöhus) anger du ett namn och väljer sedan Skapa. Namnet får bara innehålla alfanumeriska tecken och understreck.

    Skärmbild som visar dialogrutan Nytt sjöhus.

  3. Kontrollera att det nya sjöhuset har skapats och öppnas.

    Skärmbild av lakehouse som skapats på arbetsytan.

Skapa en Delta-tabell i lakehouse

När du har skapat ett nytt lakehouse måste du sedan skapa minst en Delta-tabell så att Direct Lake kan komma åt vissa data. Direct Lake kan läsa parquet-formaterade filer, men för bästa prestanda är det bäst att komprimera data med hjälp av VORDER-komprimeringsmetoden. VORDER komprimerar data med power BI-motorns interna komprimeringsalgoritm. På så sätt kan motorn läsa in data i minnet så snabbt som möjligt.

Det finns flera alternativ för att läsa in data i ett lakehouse, inklusive datapipelines och skript. Följande steg använder PySpark för att lägga till en Delta-tabell i ett lakehouse baserat på en Azure Open Dataset:

  1. I det nyskapade lakehouse väljer du Öppna anteckningsbok och sedan Ny anteckningsbok.

    Skärmbild som visar det nya notebook-kommandot.

  2. Kopiera och klistra in följande kodfragment i den första kodcellen för att ge SPARK åtkomst till den öppna modellen och tryck sedan på Skift + Retur för att köra koden.

    # Azure storage access info
    blob_account_name = "azureopendatastorage"
    blob_container_name = "holidaydatacontainer"
    blob_relative_path = "Processed"
    blob_sas_token = r""
    
    # Allow SPARK to read from Blob remotely
    wasbs_path = 'wasbs://%s@%s.blob.core.windows.net/%s' % (blob_container_name, blob_account_name, blob_relative_path)
    spark.conf.set(
      'fs.azure.sas.%s.%s.blob.core.windows.net' % (blob_container_name, blob_account_name),
      blob_sas_token)
    print('Remote blob path: ' + wasbs_path)
    
    
  3. Kontrollera att koden har matat ut en fjärrblobsökväg.

    Skärmbild som visar utdata för fjärrblobsökväg.

  4. Kopiera och klistra in följande kod i nästa cell och tryck sedan på Skift + Retur.

    # Read Parquet file into a DataFrame.
    df = spark.read.parquet(wasbs_path)
    print(df.printSchema())
    
    
  5. Kontrollera att koden har matat ut DataFrame-schemat.

    Skärmbild som visar dataramschemautdata.

  6. Kopiera och klistra in följande rader i nästa cell och tryck sedan på Skift + Retur. Den första instruktionen aktiverar VORDER-komprimeringsmetoden, och nästa instruktion sparar DataFrame som en Delta-tabell i lakehouse.

    # Save as delta table 
    spark.conf.set("spark.sql.parquet.vorder.enabled", "true")
    df.write.format("delta").saveAsTable("holidays")
    
    
  7. Kontrollera att alla SPARK-jobb har slutförts. Expandera LISTAN MED SPARK-jobb om du vill visa mer information.

    Skärmbild som visar en utökad lista över SPARK-jobb.

  8. Kontrollera att en tabell har skapats genom att gå till det övre vänstra området bredvid Tabeller, välja ellipsen (...) och sedan Uppdatera och sedan expandera noden Tabeller.

    Skärmbild som visar kommandot Uppdatera nära noden Tabeller.

  9. Använd antingen samma metod som ovan eller andra metoder som stöds och lägg till fler Delta-tabeller för de data som du vill analysera.

Skapa en grundläggande Direct Lake-modell för ditt lakehouse

  1. I lakehouse väljer du Ny semantisk modell och väljer sedan tabeller som ska inkluderas i dialogrutan.

    Skärmbild av dialogrutan för att skapa en ny modell.

  2. Välj Bekräfta för att generera Direct Lake-modellen. Modellen sparas automatiskt på arbetsytan baserat på namnet på ditt lakehouse och öppnar sedan modellen.

    Skärmbild som visar öppen modell i Power BI.

  3. Välj Öppna datamodell för att öppna webbmodelleringsmiljön där du kan lägga till tabellrelationer och DAX-mått.

    Skärmbild som visar webbmodellering i Power BI.

När du är klar med att lägga till relationer och DAX-mått kan du skapa rapporter, skapa en sammansatt modell och köra frågor mot modellen via XMLA-slutpunkter på ungefär samma sätt som andra modeller.