Share via


Integratiepaden voor Microsoft Fabric voor ISV's

Microsoft Fabric biedt drie verschillende trajecten voor ISV's om naadloos te integreren met Fabric. Voor een ISV die op deze reis begint, willen we verschillende resources doorlopen die we beschikbaar hebben op elk van deze trajecten.

Afbeelding van de drie trajecten die moeten worden geïntegreerd met Fabric: Interop, Apps ontwikkelen en Een infrastructuurworkload bouwen.

Interoperabiliteit met Infrastructuur

De primaire focus met het Interop-model is het inschakelen van ISV's om hun oplossingen te integreren met de OneLake Foundation. Voor interop met Microsoft Fabric bieden we integratie met BEHULP van REST API's voor OneLake, een groot aantal connectors in Data Factory, snelkoppelingen in OneLake en databasespiegeling.

Afbeelding van vier manieren om met OneLake te samenwerken: API's, Fabric Data Factory, snelkoppelingen met meerdere clouds en databasespiegeling.

Hier volgen een aantal manieren om aan de slag te gaan met dit model:

OneLake-API's

  • OneLake ondersteunt bestaande API's van Azure Data Lake Storage (ADLS) Gen2 voor directe interactie, zodat ontwikkelaars hun gegevens in OneLake kunnen lezen, schrijven en beheren. Meer informatie over ADLS Gen2 REST API's en hoe u verbinding maakt met OneLake.
  • Omdat niet alle functionaliteit in ADLS Gen2 rechtstreeks aan OneLake wordt toegewezen, dwingt OneLake ook een set mapstructuur af om Infrastructuurwerkruimten en -items te ondersteunen. Voor een volledige lijst met verschillende gedragingen tussen OneLake en ADLS Gen2 bij het aanroepen van deze API's, raadpleegt u de pariteit van OneLake-API.
  • Als u Databricks gebruikt en verbinding wilt maken met Microsoft Fabric, werkt Databricks met ADLS Gen2-API's. Integreer OneLake met Azure Databricks.
  • Om optimaal te profiteren van wat de Delta Lake-opslagindeling voor u kan doen, bekijkt en begrijpt u de indeling, tabeloptimalisatie en V-Order. Optimalisatie van Delta Lake-tabellen en V-Order.
  • Zodra de gegevens zich in OneLake hebben opgeslagen, verkent u lokaal met OneLake Bestandenverkenner. OneLake-bestandsverkenner integreert OneLake naadloos met Windows Bestandenverkenner. Met deze toepassing worden automatisch alle OneLake-items gesynchroniseerd waartoe u toegang hebt in Windows Bestandenverkenner. U kunt ook elk ander hulpprogramma gebruiken dat compatibel is met ADLS Gen2, zoals Azure Storage Explorer.

Diagram waarin wordt getoond hoe OneLake-API's communiceren met Fabric-workloads.

Realtime Intelligence-API's

Realtime intelligence stroomlijnt gegevensanalyse en -visualisatie en biedt een gecentraliseerde oplossing voor onmiddellijke inzichten en acties op gegevens die in beweging zijn binnen een organisatie. Het beheert efficiënt grote hoeveelheden gegevens via robuuste query-, transformatie- en opslagmogelijkheden.

  • Event houses zijn speciaal ontworpen voor het streamen van gegevens, compatibel met Realtime Hub en ideaal voor gebeurtenissen op basis van tijd. Gegevens worden automatisch geïndexeerd en gepartitioneerd op basis van opnametijd, waardoor u ongelooflijk snel en complexe analysemogelijkheden voor query's kunt uitvoeren op gegevens met hoge granulariteit die kunnen worden geopend in OneLake voor gebruik in de suite met ervaringen van Fabric. Event houses ondersteunen bestaande Event House-API's en SDK's voor directe interactie, zodat ontwikkelaars hun gegevens in Event Houses kunnen lezen, schrijven en beheren. Meer informatie over REST API.
  • Met gebeurtenisstromen kunt u realtime gebeurtenissen uit verschillende bronnen overbrengen en deze routeren naar verschillende bestemmingen, zoals OneLake, KQL-databases in gebeurtenishuizen en Data Activator. Meer informatie over gebeurtenisstromen en gebeurtenisstromen-API.
  • Als u Databricks of Jupyter Notebooks gebruikt, kunt u de Kusto Python-clientbibliotheek gebruiken om te werken met KQL-databases in Fabric. Meer informatie over Kusto Python SDK.
  • U kunt de bestaande Microsoft Logic Apps-, Azure Data Factory- of Microsoft Power Automate-connectors gebruiken om te communiceren met uw Event Houses of KQL-databases.
  • Databasesnelkoppelingen in Realtime Analytics zijn ingesloten verwijzingen binnen een gebeurtenishuis naar een brondatabase. De brondatabase kan een KQL-database zijn in realtime analytics of een Azure Data Explorer-database. Snelkoppelingen kunnen worden gebruikt voor het inplacen van het delen van gegevens binnen dezelfde tenant of voor meerdere tenants. Meer informatie over het beheren van databasesnelkoppelingen met behulp van de API.

Diagram waarin wordt getoond hoe realtime intelligence-API's communiceren met Fabric-workloads.

Data Factory in Fabric

  • Data Pipelines bieden een uitgebreide set connectors, waardoor ISV's moeiteloos verbinding kunnen maken met een groot aantal gegevensarchieven. Of u nu traditionele databases of moderne cloudoplossingen gebruikt, onze connectors zorgen voor een soepel integratieproces. Verbinding maken of overzicht.
  • Met onze ondersteunde Dataflow Gen2-connectors kunnen ISV's de kracht van Fabric Data Factory benutten om complexe gegevenswerkstromen te beheren. Deze functie is vooral nuttig voor ISV's die gegevensverwerkings- en transformatietaken willen stroomlijnen. Gegevensstroom Gen2-connectors in Microsoft Fabric.
  • Bekijk deze Data Factory in Fabric-blog voor een volledige lijst met mogelijkheden die worden ondersteund door Data Factory in Fabric.

Schermopname van de Fabric Data Factory-interface.

Snelkoppelingen voor meerdere clouds

Met snelkoppelingen in Microsoft OneLake kunt u uw gegevens samenvoegen tussen domeinen, clouds en accounts door één virtuele data lake voor uw hele onderneming te maken. Alle Fabric-ervaringen en analytische engines kunnen rechtstreeks verwijzen naar uw bestaande gegevensbronnen, zoals OneLake in een andere tenant, Azure Data Lake Storage (ADLS) Gen2, Amazon S3-opslagaccounts en Dataverse via een geïntegreerde naamruimte. OneLake presenteert ISV's met een transformatieve oplossing voor gegevenstoegang, waarbij integratie naadloos wordt overbrugd tussen verschillende domeinen en cloudplatforms.

Diagram met snelkoppelingen met meerdere clouds in OneLake.

Databasespiegeling

U hebt de snelkoppelingen gezien, nu vraagt u zich af wat de integratiemogelijkheden zijn met externe databases en magazijnen. Spiegeling biedt een moderne manier om continu en naadloos toegang te krijgen tot en gegevens op te nemen vanuit elke database of datawarehouse in de datawarehousingervaring in Microsoft Fabric. Mirror is allemaal in bijna realtime, waardoor gebruikers direct toegang hebben tot wijzigingen in de bron. Meer informatie over spiegeling en de ondersteunde databases vindt u in Introducing Mirroring in Microsoft Fabric.

Diagram van databasespiegeling.

Ontwikkelen op infrastructuur

Diagram waarin wordt getoond hoe u apps bouwt in Fabric.

Met de ISV's ontwikkelen op fabric-modellen kunnen hun producten en services op fabric bouwen of de functionaliteiten van Fabric naadloos insluiten binnen hun bestaande toepassingen. Het is een overgang van basisintegratie tot het actief toepassen van de mogelijkheden die Fabric biedt. Het belangrijkste integratieoppervlak is via REST API's voor verschillende Fabric-workloads. Hier volgt een lijst met REST API's die momenteel beschikbaar zijn.

Werkplek

API Beschrijving
CRUD-API's voor werkruimte- en werkruimterolbeheer Werkruimte maken, Werkruimtegegevens ophalen, Werkruimte verwijderen, Werkruimte toewijzen aan een capaciteit, een werkruimteroltoewijzing toevoegen.

OneLake

API Beschrijving
Snelkoppeling maken Hiermee maakt u een nieuwe snelkoppeling.
Snelkoppeling verwijderen Hiermee verwijdert u de snelkoppeling, maar verwijdert u de doelopslagmap niet.
Snelkoppeling ophalen Retourneert snelkoppelingseigenschappen.
ADLS Gen2-API's ADLS Gen2-API's voor het maken en beheren van bestandssystemen, mappen en pad.

Realtime intelligence

Artikel API Beschrijving
Event House Gebeurtenishuis maken Hiermee maakt u een gebeurtenishuis.
Gebeurtenishuis verwijderen Hiermee verwijdert u een bestaand gebeurtenishuis.
Gebeurtenishuis ophalen Metagegevens ophalen over een gebeurtenishuis.
Gebeurtenishuis vermelden Lijst met gebeurtenisruimten in uw werkruimte.
Gebeurtenishuis bijwerken Een bestaand gebeurtenishuis bijwerken.
KQL-database KQL-database maken Hiermee maakt u een KQL-database of KQL Database-snelkoppelingen.
KQL-database verwijderen Hiermee verwijdert u een bestaande KQL-database of KQL Database-snelkoppelingen.
KQL-database ophalen Metagegevens ophalen over een KQL-database of KQL Database-snelkoppelingen.
KQL-database weergeven Maak een lijst met KQL-databases in uw werkruimte of KQL Database-snelkoppelingen.
KQL-database bijwerken Werk een bestaande KQL-database of KQL Database-snelkoppelingen bij.
KQL-queryset KQL-queryset maken Hiermee maakt u een KQL-queryset of KQL Database-snelkoppelingen.
KQL-queryset verwijderen Hiermee verwijdert u een bestaande KQL-queryset.
KQL-queryset ophalen Metagegevens ophalen over een KQL-queryset.
KQL-queryset weergeven KQL-querysets weergeven in uw werkruimte.
KQL-queryset bijwerken Een bestaande KQL-queryset bijwerken.
Gebeurtenisstroom Gebeurtenisstroom maken Hiermee maakt u een gebeurtenisstroom.
Gebeurtenisstroom verwijderen Hiermee verwijdert u een bestaande gebeurtenisstroom.
Gebeurtenisstroom ophalen Metagegevens ophalen over een gebeurtenisstroom.
Gebeurtenisstroom vermelden Gebeurtenisstromen weergeven in uw werkruimte.
Gebeurtenisstroom bijwerken Een bestaande gebeurtenisstroom bijwerken.

Fabric Data Factory

API Beschrijving
Binnenkort beschikbaar

Datawarehouse

API Beschrijving
Magazijn maken Hiermee maakt u een datawarehouse.
Magazijn ophalen Metagegevens ophalen over magazijn.
Warehouse bijwerken Een bestaand magazijn bijwerken.
Magazijn verwijderen Een bestaand magazijn verwijderen.
Lijstwarehouse Maak een lijst met magazijnen in uw werkruimte.

Data engineer

API Beschrijving
Lakehouse maken Hiermee maakt u Lakehouse samen met het SQL-analyse-eindpunt.
Lakehouse bijwerken Hiermee werkt u de naam van een lakehouse en het SQL Analytics-eindpunt bij.
Lakehouse verwijderen Hiermee verwijdert u Lakehouse en het bijbehorende SQL-analyse-eindpunt.
Eigenschappen ophalen Hiermee haalt u de eigenschappen van een lakehouse en het SQL-analyse-eindpunt op.
Tabellen weergeven Lijst met tabellen in het lakehouse.
Tabel laden Hiermee maakt u deltatabellen op basis van CSV- en Parquet-bestanden en -mappen.

Deze sectie wordt bijgewerkt naarmate er meer Fabric-API's beschikbaar komen.

Een infrastructuurworkload bouwen

Diagram waarin wordt getoond hoe u uw eigen infrastructuurworkload maakt.

Het bouwen van een Fabric Workload-model is ontworpen om ISV's uit te rusten met de hulpprogramma's en platformmogelijkheden die nodig zijn om aangepaste workloads en ervaringen op Fabric te maken. Hiermee kunnen ISV's hun aanbod aanpassen om hun waardepropositie te leveren terwijl ze gebruikmaken van het Fabric-ecosysteem door het beste van beide werelden te combineren. We werken nauw samen met geselecteerde ontwerppartners voor dit integratiepad en het is momenteel alleen beschikbaar via uitnodiging.