Bewerken

Delen via


Veelgestelde vragen over Microsoft Copilot voor Azure in Cosmos DB (preview).

Dit artikel bevat informatie over algemene en transparantie veelgestelde vragen over Microsoft Copilot voor Azure in Cosmos DB.

Algemeen

Wat kan Copilot doen?

Copilot kan u helpen bij het schrijven van NoSQL-query's op uw eigen gegevens met gemak en vertrouwen om uw productiviteit te verhogen via AI die natuurlijke taal mogelijk heeft gemaakt om query's te genereren.

Welke gegevens zijn gebruikt om de Copilot te trainen?

Copilot wordt mogelijk gemaakt door LLM's (Large Language Models) in Azure OpenAI die vooraf zijn getraind en vervolgens zijn geconfigureerd om Azure Cosmos DB NoSQL-query's en uitleg in natuurlijke taal te genereren.

Hoe haalt een gebruiker het meeste uit Copilot?

Gebruikers kunnen optimaal gebruikmaken van hun ervaring door de volgende stappen uit te voeren:

  • Voer een prompt in voor AI om een query te genereren voor een specifieke Azure Cosmos DB-container. Gebruikers kunnen in het vak Copilot een prompt voor natuurlijke taal typen en de knop Query genereren selecteren. Copilot genereert vervolgens een Azure Cosmos DB for NoSQL-query die overeenkomt met de prompt en geeft deze weer in de query-editor, samen met een uitleg.
  • Wijzig de prompt om specifieker te zijn en de query opnieuw te genereren: als de gebruiker niet tevreden is met de query die is gegenereerd door Copilot, kunnen ze de knop Opnieuw genereren selecteren om de AI te vragen een andere query te genereren op basis van de verfijnde prompt.
  • Feedback verzenden: gebruikers kunnen feedback geven aan het Copilot-team met behulp van het feedbackmechanisme dat is opgenomen in de queryprompt. Deze feedback wordt gebruikt om de prestatiekwaliteit van Copilot-antwoorden te verbeteren.

Transparency

Welke gegevens verzamelt Copilot en hoe kan deze worden gebruikt?

Copilot is afhankelijk van het schema van items in uw Azure Cosmos DB-container om te werken. Het verzamelt gegevens om de service te leveren, waarvan sommige vervolgens worden bewaard voor analyse, foutbeperking en productverbeteringen. Volgens de preview-gebruiksvoorwaarden kunnen uw gegevens worden opgeslagen en verwerkt buiten de geografische regio van uw tenant, de nalevingsgrens of het nationale cloudexemplaren.

Verzamelde gegevens omvatten:

  • Servicegegevens: Wanneer u Copilot gebruikt in Azure Cosmos DB, worden gebruiksgegevens verzameld over gebeurtenissen die worden gegenereerd bij interactie met de Copilot-service. Deze gegevens bevatten informatie zoals een tijdstempel, database-id, verzamelings-id, HTTP-antwoordcode, latentie van HTTP-aanvragen, enzovoort. Deze gegevens kunnen worden gebruikt voor serviceverbeteringen en foutbeperking.
  • Logboekregistratie: Als er een fout optreedt in de Azure Cosmos DB-service, registreren we de fout en andere gegevens die door de service worden gebruikt op het moment van de fout. Deze logboeken bevatten mogelijk informatie zoals de prompt die u hebt ingevoerd bij Copilot, de gegenereerde query of de informatie over uw gegevensschema dat naar de Copilot-service wordt verzonden. Deze gegevens kunnen worden gebruikt voor serviceverbeteringen en foutbeperking.
  • Feedback: Gebruikers kunnen feedback geven over een specifieke query. Deze feedbackgegevens bevatten ook de prompt die is ingediend bij Copilot door de gebruiker, de gegenereerde query en uitleg en eventuele feedback die de gebruiker aan Microsoft wil verstrekken. Deze gegevens kunnen worden gebruikt om het product te verbeteren.

Hoe wordt de verzonden prompt en query op gegevens beveiligd?

Copilot neemt verschillende maatregelen om gegevens te beveiligen, waaronder:

  • De verzonden gegevens worden zowel in transit als in rust versleuteld; Copilot-gerelateerde gegevens worden tijdens overdracht versleuteld met behulp van TLS en at-rest met behulp van de gegevensversleuteling van Microsoft Azure (FIPS-publicatie 140-2-standaarden).
  • Toegang tot logboek- en feedbackgegevens wordt strikt gecontroleerd. De gegevens worden opgeslagen in een afzonderlijk abonnement. De gegevens zijn alleen toegankelijk door 1) Just-In-Time JIT-goedkeuring van Azure Operations-personeel met behulp van beveiligde beheerwerkstations.

Worden mijn privéprompts, query's of gegevens gedeeld met anderen?

Nee Prompts, query's en andere gegevens worden niet met anderen gedeeld.

Waar vind ik meer informatie over privacy en gegevensbescherming?

Zie de Privacyverklaring van Microsoft voor meer informatie over hoe Copilot persoonlijke gegevens verwerkt en gebruikt.

Voorwaarden en beperkingen

Waar vind ik de preview-voorwaarden voor het gebruik van door Azure OpenAI gemaakte previews, zoals Copilot?

Zie onze preview-voorwaarden voor meer informatie.

Wat is het beoogde gebruik van Copilot?

U kunt Azure Cosmos DB for NoSQL-query's genereren op basis van uw eigen vragen en vragen in natuurlijke taal in Azure Cosmos DB Data Explorer. Elke gegenereerde uitvoer bevat ook een natuurlijke (Engelse) taalbeschrijving van de querybewerkingen. In openbare preview kunnen de prestaties en nauwkeurigheid beperkt zijn. Mensen moeten alle query's die door Copilot worden gegenereerd, controleren en valideren voordat ze worden gebruikt.

Hoe is Copilot geëvalueerd? Welke statistieken worden gebruikt om de prestaties te meten?

Copilot wordt geëvalueerd met testgegevens en prompts voor verschillende metrische gegevens, waaronder:

  • Geldigheid: de gegenereerde query is een geldige Azure Cosmos DB voor NoSQL-query die kan worden uitgevoerd op de geselecteerde container.
  • Juistheid: de gegenereerde query is een query die wordt verwacht als reactie op de prompt van de gebruiker.
  • Nauwkeurigheid: De gegenereerde query retourneert de resultaten die relevant zijn voor en verwacht voor de prompt van de gebruiker.

Wat zijn de beperkingen van Copilot?

Copilot is een functie waarmee gebruikers NoSQL-query's voor Azure Cosmos DB kunnen schrijven door suggesties te geven op basis van invoer in natuurlijke taal. Het heeft echter enkele beperkingen waar gebruikers rekening mee moeten houden en proberen te minimaliseren. Enkele van de beperkingen zijn:

  • Frequentielimieten: Copilot beperkt het aantal query's dat een gebruiker kan uitvoeren. Als een gebruiker meer dan vijf oproepen per minuut overschrijdt of acht uur aan totaal gebruik per dag, kan er een foutbericht worden weergegeven. De gebruiker moet vervolgens wachten tot de volgende keer dat copilot opnieuw wordt gebruikt.
  • Beperkte nauwkeurigheid: Copilot is in openbare preview, wat betekent dat de prestaties en nauwkeurigheid mogelijk beperkt zijn. Mensen moeten alle query's die door Copilot worden gegenereerd, controleren en valideren voordat ze worden gebruikt.
  • De gegenereerde query's zijn mogelijk niet nauwkeurig en bieden de resultaten die de gebruiker wilde ontvangen. Copilot is geen perfect systeem en kan soms query's genereren die onjuist, onvolledig of irrelevant zijn. Deze foutieve query's kunnen optreden vanwege:
    • Dubbelzinnigheid in de prompt voor natuurlijke taal
    • Beperkingen van de onderliggende verwerking van natuurlijke taal
    • beperkingen van de onderliggende modellen voor het genereren van query's
    • Andere problemen.
  • Gebruikers moeten altijd de query's controleren die door Copilot worden gegenereerd en controleren of ze aan hun verwachtingen en vereisten voldoen. Gebruikers moeten ook feedback geven aan het Copilot-team als ze fouten of problemen met de query's ondervinden. Gebruikers kunnen rechtstreeks feedback verzenden via het feedbackmechanisme van de Copilot-interface.
  • Ondersteuning voor alleen-Engels: Copilot ondersteunt officieel Engels als invoer- en uitvoertaal. Gebruikers die Copilot in andere talen willen gebruiken, kunnen een verminderde kwaliteit en nauwkeurigheid van de resultaten ervaren.

Schrijft Copilot perfecte of optimale query's?

Copilot streeft ernaar nauwkeurige en informatieve antwoorden te bieden op basis van de beschikbare gegevens. De antwoorden die door Copilot worden gegenereerd, zijn gebaseerd op patronen en waarschijnlijkheden in taalgegevens, wat betekent dat ze mogelijk niet altijd nauwkeurig zijn. Mensen moeten alle inhoud die door Copilot wordt gegenereerd zorgvuldig controleren, testen en valideren.

Copilot heeft verschillende maatregelen om het risico op het delen van onverwachte aanstootgevende inhoud in resultaten te beperken en mogelijk schadelijke artikelen weer te geven. Ondanks deze maatregelen kunt u nog steeds onverwachte resultaten tegenkomen. We werken voortdurend aan het verbeteren van onze technologie om proactief problemen op te lossen in overeenstemming met onze verantwoorde AI-principes

Wat moet ik doen als ik onverwachte of aanstootgevende uitvoer zie?

Copilot maakt gebruik van aangepaste inhoudsfilters van Azure OpenAI om aanstootgevende taal in de prompts te blokkeren en suggesties in gevoelige contexten te voorkomen. Het is een functie waarmee gebruikers NoSQL-query's kunnen schrijven voor Azure Cosmos DB en onze principes voor verantwoorde AI kunnen handhaven.