Często zadawane pytania dotyczące rozwiązania Microsoft Copilot dla platformy Azure w usłudze Cosmos DB (wersja zapoznawcza).

Ten artykuł zawiera informacje na temat ogólnych i często zadawanych pytań dotyczących rozwiązania Microsoft Copilot dla platformy Azure w usłudze Cosmos DB.

Ogólne

Co może zrobić Copilot?

Copilot może pomóc w pisaniu zapytań NoSQL na własnych danych z łatwością i ufnością w celu zwiększenia produktywności dzięki sztucznej inteligencji opartej na języku naturalnym do generowania zapytań.

Jakie dane zostały użyte do szkolenia Copilot?

Copilot jest obsługiwany przez duże modele językowe (LLMs) w usłudze Azure OpenAI, które są wstępnie wytrenowane , a następnie skonfigurowane do generowania zapytań NoSQL usługi Azure Cosmos DB i wyjaśnień języka naturalnego.

W jaki sposób użytkownik uzyskuje jak najwięcej z Copilot?

Użytkownicy mogą jak najbardziej wykorzystać swoje środowisko, wykonując następujące czynności:

  • Wprowadź monit o sztuczną inteligencję w celu wygenerowania zapytania dla określonego kontenera usługi Azure Cosmos DB. Użytkownicy mogą wpisać monit języka naturalnego w polu Copilot i wybrać przycisk strzałki Generuj zapytanie. Następnie copilot generuje zapytanie usługi Azure Cosmos DB for NoSQL zgodne z monitem i wyświetla je w edytorze zapytań wraz z wyjaśnieniem.
  • Zmodyfikuj monit, aby był bardziej szczegółowy i ponownie wygenerował zapytanie: jeśli użytkownik nie jest zadowolony z zapytania wygenerowanego przez aplikację Copilot, może wybrać przycisk Regeneruj ponownie, aby poprosić sztuczną inteligencję o wygenerowanie innego zapytania na podstawie uściślinego monitu.
  • Wyślij opinię: użytkownicy mogą przekazać opinię zespołowi Copilot, korzystając z mechanizmu opinii dołączonego do monitu o zapytanie. Ta opinia służy do poprawy jakości wydajności odpowiedzi Copilot.

Przezroczystość

Jakie dane zbiera Copilot i jak mogą być używane?

Copilot opiera się na schemacie elementów w kontenerze usługi Azure Cosmos DB do pracy. Zbiera dane w celu zapewnienia usługi, z których część jest następnie przechowywana na potrzeby analizy, ograniczania błędów i ulepszeń produktu. Zgodnie z warunkami użytkowania w wersji zapoznawczej dane mogą być przechowywane i przetwarzane poza regionem geograficznym dzierżawy, granicą zgodności lub wystąpieniem chmury krajowej.

Zebrane dane obejmują:

  • Dane usługi: gdy używasz narzędzia Copilot w usłudze Azure Cosmos DB, zbiera informacje o użyciu dotyczące zdarzeń generowanych podczas interakcji z usługą Copilot. Te dane obejmują informacje, takie jak sygnatura czasowa, identyfikator bazy danych, identyfikator kolekcji, kod odpowiedzi HTTP, opóźnienie żądania HTTP itp. Te dane mogą być używane na potrzeby ulepszeń usługi i ograniczania błędów.
  • Rejestrowanie: jeśli wystąpi błąd w usłudze Azure Cosmos DB, rejestrujemy błąd i inne dane używane przez usługę w momencie wystąpienia błędu. Te dzienniki mogą zawierać informacje, takie jak monit wprowadzony do rozwiązania Copilot, wygenerowane zapytanie lub informacje o schemacie danych wysyłane do usługi Copilot. Te dane mogą być używane na potrzeby ulepszeń usługi i ograniczania błędów.
  • Opinia: Użytkownicy mają możliwość przekazywania opinii na temat określonego zapytania. Te dane opinii zawierają również monit przesłany do aplikacji Copilot przez użytkownika, wygenerowane zapytanie i wyjaśnienie oraz wszelkie opinie, które użytkownik chce przekazać firmie Microsoft. Te dane mogą służyć do ulepszania produktu.

W jaki sposób jest chroniony przesłany monit i wykonywanie zapytań o dane?

Copilot podejmuje kilka działań w celu ochrony danych, w tym:

  • Przesyłane dane są szyfrowane zarówno podczas przesyłania, jak i przechowywania; Dane związane z rozwiązaniem Copilot są szyfrowane podczas przesyłania przy użyciu protokołu TLS i magazynowane przy użyciu szyfrowania danych platformy Microsoft Azure (standardy publikacji FIPS 140-2).
  • Dostęp do danych dziennika i opinii jest ściśle kontrolowany. Dane są przechowywane w oddzielnej subskrypcji. Dane są dostępne tylko przez 1) Zatwierdzanie dostępu just in time przez personel operacyjny platformy Azure przy użyciu bezpiecznych stacji roboczych administratora.

Czy moje prywatne monity, zapytania lub dane będą udostępniane innym osobom?

L.p. Monity, zapytania i inne dane nie są udostępniane innym osobom.

Gdzie mogę dowiedzieć się więcej na temat prywatności i ochrony danych?

Aby uzyskać więcej informacji na temat sposobu przetwarzania i korzystania z danych osobowych przez copilot, zobacz Zasady zachowania poufności informacji firmy Microsoft.

Warunki i ograniczenia

Gdzie można znaleźć terminy wersji zapoznawczej dotyczące korzystania z wersji zapoznawczych opartych na usłudze Azure OpenAI, takich jak Copilot?

Aby uzyskać więcej informacji, zobacz nasze warunki wersji zapoznawczej.

Jakie jest przeznaczenie Copilot?

Zapytania usługi Azure Cosmos DB for NoSQL można wygenerować na podstawie własnych pytań w języku naturalnym i monitów w Eksploratorze danych usługi Azure Cosmos DB. Każde wygenerowane dane wyjściowe zawiera również naturalny (angielski) opis operacji zapytań. W publicznej wersji zapoznawczej wydajność i dokładność mogą być ograniczone. Ludzie powinni przejrzeć i zweryfikować wszystkie zapytania wygenerowane przez Copilot przed użyciem.

Jak oceniono Copilot? Jakie metryki są używane do oceny wydajności?

Funkcja Copilot jest oceniana przy użyciu danych testowych i monitów dotyczących kilku metryk, w tym:

  • Ważność: wygenerowane zapytanie jest prawidłowym zapytaniem usługi Azure Cosmos DB for NoSQL, które można wykonać w wybranym kontenerze.
  • Poprawność: wygenerowane zapytanie to zapytanie, które będzie oczekiwane w odpowiedzi na monit użytkownika.
  • Dokładność: Wygenerowane zapytanie zwraca wyniki, które są istotne dla monitu użytkownika i oczekiwane.

Jakie są ograniczenia Copilota?

Copilot to funkcja, która pomaga użytkownikom pisać zapytania NoSQL dla usługi Azure Cosmos DB, udostępniając sugestie oparte na danych wejściowych języka naturalnego. Jednak ma pewne ograniczenia, o których użytkownicy powinni wiedzieć i starać się zminimalizować. Niektóre ograniczenia obejmują:

  • Limity szybkości: Copilot ogranicza liczbę zapytań, które użytkownik może wykonać. Jeśli użytkownik przekroczy pięć wywołań na minutę lub osiem godzin całkowitego użycia dziennie, może otrzymać komunikat o błędzie. Następnie użytkownik będzie musiał poczekać do następnego okna, aby ponownie użyć copilot.
  • Ograniczona dokładność: Copilot jest w publicznej wersji zapoznawczej, co oznacza, że wydajność i dokładność mogą być ograniczone. Ludzie powinni przejrzeć i zweryfikować wszystkie zapytania wygenerowane przez Copilot przed użyciem.
  • Wygenerowane zapytania mogą nie być dokładne i dostarczyć wyniki, które użytkownik zamierza otrzymywać. Copilot nie jest idealnym systemem i czasami może generować zapytania, które są nieprawidłowe, niekompletne lub nieistotne. Te błędne zapytania mogą wystąpić z następujących powodów:
    • Niejednoznaczność w wierszu polecenia języka naturalnego
    • Ograniczenia podstawowego przetwarzania języka naturalnego
    • ograniczenia modeli generowania zapytań bazowych
    • Inne problemy.
  • Użytkownicy powinni zawsze przeglądać zapytania generowane przez copilot i sprawdzić, czy spełniają swoje oczekiwania i wymagania. Użytkownicy powinni również przekazać opinię zespołowi Copilot, jeśli napotkają jakiekolwiek błędy lub problemy z zapytaniami. Użytkownicy mogą przesyłać opinie bezpośrednio za pośrednictwem mechanizmu opinii interfejsu Copilot.
  • Obsługa tylko języka angielskiego: Copilot oficjalnie obsługuje język angielski jako język wejściowy i wyjściowy. Użytkownicy, którzy chcą używać narzędzia Copilot w innych językach, mogą doświadczyć obniżonej jakości i dokładności wyników.

Czy Copilot pisze idealne lub optymalne zapytania?

Copilot ma na celu zapewnienie dokładnych i informacyjnych odpowiedzi na podstawie dostępnych danych. Odpowiedzi generowane przez Copilot są oparte na wzorcach i prawdopodobieństwach w danych językowych, co oznacza, że mogą nie zawsze być dokładne. Ludzie powinni dokładnie przejrzeć, przetestować i zweryfikować całą zawartość wygenerowaną przez Copilot.

Aby ograniczyć ryzyko udostępniania nieoczekiwanej obraźliwej zawartości w wynikach i wyświetlania potencjalnie szkodliwych artykułów, Copilot ma kilka środków. Pomimo tych miar nadal można napotkać nieoczekiwane wyniki. Nieustannie pracujemy nad ulepszaniem naszej technologii w celu proaktywnego rozwiązywania problemów zgodnie z naszymi zasadami odpowiedzialnej sztucznej inteligencji

Co zrobić, jeśli widzę nieoczekiwane lub obraźliwe dane wyjściowe?

Copilot korzysta z niestandardowych filtrów zawartości usługi Azure OpenAI, aby blokować obraźliwy język w monitach i unikać synchronizowania sugestii w kontekstach poufnych. Jest to funkcja, która ułatwia użytkownikom pisanie zapytań NoSQL dla usługi Azure Cosmos DB i przestrzeganie naszych zasad dotyczących odpowiedzialnej sztucznej inteligencji.