Domande frequenti sul Servizio OpenAI di Azure

Se non è possibile trovare le risposte alle domande in questo documento e occorre comunque assistenza, consultare la Guida alle opzioni di supporto per i Servizi di Azure AI. Azure OpenAI fa parte dei Servizi di Azure AI.

Dati e privacy

Utilizzate i dati della mia azienda per il training di qualche modello?

Azure OpenAI non usa i dati dei clienti per ripetere il training dei modelli. Per altre informazioni, vedere la Guida ai dati, alla privacy e alla sicurezza di Azure OpenAI.

Generali

Azure OpenAI funziona con la libreria Python più recente rilasciata da OpenAI (versione>=1.0)?

Azure OpenAI è supportato dalla versione più recente della libreria Python OpenAI (versione>=1.0). È tuttavia importante notare che la migrazione della codebase con openai migrate non è supportata e non funziona con il codice destinato ad Azure OpenAI.

Non riesco a trovare GPT-4 Turbo Preview, dov'è?

GPT-4 Turbo Preview è il gpt-4 modello (anteprima 1106). Per distribuire questo modello, in Distribuzioni selezionare il modello gpt-4. Per Versione modello selezionare 1106-preview. Per verificare le aree disponibili per questo modello, vedere la pagina dei modelli.

Azure OpenAI supporta GPT-4?

Azure OpenAI supporta i modelli GPT-4 più recenti. Supporta sia GPT-4 che GPT-4-32K.

Come sono le funzionalità di Azure OpenAI rispetto a quelle di OpenAI?

Il Servizio OpenAI di Azure offre ai clienti un'intelligenza artificiale linguistica avanzata con i modelli OpenAI GPT-3, Codex e DALL-E con la sicurezza e l'impegno aziendale di Azure. Azure OpenAI sviluppa le API con OpenAI, garantendo la compatibilità e una transizione uniforme dall'uno all'altro.

Con OpenAI di Azure i clienti accedono alle funzionalità di sicurezza di Microsoft Azure eseguendo gli stessi modelli di OpenAI.

Azure OpenAI supporta le reti virtuali e gli endpoint privati?

Sì, come parte dei servizi di intelligenza artificiale di Azure, Azure OpenAI supporta le reti virtuali e gli endpoint privati. Per altre informazioni, vedere il materiale sussidiario sulle reti virtuali dei servizi di intelligenza artificiale di Azure.

I modelli GPT-4 supportano attualmente l'input dell'immagine?

No, GPT-4 è stato progettato da OpenAI per essere multimodale, ma attualmente sono supportati solo l'input e l'output di testo.

Come si fa a richiedere nuovi casi d'uso?

In precedenza, il processo di aggiunta di nuovi casi d'uso richiedeva ai clienti di iscriversi nuovamente al servizio. Verrà ora rilasciato un nuovo processo che consente di aggiungere rapidamente nuovi casi d'uso all'uso del servizio. Questo processo segue il processo di accesso limitato stabilito nei servizi di intelligenza artificiale di Azure. I clienti esistenti possono confermare qui tutti i nuovi casi d'uso. Si noti che questa operazione è necessaria ogni volta che si vuole usare il servizio per un nuovo caso d'uso per cui non si è originariamente richiesto.

Si sta provando a usare incorporamenti e viene visualizzato l'errore "InvalidRequestError: troppi input. Il numero massimo di input è 16". Come lo risolvo?

Questo errore si verifica in genere quando si tenta di inviare un batch di testo da incorporare in una singola richiesta API come matrice. Attualmente Azure OpenAI supporta solo matrici di incorporamenti con più input per il text-embedding-ada-002 modello versione 2. Questa versione del modello supporta una matrice costituita da un massimo di 16 input per ogni richiesta API. La matrice può avere una lunghezza massima di 8.191 token quando si usa il modello text-embedding-ada-002 (versione 2).

Dove è possibile trovare le informazioni su modi migliori per usare Azure OpenAI e ottenere le risposte desiderate dal servizio?

Vedere l'introduzione all'ingegneria dei prompt. Anche se questi modelli sono potenti, il loro comportamento è anche molto sensibile alle richieste ricevute dall'utente. Ciò rende la creazione di un prompt una competenza importante da sviluppare. Dopo aver completato l'introduzione, vedere l'articolo sulle tecniche avanzate di progettazione dei prompt.

All'account guest è stato concesso l'accesso a una risorsa OpenAI di Azure, ma non è possibile accedere a tale risorsa in Azure OpenAI Studio. Ricerca per categorie abilitare l'accesso?

Questo comportamento è previsto quando si usa l'esperienza di accesso predefinita per Azure OpenAI Studio.

Per accedere ad Azure OpenAI Studio da un account guest a cui è stato concesso l'accesso a una risorsa OpenAI di Azure:

  1. Aprire una sessione del browser privato e quindi passare a https://oai.azure.com.
  2. Invece di immettere immediatamente le credenziali dell'account guest, selezionare Sign-in options
  3. Selezionare ora Accedi a un'organizzazione
  4. Immettere il nome di dominio dell'organizzazione che ha concesso all'account guest l'accesso alla risorsa OpenAI di Azure.
  5. Accedere ora con le credenziali dell'account guest.

A questo momento dovrebbe essere possibile accedere alla risorsa tramite Azure OpenAI Studio.

In alternativa, se si è connessi al portale di Azure dal riquadro Panoramica della risorsa OpenAI di Azure, è possibile selezionare Vai ad Azure OpenAI Studio per accedere automaticamente con il contesto aziendale appropriato.

Quando chiedo a GPT-4 quale modello è in esecuzione, mi dice che è in esecuzione GPT-3. Perché succede questo?

I modelli OpenAI di Azure (incluso GPT-4) non riescono a identificare correttamente il comportamento previsto del modello in esecuzione.

Perché si verifica questo problema?

In definitiva, il modello esegue la stima del token successiva in risposta alla domanda. Il modello non ha alcuna possibilità nativa di eseguire query sulla versione del modello attualmente in esecuzione per rispondere alla domanda. Per rispondere a questa domanda, è sempre possibile passare a Distribuzioni> di gestione>di Azure OpenAI Studio>e consultare la colonna del nome del modello per verificare quale modello è attualmente associato a un determinato nome di distribuzione.

Le domande "Quale modello è in esecuzione?" o "Qual è il modello più recente di OpenAI?" producono risultati di qualità simili per chiedere al modello quale sarà il meteo oggi. Potrebbe restituire il risultato corretto, ma puramente per caso. In modo autonomo, il modello non dispone di informazioni reali diverse da quelle che fanno parte dei dati di training/training. Nel caso di GPT-4, a partire da agosto 2023 i dati di training sottostanti vanno solo fino a settembre 2021. GPT-4 non è stato rilasciato fino a marzo 2023, quindi è previsto che OpenAI rilasci una nuova versione con dati di training aggiornati o una nuova versione ottimizzata per rispondere a tali domande specifiche, è previsto il comportamento per GPT-4 per rispondere che GPT-3 è la versione più recente del modello da OpenAI.

Se si vuole aiutare un modello basato su GPT a rispondere in modo accurato alla domanda "quale modello si sta eseguendo?", è necessario fornire tali informazioni al modello tramite tecniche come la progettazione richiesta del messaggio di sistema del modello, la generazione aumentata di recupero (RAG) che è la tecnica usata da Azure OpenAI sui dati in cui le informazioni aggiornate vengono inserite nel messaggio di sistema in fase di query, o tramite l'ottimizzazione , in cui è possibile ottimizzare versioni specifiche del modello per rispondere a tale domanda in un certo modo in base alla versione del modello.

Per altre informazioni sul training dei modelli GPT e sul lavoro, è consigliabile guardare il discorso di Andrej Karpatia dalla Build 2023 sullo stato di GPT.

Ho chiesto al modello quando la conoscenza è terminata e mi ha dato una risposta diversa da quella presente nella pagina del modello OpenAI di Azure. Perché succede questo?

Si tratta di un comportamento previsto. I modelli non sono in grado di rispondere a domande su se stessi. Se si vuole sapere quando si trova il cutoff delle conoscenze per i dati di training del modello, consultare la pagina dei modelli.

Ho chiesto al modello una domanda su qualcosa che è successo di recente prima del cutoff delle conoscenze e ha ottenuto la risposta sbagliata. Perché succede questo?

Si tratta di un comportamento previsto. Per prima cosa non esiste alcuna garanzia che ogni evento recente faccia parte dei dati di training del modello. E anche quando le informazioni fanno parte dei dati di training, senza usare tecniche aggiuntive come La generazione aumentata di recupero (RAG) per aiutare le risposte del modello a verificarsi sempre una possibilità di risposte non in primo piano. Sia Azure OpenAI usano la funzionalità dei dati che Bing Chat usano i modelli OpenAI di Azure combinati con la generazione aumentata di recupero per consentire ulteriori risposte al modello di base.

La frequenza con cui una determinata informazione è apparsa nei dati di training può influire anche sulla probabilità che il modello risponda in un determinato modo.

La domanda al modello GPT-4 Turbo Preview più recente su qualcosa che è cambiato più di recente come "Chi è il primo ministro della Nuova Zelanda?", è probabile che venga generata la risposta Jacinda Arderncreata. Tuttavia, chiedendo al modello "Quando è stato Jacinda Ardern fatto un passo indietro come primo ministro?" Tende a produrre una risposta accurata che dimostra le conoscenze dei dati di training che andranno almeno a gennaio 2023.

Pertanto, anche se è possibile eseguire il probe del modello con domande per indovinare il cutoff delle informazioni sui dati di training, la pagina del modello è la posizione migliore per controllare il cutoff delle conoscenze di un modello.

Dove si accede alle informazioni sui prezzi per i modelli legacy, che non sono più disponibili per le nuove distribuzioni?

Le informazioni sui prezzi legacy sono disponibili tramite un file PDF scaricabile. Per tutti gli altri modelli, consultare la pagina ufficiale dei prezzi.

Ricerca per categorie correzione internalServerError - 500 - Impossibile creare il completamento perché l'output Unicode generato dal modello non è valido?

È possibile ridurre al minimo l'occorrenza di questi errori riducendo la temperatura dei prompt a meno di 1 e assicurandosi di usare un client con logica di ripetizione dei tentativi. La ripetizione della richiesta comporta spesso una risposta con esito positivo.

Sono stati notati addebiti associati alle chiamate API che non sono stati completati con il codice di stato 400. Perché le chiamate API non riuscite generano un addebito?

Se il servizio esegue l'elaborazione, verrà addebitato anche se il codice di stato non riesce (non 200). Esempi comuni di questo tipo sono, un errore 400 a causa di un filtro di contenuto o di un limite di input o di un errore 408 a causa di un timeout. Gli addebiti si verificheranno anche quando viene ricevuto un status 200 oggetto con un finish_reason di content_filter. In questo caso la richiesta non ha avuto problemi, ma il completamento generato dal modello è stato rilevato per violare le regole di filtro del contenuto, che comportano il completamento filtrato. Se il servizio non esegue l'elaborazione, non verrà addebitato alcun addebito. Ad esempio, un errore 401 a causa dell'autenticazione o di un errore 429 dovuto al superamento del limite di velocità.

Ottenere l'accesso al Servizio OpenAI di Azure

Come si accede ad Azure OpenAI?

Al momento l'accesso è limitato perché si esplorano le richieste elevate, i miglioramenti futuri del prodotto e l'impegno di Microsoft per l'IA responsabile. Al momento, collaboriamo con i clienti con una partnership esistente con Microsoft, casi d'uso di rischio inferiori e con quelli impegnati a integrare le mitigazioni. Applica qui per l'accesso iniziale: Applica ora

Dopo aver richiesto l'accesso, quanto tempo è necessario aspettare per ottenere l'approvazione?

Attualmente non è disponibile una sequenza temporale per l'approvazione dell'accesso.

Altre informazioni e dove porre domande

Dove è possibile trovare informazioni sugli aggiornamenti più recenti di Azure OpenAI?

Per gli aggiornamenti mensili, vedere la pagina delle novità.

Dove è possibile ottenere la formazione per iniziare ad apprendere e sviluppare le proprie competenze in Azure OpenAI?

Dove è possibile pubblicare domande e vedere le risposte alle domande frequenti?

Dove trovare l'assistenza clienti di Azure OpenAI?

Azure OpenAI fa parte dei Servizi di Azure AI. È possibile ottenere informazioni su tutte le opzioni di supporto per i Servizi di Azure AI nella guida alle opzioni di supporto e assistenza.

Modelli e ottimizzazione

Quali sono i modelli disponibili?

Consultare la guida alla disponibilità del modello di OpenAI di Azure.

Come sapere in quale area è disponibile un modello?

Per informazioni sulla disponibilità nell'area, vedere la Guida alla disponibilità del modello OpenAI di Azure.

Come si abilita l'ottimizzazione? La creazione di un modello personalizzato è disattivata in Azure OpenAI Studio.

Per accedere correttamente all'ottimizzazione, è necessario ricoprire il ruolo di Collaboratore OpenAI di Servizi cognitivi. Persino un utente con autorizzazioni di Amministratore del servizio di alto livello avrebbe comunque bisogno di questo account impostato in modo esplicito per accedere all'ottimizzazione. Per altre informazioni, vedere le linee guida per il controllo degli accessi in base al ruolo.

Qual è la differenza tra un modello base e un modello ottimizzato?

Un modello di base è un modello che non è stato personalizzato od ottimizzato per un caso d'uso specifico. I modelli ottimizzati sono versioni personalizzate dei modelli di base, in cui viene eseguito il training dei pesi di un modello in un set univoco di richieste. I modelli ottimizzati consentono di ottenere risultati migliori su un numero maggiore di attività, senza dover fornire esempi dettagliati per l'apprendimento nel contesto come parte della richiesta di completamento. Per altre informazioni, vedere la guida all'ottimizzazione.

Qual è il numero massimo di modelli ottimizzati che è possibile creare?

100

Quali sono i contratti di servizio per le risposte API in Azure OpenAI?

Al momento non è disponibile un Contratto di servizio (SLA) definito sui tempi di risposta dell'API. Per altre informazioni sul contratto di servizio per il servizio OpenAI di Azure, vedere la pagina Contratti di servizio (SLA) per i servizi online.

Perché è stata eliminata la distribuzione modello ottimizzata?

Se un modello personalizzato (ottimizzato) viene distribuito per più di 15 giorni durante i quali non vengono effettuate chiamate di completamento o completamento della chat, la distribuzione viene eliminata automaticamente (e non vengono addebitati altri addebiti per l'hosting per tale distribuzione). Il modello personalizzato sottostante rimane disponibile e può essere ridistribuibile in qualsiasi momento. Per altre informazioni, vedere l'articolo sulle procedure.

Come si distribuisce un modello con l'API REST?

Sono attualmente disponibili due API REST diverse che consentono la distribuzione del modello. Per le funzionalità di distribuzione del modello più recenti, ad esempio la possibilità di specificare una versione del modello durante la distribuzione per modelli come text-embedding-ada-002 Versione 2, usare la chiamata all'API REST Deployments - Create Or Update .

È possibile usare la quota per aumentare il limite massimo di token di un modello?

No, l'allocazione dei token di quota al minuto (TPM) non è correlata al limite massimo di token di input di un modello. I limiti dei token di input del modello sono definiti nella tabella dei modelli e non sono interessati dalle modifiche apportate a TPM.

GPT-4 Turbo con Visione

È possibile ottimizzare le funzionalità dell'immagine in GPT-4?

No, al momento non è supportata l'ottimizzazione delle funzionalità di immagine di GPT-4.

È possibile usare GPT-4 per generare immagini?

No, è possibile usare dall-e-3 per generare immagini e gpt-4-visual-preview per comprendere le immagini.

Quale tipo di file è possibile caricare?

Attualmente sono supportati PNG (.png), JPEG (.jpeg e .jpg), WEBP (.webp) e GIF non animate (.gif).

Esiste un limite per le dimensioni dell'immagine che è possibile caricare?

Sì, i caricamenti delle immagini vengono limitati a 20 MB per ogni immagine.

È possibile eliminare un'immagine caricata?

No, l'immagine verrà eliminata automaticamente dopo che è stata elaborata dal modello.

Come funzionano i limiti di velocità per GPT-4 Turbo con Visione?

Le immagini vengono elaborate a livello di token, quindi ogni immagine elaborata viene conteggiato in base al limite di token al minuto (TPM). Vedere la sezione Token immagine della panoramica per informazioni dettagliate sulla formula usata per determinare il numero di token per ogni immagine.

GPT-4 Turbo con Visione può comprendere i metadati delle immagini?

No, il modello non riceve i metadati dell'immagine.

Cosa succede se la mia immagine non è chiara?

Se un'immagine è ambigua o poco chiara, il modello farà del suo meglio per interpretarlo. Tuttavia, i risultati potrebbero essere meno accurati. Una buona regola generale è che se una media umana non può visualizzare le informazioni in un'immagine alle risoluzioni usate in modalità res bassa/alta, il modello non può neanche.

Quali sono le limitazioni note di GPT-4 Turbo con Visione?

Vedere la sezione limitazioni della guida ai concetti relativi a GPT-4 Turbo with Vision.

Assistenti

I dati usati nell'API Assistants vengono archiviati?

Sì. A differenza dell'API Completamento chat, Gli assistenti OpenAI di Azure sono un'API con stato, ovvero conservano i dati. Nell'API Assistants sono archiviati due tipi di dati:

  • Entità con stato: thread, messaggi ed esecuzioni creati durante l'uso degli assistenti.
  • File: caricati durante la configurazione degli assistenti o come parte di un messaggio.

Dove vengono archiviati questi dati?

I dati vengono archiviati in un account di archiviazione gestito da Microsoft sicuro e separato logicamente.

Quanto tempo vengono archiviati questi dati?

Tutti i dati usati vengono mantenuti in questo sistema, a meno che non si eliminino in modo esplicito questi dati. Usare la funzione delete con l'ID thread del thread da eliminare. La cancellazione di Run in the Assistants Playground non elimina i thread, ma l'eliminazione tramite la funzione di eliminazione non li elenca nella pagina del thread.

È possibile usare un archivio dati personalizzato con assistenti?

No. Attualmente Assistants supporta solo i file locali caricati nell'archiviazione gestita da Assistants. Non è possibile usare l'account di archiviazione privato con assistenti.

I dati vengono usati da Microsoft per i modelli di training?

No. I dati non vengono usati per Microsoft per i modelli di training. Per altre informazioni, vedere la documentazione sull'intelligenza artificiale responsabile.

Dove vengono archiviati i dati geograficamente?

Gli endpoint degli assistenti OpenAI di Azure sono a livello di area e i dati vengono archiviati nella stessa area dell'endpoint. Per altre informazioni, vedere la documentazione sulla residenza dei dati di Azure.

Come vengono addebitati i costi per gli assistenti?

Attualmente, quando si usa l'API Assistants, viene addebitato quanto segue:

  • Costo di inferenza (input e output) del modello di base usato per ogni Assistente (ad esempio gpt-4-0125). Se sono stati creati più assistenti, verrà addebitato il modello di base associato a ogni Assistente.
  • Se è stato abilitato lo strumento Interprete del codice. Ad esempio, se l'assistente chiama l'interprete del codice contemporaneamente in due thread diversi, verranno create due sessioni dell'interprete del codice, ognuna delle quali verrà addebitata. Ogni sessione è attiva per impostazione predefinita per un'ora, il che significa che si paga questa tariffa solo una volta se l'utente continua a fornire istruzioni all'interprete del codice nello stesso thread per un massimo di un'ora.

Per ulteriori informazioni, vedere la pagina dei prezzi.

Sono previsti prezzi o quote aggiuntivi per l'uso di Assistenti?

No. Tutte le quote si applicano all'uso di modelli con Assistenti.

L'API Assistants supporta i modelli openAI non di Azure?

L'API Assistants supporta solo i modelli OpenAI di Azure.

L'API Assistants è disponibile a livello generale?

L'API Assistants è attualmente in anteprima pubblica. Rimanere informati sugli ultimi aggiornamenti dei prodotti visitando regolarmente la nostra pagina Novità .

Quali sono alcuni esempi o altre risorse che è possibile usare per ottenere informazioni sugli assistenti?

Per informazioni su come iniziare e usare assistenti, vedere gli articoli di avvio rapido e concettuale. È anche possibile consultare esempi di codice di Azure OpenAI Assistant in GitHub.

Applicazione Web

Come è possibile personalizzare l'app Web pubblicata?

È possibile personalizzare l'app Web pubblicata nel portale di Azure. Il codice sorgente dell'app Web pubblicata è disponibile in GitHub, dove è possibile trovare informazioni sulla modifica del front-end dell'app nonché istruzioni per la costruzione e la distribuzione dell'applicazione.

L'app Web verrà sovrascritta quando si distribuisce nuovamente l'app da Studio AI della piattaforma Azure?

Il codice dell'app non verrà sovrascritto quando aggiorni l'app. L'app verrà aggiornata per usare la risorsa OpenAI di Azure, l'indice di Ricerca di intelligenza artificiale di Azure (se si usa Azure OpenAI nei dati) e le impostazioni del modello selezionate in Azure OpenAI Studio senza alcuna modifica all'aspetto o alla funzionalità.

Uso dei dati

Che cosa è Azure OpenAI sui dati?

Azure OpenAI sui dati è una funzionalità dei Servizi OpenAI di Azure che consente alle organizzazioni di generare informazioni dettagliate, contenuti e ricerche personalizzate usando le origini dati designate. Funziona con le funzionalità dei modelli OpenAI di Azure OpenAI per fornire risposte più accurate e pertinenti alle query degli utenti in linguaggio naturale. Azure OpenAI sui dati può essere integrato con le applicazioni e i flussi di lavoro esistenti del cliente, offre informazioni dettagliate sugli indicatori di prestazione chiave e può interagire facilmente con gli utenti.

Come è possibile accedere ad Azure OpenAI sui dati?

Tutti i clienti di Azure OpenAI possono usare Azure OpenAI sui propri dati tramite Studio AI della piattaforma Azure e l'API REST.

Quali origini di dati supporta Azure OpenAI sui dati?

Azure OpenAI nei dati supporta l'inserimento da Ricerca di intelligenza artificiale di Azure, Archiviazione BLOB di Azure e il caricamento di file locali. Per altre informazioni su Azure OpenAI sui dati, vedere l'articolo concettuale e l'avvio rapido.

Quanto costa usare Azure OpenAI sui dati?

Quando si usa Azure OpenAI sui dati, si comportano costi quando si usa Ricerca di intelligenza artificiale di Azure, Archiviazione BLOB di Azure, servizio app Web di Azure, ricerca semantica e modelli OpenAI. Non sono previsti costi aggiuntivi per l'uso della funzionalità "i dati" in Azure AI Studio.

Come è possibile personalizzare o automatizzare il processo di creazione dell'indice?

È possibile preparare l'indice manualmente usando uno script fornito in GitHub. L'uso di questo script creerà un indice di Ricerca intelligenza artificiale di Azure con tutte le informazioni necessarie per usare meglio i dati, con i documenti suddivisi in blocchi gestibili. Per informazioni dettagliate su come eseguirlo, vedere il file README con il codice di preparazione dei dati.

Come è possibile aggiornare l'indice?

È possibile pianificare un aggiornamento automatico dell'indice o caricare dati aggiuntivi nel contenitore BLOB di Azure e usarli come origine dati quando si crea un nuovo indice. Il nuovo indice includerà tutti i dati del contenitore.

Quali tipi di file supporta Azure OpenAI sui dati?

Per altre informazioni sui tipi di file supportati, vedere Uso dei dati.

L'intelligenza artificiale responsabile è supportata da Azure OpenAI sui dati?

Sì, OpenAI di Azure sui dati fa parte del Servizio OpenAI di Azure e funziona con i modelli disponibili in Azure OpenAI. Le funzionalità di filtraggio dei contenuti e di monitoraggio degli abusi di Azure OpenAI sono ancora valide. Per altre informazioni, vedere la panoramica delle procedure di intelligenza artificiale responsabile per i modelli OpenAI di Azure e la nota sulla trasparenza per Azure OpenAI per altre indicazioni sull'uso responsabile di Azure OpenAI sui dati.

Esiste un limite di token per il messaggio di sistema?

Sì, il limite di token nel messaggio di sistema è 400. Se il messaggio di sistema è maggiore di 400 token, il resto dei token oltre i primi 400 verrà ignorato. Questa limitazione si applica solo alla funzionalità OpenAI di Azure per i dati.

Azure OpenAI nei dati supporta la chiamata a funzioni?

Azure OpenAI sui dati attualmente non supporta la chiamata a funzioni.

Il linguaggio di query e il linguaggio dell'origine dati devono essere uguali?

È necessario inviare query nella stessa lingua dei dati. I dati possono trovarsi in qualsiasi linguaggio supportato da Ricerca di intelligenza artificiale di Azure.

Se la ricerca semantica è abilitata per la risorsa ricerca di intelligenza artificiale di Azure, verrà applicata automaticamente ad Azure OpenAI sui dati in Azure OpenAI Studio?

Quando si seleziona "Ricerca di intelligenza artificiale di Azure" come origine dati, è possibile scegliere di applicare la ricerca semantica. Se si seleziona "Contenitore BLOB di Azure" o "Carica file" come origine dati, è possibile creare l'indice come di consueto. Successivamente si eseguirà il ripristino dei dati usando l'opzione "Ricerca di intelligenza artificiale di Azure" per selezionare lo stesso indice e applicare la ricerca semantica. Sarà quindi possibile chattare sui vostri dati con la ricerca semantica applicata.

Come è possibile aggiungere incorporamenti vettoriali durante l'indicizzazione dei dati?

Quando si seleziona "Contenitore BLOB di Azure", "Ricerca di intelligenza artificiale di Azure" o "Carica file" come origine dati, è anche possibile selezionare una distribuzione del modello di incorporamento di Ada da usare per l'inserimento dei dati. Verrà creato un indice di Ricerca intelligenza artificiale di Azure con incorporamenti vettoriali.

Perché la creazione dell'indice ha esito negativo dopo l'aggiunta di un modello di incorporamento?

La creazione dell'indice può non riuscire quando si aggiungono incorporamenti all'indice se il limite di frequenza per la distribuzione del modello di incorporamento di Ada è troppo basso o se si dispone di un set di documenti molto grande. È possibile usare questo script fornito in GitHub per creare l'indice con incorporamenti manualmente.

L'impegno per il copyright del cliente è un provisioning da includere nelle Condizioni del prodotto Microsoft del 1° dicembre 2023 che descrive l'obbligo di Microsoft di difendere i clienti da determinate attestazioni di proprietà intellettuale di terze parti relative al contenuto di output. Se l'oggetto dell'attestazione è Contenuto di output generato dal servizio Azure OpenAI (o da qualsiasi altro prodotto coperto che consente ai clienti di configurare i sistemi di sicurezza), per ricevere la copertura, il cliente deve aver implementato tutte le mitigazioni richieste dalla documentazione del servizio Azure OpenAI nell'offerta che ha fornito il contenuto di output. Le mitigazioni necessarie sono documentate qui e aggiornate in modo continuativo. Per i nuovi servizi, funzionalità, modelli o casi d'uso, verranno pubblicati nuovi requisiti CCC e saranno applicati al lancio di tale servizio, funzionalità, modello o caso d'uso. In caso contrario, i clienti avranno sei mesi dal momento della pubblicazione per implementare nuove mitigazioni per mantenere la copertura sotto il CCC. Se un cliente esegue una richiesta, il cliente dovrà dimostrare la conformità ai requisiti pertinenti. Queste mitigazioni sono necessarie per i prodotti coperti che consentono ai clienti di configurare i sistemi di sicurezza, incluso il servizio Azure OpenAI; non influiscono sulla copertura per i clienti che usano altri prodotti coperti.