Compartir por


Visión xeral das solicitudes

Este artigo explica a enxeñaría de avisos e outros conceptos clave para axudarche a crear aplicacións potentes que poden xerar texto a partir dunha entrada (indicación).

Un aviso é unha instrución de linguaxe natural que lle indica a un modelo de linguaxe grande (LLM) que realice unha tarefa. O proceso tamén se coñece como axuste de instrucións. O modelo segue a indicación para determinar a estrutura e o contido do texto que precisa xerar. A enxeñaría de avisos é o proceso de creación e refinamento do aviso utilizado polo modelo.

AI Builder ofrece un creador de avisos que permite aos creadores escribir, probar, gardar e usar indicacións para xerar texto.

Importante

  • AI Builder as solicitudes están a executarse no modelo GPT-3.5 Turbo que funciona con Azure OpenAI Service.
  • Esta capacidade está limitada a algunhas rexións.
  • Esta capacidade pode estar suxeita a límites de uso ou limitación da capacidade.

Requisitos previos

  • Tes unha comprensión básica de como escribir indicacións.
  • O teu contorno está na lista de rexións dispoñibles.
  • Tes unha licenza Power Apps ou Power Automate .
  • Unha Microsoft Dataverse base de datos está instalada no ambiente.
  • Tes un AI Builder complemento.

Que é un aviso e como usalo

Pensa nun aviso como unha tarefa ou un obxectivo que lle das ao modelo de linguaxe grande (LLM). Co creador de solicitudes, podes crear, probar e gardar as túas solicitudes personalizadas. Tamén pode usar variables de entrada para proporcionar datos de contexto dinámico en tempo de execución. Podes compartir estas solicitudes con outras persoas e usalas en Power Automate, Power Apps ou Copilot Studio. Por exemplo, podes facer un aviso para escoller elementos de acción dos correos electrónicos da túa empresa e utilizalos nun Power Automate fluxo para crear unha automatización de procesamento de correo electrónico.

Prompt Builder permite aos creadores crear indicacións personalizadas que atendan ás súas necesidades empresariais específicas mediante linguaxe natural. Estas indicacións pódense empregar para moitas tarefas ou escenarios comerciais, como resumir contido, categorizar datos, extraer entidades, traducir idiomas, avaliar sentimentos ou formular unha resposta a unha queixa.

Os avisos pódense integrar nos fluxos para crear unha automatización intelixente sen intervención. Os creadores tamén poden crear capacidades avanzadas de IA xerativa para as súas aplicacións describindoas como indicacións da linguaxe natural. Estas indicacións pódense usar para estender un copiloto personalizado, simplificando as súas operacións comerciais diarias e aumentando a eficiencia".

Vixilancia humana

A supervisión humana é un paso importante cando se traballa con contido xerado a partir dun modelo GPT. Os modelos de idiomas grandes como GPT están adestrados en grandes cantidades de datos. O contido xerado pola IA pode conter erros e prexuízos. Un humano debería revisalo antes de que se publique en liña, se envíe a un cliente ou se utilice para informar unha decisión comercial. A supervisión humana axuda non só a identificar posibles erros e prexuízos, senón tamén a asegurarse de que o contido sexa relevante para o caso de uso previsto e se aliña cos valores da empresa.

A revisión humana tamén pode axudar a identificar calquera problema co propio modelo GPT. Por exemplo, se o modelo está a xerar contido que non é relevante para o caso de uso previsto, é posible que teñas que axustar a solicitude.

IA responsable

Comprometémonos a crear IA responsable por deseño. O noso traballo está guiado por un conxunto básico de principios: equidade, fiabilidade e seguridade, privacidade e seguridade, inclusión, transparencia e responsabilidade. Poñemos en práctica estes principios en toda a empresa para desenvolver e implantar IA que teña un impacto positivo na sociedade. Adoptamos un enfoque integral, que combina investigación innovadora, enxeñería excepcional e goberno responsable. Xunto á investigación líder de OpenAI sobre o aliñamento da intelixencia artificial, estamos avanzando nun marco para a implantación segura das nosas propias tecnoloxías de intelixencia artificial co obxectivo de axudar a orientar a industria cara a resultados máis responsables.

Obtén máis información sobre a transparencia no servizo Azure OpenAI

Consulte tamén