Guia de início rápido: introdução ao uso do GPT-35-Turbo e GPT-4 com o Serviço OpenAI do Azure no IntelliJ

Este artigo mostra como começar a usar o Serviço OpenAI do Azure no IntelliJ IDEA. Ele mostra como usar modelos de bate-papo como GPT-3.5-Turbo e GPT-4 para testar e experimentar diferentes parâmetros e fontes de dados.

Pré-requisitos

Instalar e iniciar sessão

As etapas a seguir o orientam pelo processo de entrada do Azure em seu ambiente de desenvolvimento IntelliJ:

  1. Se você não tiver o plug-in instalado, consulte Kit de Ferramentas do Azure para IntelliJ.

  2. Para iniciar sessão na sua conta do Azure, navegue até à barra lateral esquerda do Azure Explorer e, em seguida, selecione o ícone de Início de Sessão do Azure. Como alternativa, você pode navegar até Ferramentas, expandir Azure e selecionar Entrar no Azure.

    Screenshot of the IntelliJ IDEA with the Azure Sign In button highlighted.

  3. Na janela Iniciar sessão do Azure, selecione OAuth 2.0 e, em seguida, selecione Iniciar sessão. Para outras opções de entrada, consulte Instruções de entrada para o Kit de Ferramentas do Azure para IntelliJ.

  4. No navegador, entre com sua conta que tem acesso ao seu recurso OpenAI e, em seguida, volte para o IntelliJ. Na caixa de diálogo Selecionar Subscrições, selecione a subscrição que pretende utilizar e, em seguida, selecione Selecionar.

Criar e implantar um recurso do Serviço OpenAI do Azure

  1. Após o fluxo de trabalho de entrada, clique com o botão direito do mouse no item Azure OpenAI no Azure Explorer e selecione Criar Serviço OpenAI do Azure.

  2. Na caixa de diálogo Criar Serviço OpenAI do Azure, especifique as seguintes informações e selecione OK:

    • Nome: um nome descritivo para seu recurso do Serviço OpenAI do Azure, como MyOpenAIResource. Esse nome também é seu nome de domínio personalizado em seu endpoint. O nome do recurso só pode incluir caracteres alfanuméricos e hífenes e não pode começar ou terminar com um hífen.
    • Região: o local da sua instância. Alguns modelos só estão disponíveis em regiões específicas. Para obter mais informações, consulte Modelos do Azure OpenAI Service.
    • Sku: Os recursos padrão do Azure OpenAI são cobrados com base no uso do token. Para obter mais informações, consulte Preços do Serviço OpenAI do Azure.
  3. Antes de usar as finalizações de chat, você precisa implantar um modelo. Clique com o botão direito do mouse em sua instância do Azure OpenAI e selecione Criar nova implantação. Na caixa de diálogo pop-up Criar Implantação do Azure OpenAI, especifique as seguintes informações e selecione OK:

    • Nome da implantação: escolha um nome cuidadosamente. O nome da implantação é usado em seu código para chamar o modelo usando as bibliotecas de cliente e as APIs REST.
    • Modelo: Selecione um modelo. A disponibilidade do modelo varia por região. Para obter uma lista de modelos disponíveis por região, consulte a tabela de resumo do modelo e a seção de disponibilidade de região dos modelos do Serviço OpenAI do Azure.

O kit de ferramentas exibe uma mensagem de status quando a implantação estiver concluída e pronta para uso.

Interaja com o Azure OpenAI usando prompts e configurações

  1. Clique com o botão direito do rato no recurso Azure OpenAI e, em seguida, selecione Abrir no AI Playground.

  2. Você pode começar a explorar os recursos do OpenAI por meio do playground de bate-papo do Azure OpenAI Studio no IntelliJ IDEA.

    Screenshot of the IntelliJ IDEA that shows the Chat playground overview window.

Para acionar a conclusão, você pode inserir algum texto como um prompt. O modelo gera a conclusão e tenta corresponder ao seu contexto ou padrão.

Para iniciar uma sessão de chat, siga estes passos:

  1. No painel de sessões de chat, pode começar com um aviso simples como este: "Estou interessado em comprar um novo Surface." Depois de digitar o prompt, selecione Enviar. Você recebe uma resposta semelhante ao exemplo a seguir:

    Great! Which Surface model are you interested in? There are several options available such as the Surface Pro, Surface Laptop, Surface Book, Surface Go, and Surface Studio. Each one has its own unique features and specifications, so it's important to choose the one that best fits your needs.
    

    Screenshot of the IntelliJ IDEA that shows the playground window with a first question and answer.

  2. Insira uma pergunta de acompanhamento como: "Quais modelos suportam GPU?" e selecione Enviar. Você recebe uma resposta semelhante ao exemplo a seguir:

    Most Surface models come with an integrated GPU (Graphics Processing Unit), which is sufficient for basic graphics tasks such as video playback and casual gaming. However, if you're looking for more powerful graphics performance, the Surface Book 3 and the Surface Studio 2 come with dedicated GPUs. The Surface Book 3 has an NVIDIA GeForce GTX GPU, while the Surface Studio 2 has an NVIDIA GeForce GTX 1060 or 1070 GPU, depending on the configuration.
    

    Screenshot of the IntelliJ IDEA that shows the playground window with a first and second question and answer.

  3. Agora que você tem uma conversa básica, selecione Exibir código no painel e terá uma repetição do código por trás de toda a conversa até agora. Você pode ver os exemplos de código baseados em Java SDK, curl e JSON que correspondem à sua sessão de chat e configurações, conforme mostrado na captura de tela a seguir:

    Screenshot of the IntelliJ IDEA that shows the Sample Code window.

  4. Em seguida, você pode selecionar Copiar para pegar esse código e escrever um aplicativo para concluir a mesma tarefa que você está executando atualmente com o playground.

Definições

Você pode selecionar a guia Configuração para definir os seguintes parâmetros:

Nome Descrição
Resposta máxima Define um limite no número de tokens por resposta do modelo. A API suporta um máximo de 4096 tokens compartilhados entre o prompt (incluindo mensagem do sistema, exemplos, histórico de mensagens e consulta do usuário) e a resposta do modelo. Um token tem aproximadamente quatro caracteres para o texto típico em inglês.
Temperatura Controla a aleatoriedade. A redução da temperatura significa que o modelo produz respostas mais repetitivas e determinísticas. O aumento da temperatura resulta em respostas mais inesperadas ou criativas. Tente ajustar a temperatura ou as probabilidades máximas, mas não ambas.
Principais probabilidades Semelhante à temperatura, controla a aleatoriedade, mas usa um método diferente. Reduzir o valor de probabilidades principais reduz a seleção de tokens do modelo para tokens mais prováveis. Aumentar o valor permite que o modelo escolha entre tokens com alta e baixa probabilidade. Tente ajustar a temperatura ou as probabilidades máximas, mas não ambas.
Parar sequências Faz com que o modelo termine sua resposta em um ponto desejado. A resposta do modelo termina antes da sequência especificada, portanto, não contém o texto da sequência de parada. Para GPT-35-Turbo, usar <|im_end|> garante que a resposta do modelo não gere uma consulta de usuário de acompanhamento. Você pode incluir até quatro sequências de parada.
Penalidade de frequência Reduz a chance de repetir um token proporcionalmente com base na frequência com que ele aparece no texto até agora. Essa ação diminui a probabilidade de repetir exatamente o mesmo texto em uma resposta.
Penalidade de presença Reduz a chance de repetir qualquer token que apareça no texto até agora. Isso aumenta a probabilidade de introduzir novos tópicos em uma resposta.

Clean up resources (Limpar recursos)

Depois de terminar de testar o playground de bate-papo, se você quiser limpar e remover um recurso OpenAI, você pode excluir o recurso ou grupo de recursos. A exclusão do grupo de recursos também exclui quaisquer outros recursos associados a ele. Use as seguintes etapas para limpar recursos:

  1. Para excluir seus recursos do Azure OpenAI, navegue até a barra lateral esquerda do Azure Explorer e localize o item do Azure OpenAI .

  2. Clique com o botão direito do rato no serviço Azure OpenAI que pretende eliminar e, em seguida, selecione Eliminar.

  3. Para excluir seu grupo de recursos, visite o portal do Azure e exclua manualmente os recursos em sua assinatura.

Próximos passos

Para obter mais informações, consulte Saiba como trabalhar com os modelos GPT-35-Turbo e GPT-4.

Para obter mais exemplos, confira o repositório GitHub de amostras do Azure OpenAI.