次の方法で共有


Azure AI Studio を使って Azure OpenAI モデルをデプロイする方法

重要

この記事で説明する機能の一部は、プレビューでのみ使用できる場合があります。 このプレビューはサービス レベル アグリーメントなしで提供されており、運用環境ではお勧めしません。 特定の機能はサポート対象ではなく、機能が制限されることがあります。 詳しくは、Microsoft Azure プレビューの追加使用条件に関するページをご覧ください。

この記事では、Azure AI Studio で Azure OpenAI モデルのデプロイを作成する方法について説明します。

Azure OpenAI サービスは、さまざまな機能と価格ポイントを備えた多様なモデル セットを提供しています。 Azure AI Studio で Azure OpenAI モデルをデプロイする場合は、プロンプト フローまたは別のツールを使用してデプロイを実行できます。 モデルの可用性はリージョンごとに異なります。 各モデルの詳細については、「Azure OpenAI Service モデル」を参照してください。

Azure AI Studio プレイグラウンドで Azure OpenAI モデルを変更し、操作するには、まず基本の Azure OpenAI モデルを自分のプロジェクトにデプロイする必要があります。 モデルがデプロイされ、プロジェクトで利用できるようになったら、その REST API エンドポイントをそのまま使用するか、独自のデータやその他のコンポーネント (埋め込みやインデックスなど) でさらにカスタマイズできます。

モデル カタログから Azure OpenAI モデルをデプロイする

AI Studio モデル カタログからリアルタイム エンドポイントに gpt-4 などの Azure OpenAI モデルをデプロイするには、次の手順に従います。

  1. AI Studio にサインインし、ホーム ページに移動します。

  2. 左側のサイドバーから [モデル カタログ] を選択します。

  3. [コレクション] フィルターで、[Azure OpenAI] を選択します。

    カタログ内の Azure OpenAI モデルでフィルター処理する方法を示すスクリーンショット。

  4. Azure OpenAI コレクションから gpt-4 などのモデルを選択します。

  5. [デプロイ] を選択してデプロイ ウィンドウを開きます。

  6. モデルをデプロイするハブを選択します。 まだハブを作成していない場合は、1 つ作成します。

  7. デプロイの名前を指定し、要件に応じて他の既定の設定を変更します。

  8. 展開 を選択します。

  9. デプロイの詳細ページが表示されます。 [プレイグラウンドで開く] を選択します。

  10. [コードの表示] を選択すると、デプロイされたモデルをアプリケーションで使用するためのコード サンプルが取得されます。

プロジェクトから Azure OpenAI モデルをデプロイする

または、AI Studio でプロジェクトから開始して、デプロイを始めることもできます。

  1. AI Studio でプロジェクトに移動します。
  2. [コンポーネント]>[デプロイ] を選択します。
  3. [+ Create deployment]\(+ デプロイの作成\) を選択します。
  4. [コレクション] フィルターで、[Azure OpenAI] を選択します。
  5. Azure OpenAI コレクションから gpt-4 などのモデルを選択します。
  6. [確認] を選択してデプロイ ウィンドウを開きます。
  7. デプロイの名前を指定し、要件に応じて他の既定の設定を変更します。
  8. 展開 を選択します。
  9. デプロイの詳細ページが表示されます。 [プレイグラウンドで開く] を選択します。
  10. [コードの表示] を選択すると、デプロイされたモデルをアプリケーションで使用するためのコード サンプルが取得されます。

Azure OpenAI モデルの推論

デプロイされたモデルに対して推論を実行するには、プレイグラウンドまたはコード サンプルを使用します。 プレイグラウンドは、モデルをリアルタイムで操作できる Web ベースのインターフェイスです。 プレイグラウンドを使用して、さまざまなプロンプトでモデルをテストし、モデルの応答を確認できます。

アプリケーションでデプロイされたモデルを使用する方法のその他の例については、次の Azure OpenAI クイックスタートを参照してください。

モデルのリージョンの可用性とクォータ制限

Azure OpenAI のモデルでは、モデルの既定のクォータはモデルとリージョンによって異なります。 特定のモデルは、一部のリージョンでのみ使用できます。 可用性とクォータ制限の詳細については、Azure OpenAI サービスのクォータと制限に関するページを参照してください。

モデルのデプロイと推論のクォータ

Azure OpenAI のモデルの場合、デプロイと推論では、リージョンごと、モデル単位でサブスクリプションに割り当てられたクォータが 1 分あたりのトークン数 (TPM) 単位で消費されます。 Azure AI Studio にサインアップすると、利用可能なモデルのほとんどの既定のクォータを受け取ります。 次に、デプロイの作成時に TPM を各デプロイに割り当てます。これにより、そのモデルの使用可能なクォータから、割り当てた量が引かれます。 クォータ制限に達するまで、デプロイを作成して TPM を割り当て続けることができます。

クォータ制限に達したら、そのモデルの新しいデプロイを作成する唯一の方法は次のとおりです。

クォータの詳細については、「Azure AI Studio クォータ」と「Azure OpenAI Service のクォータを管理する」を参照してください。