Share via


モデル LLM ツールを開く

Open Model LLM ツールを使用すると、Azure Machine ラーニングプロンプト フローでの自然言語処理のために、FalconLlama 2 などのさまざまなオープン モデルと基本モデルを利用できます。

Visual Studio Code プロンプト フロー拡張機能での動作を以下に示します。 この例では、ツールを使用して LlaMa-2 チャット エンドポイントを呼び出し、"CI とは何か" と聞きます。

Screenshot that shows the Open Model LLM tool on Visual Studio Code prompt flow extension.

このプロンプト フロー ツールでは、次の 2 種類の LLM API がサポートされています。

  • チャット: 前の例に示されています。 チャット API の種類では、テキストベースの入力と応答を使用した対話型の会話が容易になります。
  • 入力候補: 入力候補 API の種類は、指定されたプロンプト入力に基づいて単一の応答テキスト入力候補を生成するために使用されます。

概要: オープン モデル LLM ツール操作方法使用しますか?

  1. Azure Machine ラーニング モデル カタログからモデルを選択し、デプロイします。
  2. モデルデプロイに接続します。
  3. オープン モデル LLM ツールの設定を構成します。
  4. プロンプトを準備します
  5. フローを実行します。

前提条件: モデルのデプロイ

  • Azure Machine Learning モデル カタログから、シナリオに一致するモデルを選びます。
  • [デプロイ] ボタンを使用して、モデルを Azure Machine ラーニングオンライン推論エンドポイントにデプロイします。
    • 従量課金制のデプロイ オプションのいずれかを使用します。

詳細については、「推論のために基礎モデルをエンドポイントにデプロイする」を参照してください

前提条件: モデルに接続する

デプロイされたモデルをプロンプト フローで使用するには、それに接続する必要があります。 接続する方法は 2 つあります。

エンドポイント接続

フローが Azure Machine ラーニング または Azure AI Studio ワークスペースに関連付けられると、Open Model LLM ツールはそのワークスペース上のエンドポイントを使用できます。

  • Azure Machine ラーニング または Azure AI Studio ワークスペースの使用: Web ページ ベースのブラウザー ワークスペースのいずれかでプロンプト フローを使用している場合は、そのワークスペースで自動的に使用できるオンライン エンドポイント。

  • VS Code またはコードを最初に使用する: VS Code またはいずれかの Code First オファリングでプロンプト フローを使用している場合は、ワークスペースに接続する必要があります。 Open Model LLM ツールは、承認に azure.identity DefaultAzureCredential クライアントを使用します。 1 つの方法は、環境の資格情報の値を設定することです

カスタム接続

Open Model LLM ツールは CustomConnection を使用します。 プロンプト フローでは、次の 2 種類の接続がサポートされます。

  • ワークスペース接続 - Azure Machine ラーニング ワークスペースにシークレットとして格納される接続。 これらの接続は多くの場所で使用できますが、一般的に作成され、Studio UI に含メイン。 Studio UI でカスタム接続を作成する方法については、カスタム接続を作成する方法を参照してください

  • ローカル接続 - コンピューターにローカルに格納されている接続 。 これらの接続は Studio UX では使用できませんが、VS Code 拡張機能で使用できます。 ローカルカスタム接続を作成する方法については、ローカル接続を作成する方法を参照してください

設定する必要があるキーは次のとおりです。

  • endpoint_url
    • この値は、以前に作成した推論エンドポイントにあります。
  • endpoint_api_key
    • シークレット値として設定してください。
    • この値は、以前に作成した推論エンドポイントにあります。
  • model_family
    • サポートされている値: LLAMA、DOLLY、GPT2、または FALCON
    • この値は、ターゲットとなるデプロイの種類によって異なります。

ツールの実行: 入力

Open Model LLM ツールには多くのパラメーターがあり、その一部が必要です。 詳細については、次の表を参照してください。これらのパラメーターを前のスクリーンショットと照合して、視覚的にわかりやすくすることができます。

名前 種類 内容 必須
api string 使用されるモデルと選択したシナリオに依存する API モード。 ''サポートされている値'': (Completion | Chat) はい
endpoint_name string サポートされているモデルがデプロイされているオンライン推論エンドポイントの名前。 接続よりも優先されます。 はい
温度 float 生成されたテキストのランダム性。 既定値は 1 です。 いいえ
max_new_tokens integer 完了で生成されるトークンの最大数。 既定値は 500 です。 いいえ
top_p float 生成されたトークンから上位の選択肢を使用する確率。 既定値は 1 です。 いいえ
model_kwargs ディクショナリ この入力は、使用されるモデルに固有の構成を提供するために使用されます。 たとえば、Llama-02 モデルでは {"temperature":0.4} を使用できます。 既定{}: いいえ
deployment_name string オンライン推論エンドポイントのターゲットとなるデプロイの名前。 値が渡されない場合は、推論ロード バランサーのトラフィック設定が使用されます。 いいえ
prompt string 言語モデルで応答を生成するために使用されるテキスト プロンプト。 はい

出力

API 戻り値の型 説明
Completion string 1 つの予測される入力候補のテキスト
チャット string 会話での 1 つの応答のテキスト

オンライン エンドポイントへのデプロイ

Open Model LLM ツールを含むフローをオンライン エンドポイントにデプロイする場合は、アクセス許可を設定するための追加の手順があります。 Web ページを介したデプロイ中に、システム割り当て ID の種類とユーザー割り当て ID の種類を選択できます。 どちらの方法でも、Azure portal (または同様の機能) を使用して、エンドポイントをホストしている Azure Machine ラーニング ワークスペースまたは Ai Studio プロジェクトの ID に "閲覧者" ジョブ関数ロールを追加します。 プロンプト フローのデプロイを更新する必要がある場合があります。