分享方式:


提示概觀

本文說明提示工程和其他重要概念,協助您建立可根據輸入 (提示) 生成文字的強大應用程式。

提示是一種自然語言指令,指示大型語言模型 (LLM) 執行任務。 該程序也稱為指令微調。 模型根據提示決定需要產生文字的結構和內容。 提示工程是建立和完善模型使用的提示的過程。

AI Builder 可提供提示產生器,讓製作者編寫、測試、儲存和使用提示來產生文字。

重要

先決條件

  • 您已對如何撰寫提示有基本的了解。
  • 您的環境位於可用區域清單中。
  • 您有 Power Apps 或 Power Automate 授權。
  • 已在環境中安裝 Microsoft Dataverse 資料庫。
  • 您有一個 AI Builder 附加元件。

什麼是提示以及如何使用它

提示可視為您給大語言模型 (LLM) 的工作或目標。 使用提示建立器,您可以組建、測試和儲存自訂提示。 您也可以使用輸入變數在執行階段提供動態上下文資料。 您可以與其他人分享這些提示,並在 Power Automate、Power Apps 或 Copilot Studio 中使用它們。 例如,您可以提示從公司電子郵件中挑選動作項目,並在 Power Automate 流程中使用它來建立電子郵件處理自動化。

提示建立器使製作者能夠使用自然語言設計滿足其特定業務需求的自訂提示。 這些提示可用於各種任務或業務場景,例如總結內容、對資料進行分類、提取實體、翻譯語言、評估情緒或制定針對投訴的回應。

提示可以整合到流程中以建立智慧的免干涉自動化。 製作者還可以透過將其描述為自然語言提示,來為其應用程式建立先進的生成式 AI 功能。 這些提示可用於擴展自訂副手,從而簡化您的日常業務營運並提高效率。」

人工監督

在處理由 GPT 模型生成的內容時,真人監督是個重要的步驟。 像 GPT 這樣的大型語言模型,是根據大量資料進行訓練的。 AI 生成的內容可能包含錯誤和偏見。 在將內容發佈到網路上、傳送給客戶或用於通知業務決策之前,應該要有人進行審查。 人工監督不僅有助於識別潛在的錯誤和偏見,還有助於確保內容與預期使用案例相關並符合公司的價值觀。

人工審查還可以幫助識別 GPT 模型本身的問題。 例如,如果模型生成的內容與預期使用案例不相關,則您可能需要調整提示。

負責的 AI

我們致力於透過設計建立負責任的 AI。 我們的工作以一組核心原則為宗旨:公平、可靠性和安全性、隱私權和資訊安全、包容性、透明度以及問責制。 我們正在全公司中將這些原則付諸實踐,以開發和部署對社會產生積極影響的 AI。 我們採取綜合方法,結合創新的研究、出色的工程及負責任的治理。 伴隨 OpenAI 在 AI 校準方面的領先研究,我們正在推展自家 AI 技術的安全部署架構,旨在協助引導產業實現更負責任的成果。

深入瞭解 Azure OpenAI 服務中的透明度

另請參閱