分享方式:


排程並執行 Apache Spark 作業定義

瞭解如何執行 Microsoft Fabric Apache Spark 作業定義,並尋找作業定義狀態和詳細數據。

必要條件

開始之前,您必須:

如何執行Spark作業定義

有兩種方式可以執行 Spark 作業定義:

  • 從作業清單中的Spark作業定義項目選取 [執行 ],手動執行Spark作業定義。

    Screenshot showing where to select Run.

  • 在 [設定] 索引卷標上設定排程計劃來排程 Spark 作業定義。選取工具列上的 設定,然後選取 [排程]。

    Screenshot showing where to select Schedule on the Settings tab.

重要

若要執行,Spark 作業定義必須有主要定義檔案和預設 Lakehouse 內容。

提示

針對手動執行,目前登入使用者的帳戶會用來提交作業。 針對排程所觸發的執行,建立排程計劃之使用者的帳戶會用來提交作業。

提交執行后的三到五秒,新的數據列會出現在 [ 執行 ] 索引標籤底下。此數據列會顯示新執行的詳細數據。 [狀態] 資料行會顯示作業的近乎實時狀態,而 [執行類型] 資料行會顯示作業是否為手動或排程。

Screenshot of Runs list details.

如需如何監視作業的詳細資訊,請參閱 監視 Apache Spark 作業定義

如何取消執行中的作業

提交作業之後,您可以從作業清單中的Spark作業定義項目選取 [取消作用中執行 ] 來取消作業。

Screenshot showing where to select Cancel active run.

Spark 作業定義快照集

Spark 作業定義會儲存其最新狀態。 若要檢視歷程記錄執行的快照集,請從作業清單中的Spark作業定義項目選取 [檢視快照 集]。 快照集會顯示提交作業時的工作定義狀態,包括主要定義檔、參考檔案、命令行自變數、參考的 Lakehouse 和 Spark 屬性。

Screenshot showing where to select View Snapshot.

您可以從快照集採取三個動作:

  • 另存成 Spark 作業定義:將快照集儲存為新的 Spark 作業定義。
  • 開啟 Spark 作業定義:開啟目前的 Spark 作業定義。
  • 還原:使用快照集還原作業定義。 作業定義會在提交作業時還原至狀態。

Screenshot of the snapshot menu options.