az synapse spark job

Verwalten von Synapse Spark-Batchaufträgen.

Befehle

az synapse spark job cancel

Abbrechen eines Spark-Auftrags.

az synapse spark job list

Alle Spark-Aufträge auflisten.

az synapse spark job show

Abrufen eines Spark-Auftrags.

az synapse spark job submit

Senden eines Spark-Auftrags.

az synapse spark job cancel

Abbrechen eines Spark-Auftrags.

az synapse spark job cancel --livy-id
                            --spark-pool-name
                            --workspace-name
                            [--yes]

Beispiele

Abbrechen eines Spark-Auftrags.

az synapse spark job cancel --livy-id 1 --workspace-name testsynapseworkspace --spark-pool-name testsparkpool

Erforderliche Parameter

--livy-id

Die ID des Spark-Auftrags.

--spark-pool-name

Der Name des Spark-Pools.

--workspace-name

Den Namen des Arbeitsbereichs

Optionale Parameter

--yes -y

Nicht zur Bestätigung auffordern

az synapse spark job list

Alle Spark-Aufträge auflisten.

az synapse spark job list --spark-pool-name
                          --workspace-name
                          [--from-index]
                          [--size]

Beispiele

Alle Spark-Aufträge auflisten.

az synapse spark job list --workspace-name testsynapseworkspace --spark-pool-name testsparkpool

Erforderliche Parameter

--spark-pool-name

Der Name des Spark-Pools.

--workspace-name

Den Namen des Arbeitsbereichs

Optionale Parameter

--from-index

Optionaler Parameter, der angibt, von welchem Index die Liste beginnen soll.

--size

Die Größe der zurückgegebenen Liste. Standardmäßig ist er 20 und das ist das Maximum.

az synapse spark job show

Abrufen eines Spark-Auftrags.

az synapse spark job show --livy-id
                          --spark-pool-name
                          --workspace-name

Beispiele

Abrufen eines Spark-Auftrags.

az synapse spark job show --livy-id 1 --workspace-name testsynapseworkspace --spark-pool-name testsparkpool

Erforderliche Parameter

--livy-id

Die ID des Spark-Auftrags.

--spark-pool-name

Der Name des Spark-Pools.

--workspace-name

Den Namen des Arbeitsbereichs

az synapse spark job submit

Senden eines Spark-Auftrags.

az synapse spark job submit --executor-size {Large, Medium, Small}
                            --executors
                            --main-definition-file
                            --name
                            --spark-pool-name
                            --workspace-name
                            [--archives]
                            [--arguments]
                            [--configuration]
                            [--language {CSharp, PySpark, Python, Scala, Spark, SparkDotNet}]
                            [--main-class-name]
                            [--reference-files]
                            [--tags]

Beispiele

Übermitteln eines Java Spark-Auftrags.

az synapse spark job submit --name WordCount_Java --workspace-name testsynapseworkspace \
--spark-pool-name testsparkpool \
--main-definition-file abfss://testfilesystem@testadlsgen2.dfs.core.windows.net/samples/java/wordcount/wordcount.jar \
--main-class-name WordCount \
--arguments abfss://testfilesystem@testadlsgen2.dfs.core.windows.net/samples/java/wordcount/shakespeare.txt \
abfss://testfilesystem@testadlsgen2.dfs.core.windows.net/samples/java/wordcount/result/ \
--executors 2 --executor-size Small

Erforderliche Parameter

--executor-size

Die Ausführungsgröße.

Zulässige Werte: Large, Medium, Small
--executors

Die Anzahl der Ausführenden.

--main-definition-file

Die für den Auftrag verwendete Hauptdatei.

--name -n

Der Name des Spark-Auftrags.

--spark-pool-name

Der Name des Spark-Pools.

--workspace-name

Den Namen des Arbeitsbereichs

Optionale Parameter

--archives

Das Array von Archiven.

--arguments

Optionale Argumente für den Auftrag (Hinweis: Verwenden Sie speicher-URIs für Dateiargumente).

--configuration

Die Konfiguration des Spark-Auftrags.

--language

Die Spark-Auftragssprache.

Zulässige Werte: CSharp, PySpark, Python, Scala, Spark, SparkDotNet
Standardwert: Scala
--main-class-name

Der vollqualifizierte Bezeichner oder die Hauptklasse, die sich in der Hauptdefinitionsdatei befindet.

--reference-files

Zusätzliche Dateien, die zu Referenzzwecken in der Hauptdefinitionsdatei verwendet werden.

--tags

Leerzeichentrennte Tags: key[=value] [key[=value] ...]. Verwenden Sie "", um vorhandene Tags zu löschen.