Share via


az synapse spark job

Administración de trabajos por lotes de Synapse Spark.

Comandos

Nombre Description Tipo Estado
az synapse spark job cancel

Cancelar un trabajo de Spark.

Principal GA
az synapse spark job list

Enumerar todos los trabajos de Spark.

Principal GA
az synapse spark job show

Obtener un trabajo de Spark.

Principal GA
az synapse spark job submit

Envíe un trabajo de Spark.

Principal GA

az synapse spark job cancel

Cancelar un trabajo de Spark.

az synapse spark job cancel --livy-id
                            --spark-pool-name
                            --workspace-name
                            [--yes]

Ejemplos

Cancelar un trabajo de Spark.

az synapse spark job cancel --livy-id 1 --workspace-name testsynapseworkspace --spark-pool-name testsparkpool

Parámetros requeridos

--livy-id

Identificador del trabajo de Spark.

--spark-pool-name

Nombre del grupo de Spark.

--workspace-name

El nombre del área de trabajo.

Parámetros opcionales

--yes -y

No solicita confirmación.

valor predeterminado: False
Parámetros globales
--debug

Aumente el nivel de detalle de registro para mostrar todos los registros de depuración.

--help -h

Muestre este mensaje de ayuda y salga.

--only-show-errors

Mostrar solo los errores y suprimir las advertencias.

--output -o

Formato de salida.

valores aceptados: json, jsonc, none, table, tsv, yaml, yamlc
valor predeterminado: json
--query

Cadena de consulta de JMESPath. Para más información y ejemplos, consulte http://jmespath.org/.

--subscription

Nombre o identificador de la suscripción Puede configurar la suscripción predeterminada mediante az account set -s NAME_OR_ID.

--verbose

Aumente el nivel de detalle de registro. Use --debug para obtener registros de depuración completos.

az synapse spark job list

Enumerar todos los trabajos de Spark.

az synapse spark job list --spark-pool-name
                          --workspace-name
                          [--from-index]
                          [--size]

Ejemplos

Enumerar todos los trabajos de Spark.

az synapse spark job list --workspace-name testsynapseworkspace --spark-pool-name testsparkpool

Parámetros requeridos

--spark-pool-name

Nombre del grupo de Spark.

--workspace-name

El nombre del área de trabajo.

Parámetros opcionales

--from-index

Parámetro opcional que especifica desde qué índice debe comenzar la lista.

--size

Tamaño de la lista devuelta. De forma predeterminada, es 20 y es el máximo.

Parámetros globales
--debug

Aumente el nivel de detalle de registro para mostrar todos los registros de depuración.

--help -h

Muestre este mensaje de ayuda y salga.

--only-show-errors

Mostrar solo los errores y suprimir las advertencias.

--output -o

Formato de salida.

valores aceptados: json, jsonc, none, table, tsv, yaml, yamlc
valor predeterminado: json
--query

Cadena de consulta de JMESPath. Para más información y ejemplos, consulte http://jmespath.org/.

--subscription

Nombre o identificador de la suscripción Puede configurar la suscripción predeterminada mediante az account set -s NAME_OR_ID.

--verbose

Aumente el nivel de detalle de registro. Use --debug para obtener registros de depuración completos.

az synapse spark job show

Obtener un trabajo de Spark.

az synapse spark job show --livy-id
                          --spark-pool-name
                          --workspace-name

Ejemplos

Obtener un trabajo de Spark.

az synapse spark job show --livy-id 1 --workspace-name testsynapseworkspace --spark-pool-name testsparkpool

Parámetros requeridos

--livy-id

Identificador del trabajo de Spark.

--spark-pool-name

Nombre del grupo de Spark.

--workspace-name

El nombre del área de trabajo.

Parámetros globales
--debug

Aumente el nivel de detalle de registro para mostrar todos los registros de depuración.

--help -h

Muestre este mensaje de ayuda y salga.

--only-show-errors

Mostrar solo los errores y suprimir las advertencias.

--output -o

Formato de salida.

valores aceptados: json, jsonc, none, table, tsv, yaml, yamlc
valor predeterminado: json
--query

Cadena de consulta de JMESPath. Para más información y ejemplos, consulte http://jmespath.org/.

--subscription

Nombre o identificador de la suscripción Puede configurar la suscripción predeterminada mediante az account set -s NAME_OR_ID.

--verbose

Aumente el nivel de detalle de registro. Use --debug para obtener registros de depuración completos.

az synapse spark job submit

Envíe un trabajo de Spark.

az synapse spark job submit --executor-size {Large, Medium, Small}
                            --executors
                            --main-definition-file
                            --name
                            --spark-pool-name
                            --workspace-name
                            [--archives]
                            [--arguments]
                            [--configuration]
                            [--language {CSharp, PySpark, Python, Scala, Spark, SparkDotNet}]
                            [--main-class-name]
                            [--reference-files]
                            [--tags]

Ejemplos

Envíe un trabajo de Java Spark.

az synapse spark job submit --name WordCount_Java --workspace-name testsynapseworkspace \
--spark-pool-name testsparkpool \
--main-definition-file abfss://testfilesystem@testadlsgen2.dfs.core.windows.net/samples/java/wordcount/wordcount.jar \
--main-class-name WordCount \
--arguments abfss://testfilesystem@testadlsgen2.dfs.core.windows.net/samples/java/wordcount/shakespeare.txt \
abfss://testfilesystem@testadlsgen2.dfs.core.windows.net/samples/java/wordcount/result/ \
--executors 2 --executor-size Small

Parámetros requeridos

--executor-size

Tamaño del ejecutor.

valores aceptados: Large, Medium, Small
--executors

Número de ejecutores.

--main-definition-file

Archivo principal usado para el trabajo.

--name -n

Nombre del trabajo de Spark.

--spark-pool-name

Nombre del grupo de Spark.

--workspace-name

El nombre del área de trabajo.

Parámetros opcionales

--archives

Matriz de archivos.

--arguments

Argumentos opcionales para el trabajo (nota: use los URI de almacenamiento para los argumentos de archivo).

--configuration

Configuración del trabajo de Spark.

--language

Lenguaje de trabajo de Spark.

valores aceptados: CSharp, PySpark, Python, Scala, Spark, SparkDotNet
valor predeterminado: Scala
--main-class-name

Identificador completo o la clase principal que se encuentra en el archivo de definición principal.

--reference-files

Archivos adicionales usados como referencia en el archivo de definición principal.

--tags

Etiquetas separadas por espacios: key[=value] [key[=value] ...]. Use "" para borrar las etiquetas existentes.

Parámetros globales
--debug

Aumente el nivel de detalle de registro para mostrar todos los registros de depuración.

--help -h

Muestre este mensaje de ayuda y salga.

--only-show-errors

Mostrar solo los errores y suprimir las advertencias.

--output -o

Formato de salida.

valores aceptados: json, jsonc, none, table, tsv, yaml, yamlc
valor predeterminado: json
--query

Cadena de consulta de JMESPath. Para más información y ejemplos, consulte http://jmespath.org/.

--subscription

Nombre o identificador de la suscripción Puede configurar la suscripción predeterminada mediante az account set -s NAME_OR_ID.

--verbose

Aumente el nivel de detalle de registro. Use --debug para obtener registros de depuración completos.