Auftrags-APIJobs API

Mit der Jobs-API können Sie Aufträge erstellen, bearbeiten und löschen.The Jobs API allows you to create, edit, and delete jobs. Die maximal zulässige Größe einer Anforderung an die Aufträge-API beträgt 10 MB.The maximum allowed size of a request to the Jobs API is 10MB. Eine Anleitung zu dieser API finden Sie unter Jobs API examples .See Jobs API examples for a how-to guide on this API.

Hinweis

Wenn beim Ausführen von Aufträgen-API-Anforderungen 500-Fehler auftreten, empfiehlt es sich, Anforderungen bis zu 10 Minuten lang zu testen (bei einem Intervall von mindestens 30 Sekunden zwischen den Wiederholungen).If you receive a 500-level error when making Jobs API requests, we recommend retrying requests for up to 10 min (with a minimum 30 second interval between retries).

Wichtig

Für den Zugriff auf Databricks-REST-APIs müssen Sie sich authentifizieren.To access Databricks REST APIs, you must authenticate.

Erstellen Sie Create

EndpunktEndpoint HTTP-MethodeHTTP Method
2.0/jobs/create POST

Erstellen Sie einen neuen Auftrag.Create a new job.

Eine Beispiel Anforderung für einen Auftrag, der jeden Abend um 10 Uhr ausgeführt wird:An example request for a job that runs at 10:15pm each night:

{
  "name": "Nightly model training",
  "new_cluster": {
    "spark_version": "7.3.x-scala2.12",
    "node_type_id": "Standard_D3_v2",
    "num_workers": 10
  },
  "libraries": [
    {
      "jar": "dbfs:/my-jar.jar"
    },
    {
      "maven": {
        "coordinates": "org.jsoup:jsoup:1.7.2"
      }
    }
  ],
  "timeout_seconds": 3600,
  "max_retries": 1,
  "schedule": {
    "quartz_cron_expression": "0 15 22 ? * *",
    "timezone_id": "America/Los_Angeles"
  },
  "spark_jar_task": {
    "main_class_name": "com.databricks.ComputeModels"
  }
}

Und Antwort:And response:

{
  "job_id": 1
}

Anforderungs Struktur Request structure

Erstellen Sie einen neuen Auftrag.Create a new job.

Wichtig

  • Wenn Sie einen Auftrag in einem neuen Auftrags Cluster ausführen, wird der Auftrag als Auftrags Compute-Arbeitsauslastung (automatisiert) behandelt, die den computepreisen für Aufträge unterliegt.When you run a job on a new jobs cluster, the job is treated as a Jobs Compute (automated) workload subject to Jobs Compute pricing.
  • Wenn Sie einen Auftrag für einen vorhandenen gesamten Cluster ausführen, wird er als All-Purpose Compute-Arbeitsauslastung (interaktiv) behandelt, die All-Purpose computepreisen unterliegt.When you run a job on an existing all-purpose cluster, it is treated as an All-Purpose Compute (interactive) workload subject to All-Purpose Compute pricing.
FeldnameField Name typeType BeschreibungDescription
existing_cluster_id oder new_clusterexisting_cluster_id OR new_cluster STRING Oder newclusterSTRING OR NewCluster Wenn existing_cluster_id, die ID eines vorhandenen Clusters, der für alle Ausführungen dieses Auftrags verwendet wird.If existing_cluster_id, the ID of an existing cluster that will be used for all runs of this job. Wenn Sie Aufträge auf einem vorhandenen Cluster ausführen, müssen Sie den Cluster möglicherweise manuell neu starten, wenn er nicht mehr reagiert.When running jobs on an existing cluster, you may need to manually restart the cluster if it stops responding. Wir empfehlen die Ausführung von Aufträgen in neuen Clustern, um die Zuverlässigkeit zu erhöhen.We suggest running jobs on new clusters for greater reliability.

Wenn new_cluster, eine Beschreibung eines Clusters, der für jede Testlauf erstellt wird.If new_cluster, a description of a cluster that will be created for each run.
notebook_task oder spark_jar_task oder spark_python_task oder spark_submit_tasknotebook_task OR spark_jar_task OR spark_python_task OR spark_submit_task Notebooktask Oder sparkjartask oder sparkpythontask oder sparksubmittaskNotebookTask OR SparkJarTask OR SparkPythonTask OR SparkSubmitTask Wenn notebook_task, wird angegeben, dass für diesen Auftrag ein Notebook ausgeführt werden soll.If notebook_task, indicates that this job should run a notebook. Dieses Feld kann nicht zusammen mit spark_jar_task angegeben werden.This field may not be specified in conjunction with spark_jar_task.

Wenn spark_jar_task, wird angegeben, dass für diesen Auftrag ein JAR ausgeführt werden soll.If spark_jar_task, indicates that this job should run a JAR.

Wenn spark_python_task, wird angegeben, dass von diesem Auftrag eine python-Datei ausgeführt werden soll.If spark_python_task, indicates that this job should run a Python file.

Wenn spark_submit_task, gibt an, dass dieser Auftrag das Spark-Submit-Skript ausführen soll.If spark_submit_task, indicates that this job should run spark submit script.
namename STRING Ein optionaler Name für den Auftrag.An optional name for the job. Der Standardwert ist Untitled.The default value is Untitled.
librarieslibraries Ein Array der BibliothekAn array of Library Eine optionale Liste der Bibliotheken, die auf dem Cluster installiert werden sollen, von dem der Auftrag ausgeführt wird.An optional list of libraries to be installed on the cluster that will execute the job. Der Standardwert ist eine leere Liste.The default value is an empty list.
email_notificationsemail_notifications JobemailbenachrichtigungenJobEmailNotifications Ein optionaler Satz von e-Mail-Adressen, der benachrichtigt wird, wenn die Ausführung dieses Auftrags beginnt und beendet wird und wenn dieser Auftrag gelöscht wirdAn optional set of email addresses notified when runs of this job begin and complete and when this job is deleted. Das Standardverhalten besteht darin, keine e-Mails zu senden.The default behavior is to not send any emails.
timeout_secondstimeout_seconds INT32 Ein optionales Timeout, das auf jede ausführen dieses Auftrags angewendet wird.An optional timeout applied to each run of this job. Das Standardverhalten ist, dass kein Timeout vorhanden ist.The default behavior is to have no timeout.
max_retriesmax_retries INT32 Eine optionale maximale Anzahl von Wiederholungs versuchen für eine fehlgeschlagene Testlauf.An optional maximum number of times to retry an unsuccessful run. Eine Ausführung wird als nicht erfolgreich betrachtet, wenn Sie mit dem FAILED result_state oderA run is considered to be unsuccessful if it completes with the FAILED result_state or
INTERNAL_ERROR
life_cycle_state.life_cycle_state. Der Wert-1 bedeutet, dass ein wiederholter Versuch unbegrenzt durchgesetzt werden soll. der Wert 0 bedeutet, dass nie versucht wirdThe value -1 means to retry indefinitely and the value 0 means to never retry. Das Standardverhalten besteht darin, nie einen Wiederholungsversuch auszuführen.The default behavior is to never retry.
min_retry_interval_millismin_retry_interval_millis INT32 Ein optionales minimal Intervall in Millisekunden zwischen dem Start der fehlgeschlagenen Testlauf und der nachfolgenden Wiederholung.An optional minimal interval in milliseconds between the start of the failed run and the subsequent retry run. Das Standardverhalten besteht darin, dass nicht erfolgreiche Ausführungen sofort wiederholt werden.The default behavior is that unsuccessful runs are immediately retried.
retry_on_timeoutretry_on_timeout BOOL Eine optionale Richtlinie, die angibt, ob ein Auftrag bei einem Timeout wiederholt werden soll. Das Standardverhalten besteht darin, bei einem Timeout keinen Wiederholungsversuch auszuführen.An optional policy to specify whether to retry a job when it times out. The default behavior is to not retry on timeout.
scheduleschedule CronscheduleCronSchedule Ein optionaler regelmäßiger Zeitplan für diesen Auftrag.An optional periodic schedule for this job. Das Standardverhalten ist, dass der Auftrag ausgeführt wird, indem er in der Benutzeroberfläche des Jobs auf jetzt ausführen klickt oder eine API-Anforderung an sendet runNow .The default behavior is that the job runs when triggered by clicking Run Now in the Jobs UI or sending an API request to runNow.
max_concurrent_runsmax_concurrent_runs INT32 Eine optionale maximal zulässige Anzahl von gleichzeitigen Ausführungen des Auftrags.An optional maximum allowed number of concurrent runs of the job.

Legen Sie diesen Wert fest, wenn Sie in der Lage sein möchten, mehrere Ausführungen desselben Auftrags gleichzeitig auszuführen.Set this value if you want to be able to execute multiple runs of the same job concurrently. Dies ist beispielsweise hilfreich, wenn Sie den Auftrag in einem regelmäßigen Zeitplan auslassen und die Überschneidung von aufeinander folgenden Ausführungen zulassen möchten, oder wenn Sie mehrere Ausführungen auslassen möchten, die sich durch ihre Eingabeparameter unterscheiden.This is useful for example if you trigger your job on a frequent schedule and want to allow consecutive runs to overlap with each other, or if you want to trigger multiple runs which differ by their input parameters.

Diese Einstellung wirkt sich nur auf neue Ausführungen aus.This setting affects only new runs. Nehmen wir beispielsweise an, dass die Parallelität des Auftrags 4 beträgt und vier gleichzeitige aktive Ausführungen vorhanden sind.For example, suppose the job’s concurrency is 4 and there are 4 concurrent active runs. Wenn Sie die Parallelität auf "3" festlegen, werden die aktiven Ausführungen nicht beendet.Then setting the concurrency to 3 won’t kill any of the active runs. Allerdings werden neue Ausführungen von dort aus übersprungen, es sei denn, es gibt weniger als drei aktive Testläufe.However, from then on, new runs are skipped unless there are fewer than 3 active runs.

Dieser Wert darf 1000 nicht überschreiten.This value cannot exceed 1000. Wenn Sie diesen Wert auf 0 festlegen, werden alle neuen Ausführungen übersprungen.Setting this value to 0 causes all new runs to be skipped. Das Standardverhalten besteht darin, nur 1 gleichzeitige Laufzeit zuzulassen.The default behavior is to allow only 1 concurrent run.

Antwort Struktur Response structure

FeldnameField Name typeType BeschreibungDescription
job_idjob_id INT64 Der kanonische Bezeichner für den neu erstellten Auftrag.The canonical identifier for the newly created job.

Liste List

EndpunktEndpoint HTTP-MethodeHTTP Method
2.0/jobs/list GET

Führt alle Aufträgen auf.List all jobs. Beispiel Antwort:An example response:

{
  "jobs": [
    {
      "job_id": 1,
      "settings": {
        "name": "Nightly model training",
        "new_cluster": {
          "spark_version": "7.3.x-scala2.12",
          "node_type_id": "Standard_D3_v2",
          "num_workers": 10
        },
        "libraries": [
          {
            "jar": "dbfs:/my-jar.jar"
          },
          {
            "maven": {
              "coordinates": "org.jsoup:jsoup:1.7.2"
            }
          }
        ],
        "timeout_seconds": 100000000,
        "max_retries": 1,
        "schedule": {
          "quartz_cron_expression": "0 15 22 ? * *",
          "timezone_id": "America/Los_Angeles",
          "pause_status": "UNPAUSED"
        },
        "spark_jar_task": {
          "main_class_name": "com.databricks.ComputeModels"
        }
      },
      "created_time": 1457570074236
    }
  ]
}

Antwort Struktur Response structure

FeldnameField Name typeType BeschreibungDescription
jobsjobs Ein Auftrags ArrayAn array of Job Die Liste der Aufträge.The list of jobs.

Löschen Delete

EndpunktEndpoint HTTP-MethodeHTTP Method
2.0/jobs/delete POST

Löschen Sie den Auftrag, und senden Sie eine e-Mail an die Adressen, die in angegeben sind JobSettings.email_notifications .Delete the job and send an email to the addresses specified in JobSettings.email_notifications. Es findet keine Aktion statt, wenn der Auftrag bereits entfernt wurde.No action occurs if the job has already been removed. Nachdem der Auftrag entfernt wurde, werden weder seine Details noch der zugehörige Lauf Verlauf über die Benutzeroberfläche oder die API angezeigt.After the job is removed, neither its details or its run history is visible via the Jobs UI or API. Der Auftrag wird nach Abschluss dieser Anforderung garantiert entfernt.The job is guaranteed to be removed upon completion of this request. Allerdings sind die Ausführungen, die vor dem Empfang dieser Anforderung aktiv waren, möglicherweise immer noch aktiv.However, runs that were active before the receipt of this request may still be active. Sie werden asynchron beendet.They will be terminated asynchronously.

Eine Beispiel Anforderung:An example request:

{
  "job_id": 1
}

Anforderungs Struktur Request structure

Löschen Sie einen Auftrag, und senden Sie eine e-Mail an die Adressen, die in angegeben sind JobSettings.email_notifications .Delete a job and send an email to the addresses specified in JobSettings.email_notifications. Es findet keine Aktion statt, wenn der Auftrag bereits entfernt wurde.No action occurs if the job has already been removed. Nachdem der Auftrag entfernt wurde, werden weder seine Details noch der zugehörige Lauf Verlauf über die Benutzeroberfläche oder die API angezeigt.After the job is removed, neither its details nor its run history is visible via the Jobs UI or API. Der Auftrag wird nach Abschluss dieser Anforderung garantiert entfernt.The job is guaranteed to be removed upon completion of this request. Allerdings sind die Ausführungen, die vor dem Empfang dieser Anforderung aktiv waren, möglicherweise immer noch aktiv.However, runs that were active before the receipt of this request may still be active. Sie werden asynchron beendet.They will be terminated asynchronously.

FeldnameField Name typeType BeschreibungDescription
job_idjob_id INT64 Der kanonische Bezeichner des zu löschenden Auftrags.The canonical identifier of the job to delete. Dieses Feld ist erforderlich.This field is required.

Get Get

EndpunktEndpoint HTTP-MethodeHTTP Method
2.0/jobs/get GET

Ruft Informationen zu einem einzelnen Auftrag ab.Retrieves information about a single job. Eine Beispiel Anforderung:An example request:

/jobs/get?job_id=1

Beispiel Antwort:An example response:

{
  "job_id": 1,
  "settings": {
    "name": "Nightly model training",
    "new_cluster": {
      "spark_version": "7.3.x-scala2.12",
      "node_type_id": "Standard_D3_v2",
      "num_workers": 10
    },
    "libraries": [
      {
        "jar": "dbfs:/my-jar.jar"
      },
      {
        "maven": {
          "coordinates": "org.jsoup:jsoup:1.7.2"
        }
      }
    ],
    "timeout_seconds": 100000000,
    "max_retries": 1,
    "schedule": {
      "quartz_cron_expression": "0 15 22 ? * *",
      "timezone_id": "America/Los_Angeles",
      "pause_status": "UNPAUSED"
    },
    "spark_jar_task": {
      "main_class_name": "com.databricks.ComputeModels"
    }
  },
  "created_time": 1457570074236
}

Anforderungs Struktur Request structure

Abrufen von Informationen zu einem einzelnen Auftrag.Retrieve information about a single job.

FeldnameField Name typeType BeschreibungDescription
job_idjob_id INT64 Der kanonische Bezeichner des Auftrags, über den Informationen abgerufen werden sollen.The canonical identifier of the job to retrieve information about. Dieses Feld ist erforderlich.This field is required.

Antwort Struktur Response structure

FeldnameField Name typeType BeschreibungDescription
job_idjob_id INT64 Der kanonische Bezeichner für diesen Auftrag.The canonical identifier for this job.
creator_user_namecreator_user_name STRING Der Ersteller-Benutzername.The creator user name. Dieses Feld wird nicht in die Antwort eingeschlossen, wenn der Benutzer bereits gelöscht wurde.This field won’t be included in the response if the user has already been deleted.
settingssettings JobsettingsJobSettings Einstellungen für diesen Auftrag und alle seine Ausführungen.Settings for this job and all of its runs. Diese Einstellungen können mit der-Methode aktualisiert werden resetJob .These settings can be updated using the resetJob method.
created_timecreated_time INT64 Der Zeitpunkt, zu dem dieser Auftrag in Epochen Millisekunden (Millisekunden seit 1/1/1970 UTC) erstellt wurde.The time at which this job was created in epoch milliseconds (milliseconds since 1/1/1970 UTC).

Zurücksetzen Reset

EndpunktEndpoint HTTP-MethodeHTTP Method
2.0/jobs/reset POST

Überschreiben Sie die Auftrags Einstellungen.Overwrite job settings.

Eine Beispiel Anforderung, bei der Job 2 als Job 1 (aus dem create_job Beispiel) aussieht, ist:An example request that makes job 2 look like job 1 (from the create_job example):

{
  "job_id": 2,
  "new_settings": {
    "name": "Nightly model training",
    "new_cluster": {
      "spark_version": "7.3.x-scala2.12",
      "node_type_id": "Standard_D3_v2",
      "num_workers": 10
    },
    "libraries": [
      {
        "jar": "dbfs:/my-jar.jar"
      },
      {
        "maven": {
          "coordinates": "org.jsoup:jsoup:1.7.2"
        }
      }
    ],
    "timeout_seconds": 100000000,
    "max_retries": 1,
    "schedule": {
      "quartz_cron_expression": "0 15 22 ? * *",
      "timezone_id": "America/Los_Angeles",
      "pause_status": "UNPAUSED"
    },
    "spark_jar_task": {
      "main_class_name": "com.databricks.ComputeModels"
    }
  }
}

Anforderungs Struktur Request structure

Überschreiben Sie die Auftrags Einstellungen.Overwrite job settings.

FeldnameField Name typeType BeschreibungDescription
job_idjob_id INT64 Der kanonische Bezeichner des zurück zusetzenden Auftrags.The canonical identifier of the job to reset. Dieses Feld ist erforderlich.This field is required.
new_settingsnew_settings JobsettingsJobSettings Die neuen Einstellungen des Auftrags.The new settings of the job. Mit diesen neuen Einstellungen werden die alten Einstellungen vollständig ersetzt.These new settings replace the old settings entirely.

Änderungen an den folgenden Feldern werden nicht auf aktive Ausführungen angewendet:Changes to the following fields are not applied to active runs:
JobSettings.cluster_spec oder JobSettings.taskJobSettings.cluster_spec or JobSettings.task.

Änderungen an den folgenden Feldern werden auf aktive Ausführungen und zukünftige Ausführungen angewendet:Changes to the following fields are applied to active runs as well as future runs:
JobSettings.timeout_second, JobSettings.email_notificationsoder JobSettings.timeout_second, JobSettings.email_notifications, or
JobSettings.retry_policy.JobSettings.retry_policy. Dieses Feld ist erforderlich.This field is required.

Jetzt ausführen Run now

Wichtig

  • Die Anzahl von Aufträgen ist auf 1.000 beschränkt.The number of jobs is limited to 1000.
  • Die Anzahl der Aufträge, die ein Arbeitsbereich innerhalb einer Stunde erstellen kann, ist auf 5000 beschränkt (einschließlich "jetzt ausführen" und "Ausführung übermitteln").The number of jobs a workspace can create in an hour is limited to 5000 (includes “run now” and “runs submit”). Diese Beschränkung wirkt sich auch auf Aufträge aus, die mit den REST-API- und Notebook-Workflows erstellt wurden.This limit also affects jobs created by the REST API and notebook workflows.
  • Ein Arbeitsbereich ist auf 150 gleichzeitige (ausgeführte) Auftragsausführungen beschränkt.A workspace is limited to 150 concurrent (running) job runs.
  • Ein Arbeitsbereich ist auf 1.000 aktive Auftragsausführungen (ausgeführt und ausstehend) beschränkt.A workspace is limited to 1000 active (running and pending) job runs.
EndpunktEndpoint HTTP-MethodeHTTP Method
2.0/jobs/run-now POST

Führen Sie jetzt einen Auftrag aus, und geben Sie den run_id der ausgelösten Testlauf zurück.Run a job now and return the run_id of the triggered run.

Hinweis

Wenn Sie " Erstellen " mit "jetzt ausführen" und " jetzt ausführen " verwenden, sind Sie möglicherweise an der Übermittlung -API für die Ausführungen interessiert.If you find yourself using Create together with Run now a lot, you may actually be interested in the Runs submit API. Mit diesem API-Endpunkt können Sie Ihre Workloads direkt übermitteln, ohne einen Auftrag in Azure Databricks erstellen zu müssen.This API endpoint allows you to submit your workloads directly without having to create a job in Azure Databricks.

Beispiel Anforderung für einen Notebook-Auftrag:An example request for a notebook job:

{
  "job_id": 1,
  "notebook_params": {
    "dry-run": "true",
    "oldest-time-to-consider": "1457570074236"
  }
}

Eine Beispiel Anforderung für einen jar-Auftrag:An example request for a JAR job:

{
  "job_id": 2,
  "jar_params": ["param1", "param2"]
}

Anforderungs Struktur Request structure

Führen Sie jetzt einen Auftrag aus, und geben Sie den run_id der ausgelösten Testlauf zurück.Run a job now and return the run_id of the triggered run.

FeldnameField Name typeType BeschreibungDescription
job_idjob_id INT64
jar_paramsjar_params Ein Array von STRINGAn array of STRING Eine Liste von Parametern für Aufträge mit jar-Aufgaben, z. b. "jar_params": ["john doe", "35"] .A list of parameters for jobs with JAR tasks, e.g. "jar_params": ["john doe", "35"]. Die Parameter werden verwendet, um die Main-Funktion der Hauptklasse aufzurufen, die in der Spark-jar-Aufgabe angegeben ist.The parameters will be used to invoke the main function of the main class specified in the Spark JAR task. Wenn nicht angegeben run-now wird, wird standardmäßig eine leere Liste angezeigt.If not specified upon run-now, it will default to an empty list. jar_params kann nicht in Verbindung mit notebook_params angegeben werden.jar_params cannot be specified in conjunction with notebook_params. Die JSON-Darstellung dieses Felds (d. h. {"jar_params":["john doe","35"]} ) darf 10.000 Bytes nicht überschreiten.The JSON representation of this field (i.e. {"jar_params":["john doe","35"]}) cannot exceed 10,000 bytes.
notebook_paramsnotebook_params Eine Karte des parampairA map of ParamPair Eine Zuordnung von Schlüsseln zu Werten für Aufträge mit Notebook-Aufgabe, z. b.A map from keys to values for jobs with notebook task, e.g.
"notebook_params": {"name": "john doe", "age": "35"}."notebook_params": {"name": "john doe", "age": "35"}. Die Karte wird an das Notebook übermittelt und kann über die Funktion dbutils. widgets. Get aufgerufen werden .The map is passed to the notebook and is accessible through the dbutils.widgets.get function.

Wenn nicht angegeben run-now wird, werden die Basisparameter des Auftrags von der ausgelösten Laufzeit verwendet.If not specified upon run-now, the triggered run uses the job’s base parameters.

notebook_params kann nicht in Verbindung mit jar_params angegeben werden.notebook_params cannot be specified in conjunction with jar_params.

Die JSON-Darstellung dieses Felds (d. h.The JSON representation of this field (i.e.
{"notebook_params":{"name":"john doe","age":"35"}}) darf nicht länger als 10.000 Bytes sein.{"notebook_params":{"name":"john doe","age":"35"}}) cannot exceed 10,000 bytes.
python_paramspython_params Ein Array von STRINGAn array of STRING Eine Liste von Parametern für Aufträge mit python-Aufgaben, z. b. "python_params": ["john doe", "35"] .A list of parameters for jobs with Python tasks, e.g. "python_params": ["john doe", "35"]. Die Parameter werden als Befehlszeilenparameter an die python-Datei übermittelt.The parameters will be passed to Python file as command-line parameters. Wenn für angegeben run-now , werden die in der Auftragseinstellung angegebenen Parameter überschrieben.If specified upon run-now, it would overwrite the parameters specified in job setting. Die JSON-Darstellung dieses Felds (d. h. {"python_params":["john doe","35"]} ) darf 10.000 Bytes nicht überschreiten.The JSON representation of this field (i.e. {"python_params":["john doe","35"]}) cannot exceed 10,000 bytes.
spark_submit_paramsspark_submit_params Ein Array von STRINGAn array of STRING Eine Liste von Parametern für Aufträge mit dem Spark-Submit-Task, z. b.A list of parameters for jobs with spark submit task, e.g.
"spark_submit_params": ["--class", "org.apache.spark.examples.SparkPi"]."spark_submit_params": ["--class", "org.apache.spark.examples.SparkPi"]. Die Parameter werden als Befehlszeilenparameter an das Spark-Submit-Skript übergeben.The parameters will be passed to spark-submit script as command-line parameters. Wenn für angegeben run-now , werden die in der Auftragseinstellung angegebenen Parameter überschrieben.If specified upon run-now, it would overwrite the parameters specified in job setting. Die JSON-Darstellung dieses Felds darf nicht mehr als 10.000 Byte betragen.The JSON representation of this field cannot exceed 10,000 bytes.

Antwort Struktur Response structure

FeldnameField Name typeType BeschreibungDescription
run_idrun_id INT64 Die global eindeutige ID der neu ausgelösten Testlauf.The globally unique ID of the newly triggered run.
number_in_jobnumber_in_job INT64 Die Sequenznummer dieser Ausführung bei allen Ausführungen des Auftrags.The sequence number of this run among all runs of the job.

Übermitteln Runs submit

Wichtig

  • Die Anzahl von Aufträgen ist auf 1.000 beschränkt.The number of jobs is limited to 1000.
  • Die Anzahl der Aufträge, die ein Arbeitsbereich innerhalb einer Stunde erstellen kann, ist auf 5000 beschränkt (einschließlich "jetzt ausführen" und "Ausführung übermitteln").The number of jobs a workspace can create in an hour is limited to 5000 (includes “run now” and “runs submit”). Diese Beschränkung wirkt sich auch auf Aufträge aus, die mit den REST-API- und Notebook-Workflows erstellt wurden.This limit also affects jobs created by the REST API and notebook workflows.
  • Ein Arbeitsbereich ist auf 150 gleichzeitige (ausgeführte) Auftragsausführungen beschränkt.A workspace is limited to 150 concurrent (running) job runs.
  • Ein Arbeitsbereich ist auf 1.000 aktive Auftragsausführungen (ausgeführt und ausstehend) beschränkt.A workspace is limited to 1000 active (running and pending) job runs.
EndpunktEndpoint HTTP-MethodeHTTP Method
2.0/jobs/runs/submit POST

Übermitteln Sie einen einmaligen Testlauf.Submit a one-time run. Dieser Endpunkt erfordert nicht, dass ein databricks-Auftrag erstellt wird.This endpoint doesn’t require a Databricks job to be created. Sie können ihre Arbeitsauslastung direkt übermitteln.You can directly submit your workload. Über diesen Endpunkt gesendete Ausführungen werden nicht in der Benutzeroberfläche angezeigt.Runs submitted via this endpoint don’t display in the UI. Nachdem der Testlauf gesendet wurde, verwenden jobs/runs/get Sie die API, um den Lauf Zustand zu überprüfen.Once the run is submitted, use the jobs/runs/get API to check the run state.

Eine Beispiel Anforderung:An example request:

{
  "run_name": "my spark task",
  "new_cluster": {
    "spark_version": "7.3.x-scala2.12",
    "node_type_id": "Standard_D3_v2",
    "num_workers": 10
  },
  "libraries": [
    {
      "jar": "dbfs:/my-jar.jar"
    },
    {
      "maven": {
        "coordinates": "org.jsoup:jsoup:1.7.2"
      }
    }
  ],
  "spark_jar_task": {
    "main_class_name": "com.databricks.ComputeModels"
  }
}

Und Antwort:And response:

{
  "run_id": 123
}

Anforderungs Struktur Request structure

Übermitteln Sie einen neuen Testlauf mit den angegebenen Einstellungen.Submit a new run with the provided settings.

Wichtig

  • Wenn Sie einen Auftrag in einem neuen Auftrags Cluster ausführen, wird der Auftrag als Auftrags Compute-Arbeitsauslastung (automatisiert) behandelt, die den computepreisen für Aufträge unterliegt.When you run a job on a new jobs cluster, the job is treated as a Jobs Compute (automated) workload subject to Jobs Compute pricing.
  • Wenn Sie einen Auftrag für einen vorhandenen gesamten Cluster ausführen, wird er als All-Purpose Compute-Arbeitsauslastung (interaktiv) behandelt, die All-Purpose computepreisen unterliegt.When you run a job on an existing all-purpose cluster, it is treated as an All-Purpose Compute (interactive) workload subject to All-Purpose Compute pricing.
FeldnameField Name typeType BeschreibungDescription
existing_cluster_id oder new_clusterexisting_cluster_id OR new_cluster STRING Oder newclusterSTRING OR NewCluster Wenn existing_cluster_id, die ID eines vorhandenen Clusters, der für alle Ausführungen dieses Auftrags verwendet wird.If existing_cluster_id, the ID of an existing cluster that will be used for all runs of this job. Wenn Sie Aufträge auf einem vorhandenen Cluster ausführen, müssen Sie den Cluster möglicherweise manuell neu starten, wenn er nicht mehr reagiert.When running jobs on an existing cluster, you may need to manually restart the cluster if it stops responding. Wir empfehlen die Ausführung von Aufträgen in neuen Clustern, um die Zuverlässigkeit zu erhöhen.We suggest running jobs on new clusters for greater reliability.

Wenn new_cluster, eine Beschreibung eines Clusters, der für jede Testlauf erstellt wird.If new_cluster, a description of a cluster that will be created for each run.
notebook_task oder spark_jar_task oder spark_python_task oder spark_submit_tasknotebook_task OR spark_jar_task OR spark_python_task OR spark_submit_task Notebooktask Oder sparkjartask oder sparkpythontask oder sparksubmittaskNotebookTask OR SparkJarTask OR SparkPythonTask OR SparkSubmitTask Wenn notebook_task, wird angegeben, dass für diesen Auftrag ein Notebook ausgeführt werden soll.If notebook_task, indicates that this job should run a notebook. Dieses Feld kann nicht zusammen mit spark_jar_task angegeben werden.This field may not be specified in conjunction with spark_jar_task.

Wenn spark_jar_task, wird angegeben, dass für diesen Auftrag ein JAR ausgeführt werden soll.If spark_jar_task, indicates that this job should run a JAR.

Wenn spark_python_task, wird angegeben, dass von diesem Auftrag eine python-Datei ausgeführt werden soll.If spark_python_task, indicates that this job should run a Python file.

Wenn spark_submit_task, gibt an, dass dieser Auftrag das Spark-Submit-Skript ausführen soll.If spark_submit_task, indicates that this job should run spark submit script.
run_namerun_name STRING Ein optionaler Name für den Testlauf.An optional name for the run. Der Standardwert ist Untitled.The default value is Untitled.
librarieslibraries Ein Array der BibliothekAn array of Library Eine optionale Liste der Bibliotheken, die auf dem Cluster installiert werden sollen, von dem der Auftrag ausgeführt wird.An optional list of libraries to be installed on the cluster that will execute the job. Der Standardwert ist eine leere Liste.The default value is an empty list.
timeout_secondstimeout_seconds INT32 Ein optionales Timeout, das auf jede ausführen dieses Auftrags angewendet wird.An optional timeout applied to each run of this job. Das Standardverhalten ist, dass kein Timeout vorhanden ist.The default behavior is to have no timeout.
idempotency_tokenidempotency_token STRING Ein optionales Token, das verwendet werden kann, um die Idempotenz von Auftrags Lauf Anforderungen zu gewährleisten.An optional token that can be used to guarantee the idempotency of job run requests. Wenn bereits ein aktiver Testlauf mit dem bereitgestellten Token vorhanden ist, wird von der Anforderung kein neuer Testlauf erstellt, sondern stattdessen die ID der vorhandenen Testlauf zurückgegeben.If an active run with the provided token already exists, the request will not create a new run, but will return the ID of the existing run instead.

Wenn Sie das Idempotenz-Token angeben, können Sie bei einem Fehler einen Wiederholungsversuch durchführen, bis die Anforderung erfolgreich ist.If you specify the idempotency token, upon failure you can retry until the request succeeds. Azure Databricks wird sichergestellt, dass genau ein Testlauf mit diesem Idempotenz-Token gestartet wird.Azure Databricks guarantees that exactly one run will be launched with that idempotency token.

Dieses Token darf höchstens 64 Zeichen umfassen.This token should have at most 64 characters.

Antwort Struktur Response structure

FeldnameField Name typeType BeschreibungDescription
run_idrun_id INT64 Der kanonische Bezeichner für den neu übermittelten Testlauf.The canonical identifier for the newly submitted run.

Liste der Ausführungen Runs list

EndpunktEndpoint HTTP-MethodeHTTP Method
2.0/jobs/runs/list GET

Die Liste wird von den zuletzt gestarteten bis zum wenigsten gestartet.List runs from most recently started to least.

Hinweis

Ausführungen werden nach 60 Tagen automatisch entfernt.Runs are automatically removed after 60 days. Wenn Sie über 60 Tage hinaus referenzieren möchten, sollten Sie alte Ergebnisse speichern, bevor Sie ablaufen.If you to want to reference them beyond 60 days, you should save old run results before they expire. Informationen zum Exportieren über die Benutzeroberfläche finden Sie unter Ergebnisse der Export Auftrags Führung.To export using the UI, see Export job run results. Informationen zum Exportieren mit der Auftrags-API finden Sie unter Ausführen des Exports.To export using the Job API, see Runs export.

Eine Beispiel Anforderung:An example request:

/jobs/runs/list?job_id=1&active_only=false&offset=1&limit=1

Und Antwort:And response:

{
  "runs": [
    {
      "job_id": 1,
      "run_id": 452,
      "number_in_job": 5,
      "state": {
        "life_cycle_state": "RUNNING",
        "state_message": "Performing action"
      },
      "task": {
        "notebook_task": {
          "notebook_path": "/Users/donald@duck.com/my-notebook"
        }
      },
      "cluster_spec": {
        "existing_cluster_id": "1201-my-cluster"
      },
      "cluster_instance": {
        "cluster_id": "1201-my-cluster",
        "spark_context_id": "1102398-spark-context-id"
      },
      "overriding_parameters": {
        "jar_params": ["param1", "param2"]
      },
      "start_time": 1457570074236,
      "setup_duration": 259754,
      "execution_duration": 3589020,
      "cleanup_duration": 31038,
      "trigger": "PERIODIC"
    }
  ],
  "has_more": true
}

Anforderungs Struktur Request structure

Die Liste wird von den zuletzt gestarteten bis zum wenigsten gestartet.List runs from most recently started to least.

FeldnameField Name typeType BeschreibungDescription
active_only oder completed_onlyactive_only OR completed_only BOOL Noch BOOLBOOL OR BOOL Wenn active_only ist true , werden nur aktive Ausführungen in die Ergebnisse eingeschlossen; andernfalls werden sowohl aktive als auch abgeschlossene Ausführungen aufgelistet.If active_only is true, only active runs are included in the results; otherwise, lists both active and completed runs. Eine aktive Ausführung ist eine Ausführung in PENDING , RUNNING oder TERMINATING runlifecyclestate.An active run is a run in the PENDING, RUNNING, or TERMINATING RunLifecycleState. Dieses Feld kann nicht sein, true Wenn completed_only ist true .This field cannot be true when completed_only is true.

Wenn completed_only ist true , werden nur abgeschlossene Ausführungen in die Ergebnisse eingeschlossen; andernfalls werden sowohl aktive als auch abgeschlossene Ausführungen aufgelistet.If completed_only is true, only completed runs are included in the results; otherwise, lists both active and completed runs. Dieses Feld kann nicht sein, true Wenn active_only ist true .This field cannot be true when active_only is true.
job_idjob_id INT64 Der Auftrag, für den die Liste ausgeführt werden soll.The job for which to list runs. Wenn der Auftrags Dienst nicht ausgelassen wird, werden alle Aufträge ausgeführt.If omitted, the Jobs service will list runs from all jobs.
offsetoffset INT32 Der Offset der ersten zurück zugebende Laufzeit, relativ zur letzten Testlauf.The offset of the first run to return, relative to the most recent run.
limitlimit INT32 Die Anzahl der zurück zugebende Ausführungen.The number of runs to return. Dieser Wert muss größer als 0 und kleiner als 1000 sein.This value should be greater than 0 and less than 1000. Der Standardwert lautet 20.The default value is 20. Wenn eine Anforderung ein Limit von 0 (null) angibt, verwendet der Dienst stattdessen den maximalen Grenzwert.If a request specifies a limit of 0, the service will instead use the maximum limit.

Antwort Struktur Response structure

FeldnameField Name typeType BeschreibungDescription
Parallelruns Ein Array von RunAn array of Run Eine Liste der Ausführungen, von den zuletzt gestarteten bis zum geringsten.A list of runs, from most recently started to least.
has_morehas_more BOOL True gibt an, dass zusätzliche mit dem angegebenen Filter übereinstimmende Ausführungen für die Auflistung verfügbar sind.If true, additional runs matching the provided filter are available for listing.

Führt Get aus Runs get

EndpunktEndpoint HTTP-MethodeHTTP Method
2.0/jobs/runs/get GET

Ruft die Metadaten einer Testlauf ab.Retrieve the metadata of a run.

Hinweis

Ausführungen werden nach 60 Tagen automatisch entfernt.Runs are automatically removed after 60 days. Wenn Sie über 60 Tage hinaus referenzieren möchten, sollten Sie alte Ergebnisse speichern, bevor Sie ablaufen.If you to want to reference them beyond 60 days, you should save old run results before they expire. Informationen zum Exportieren über die Benutzeroberfläche finden Sie unter Ergebnisse der Export Auftrags Führung.To export using the UI, see Export job run results. Informationen zum Exportieren mit der Auftrags-API finden Sie unter Ausführen des Exports.To export using the Job API, see Runs export.

Eine Beispiel Anforderung:An example request:

/jobs/runs/get?run_id=452

Beispiel Antwort:An example response:

{
  "job_id": 1,
  "run_id": 452,
  "number_in_job": 5,
  "state": {
    "life_cycle_state": "RUNNING",
    "state_message": "Performing action"
  },
  "task": {
    "notebook_task": {
      "notebook_path": "/Users/donald@duck.com/my-notebook"
    }
  },
  "cluster_spec": {
    "existing_cluster_id": "1201-my-cluster"
  },
  "cluster_instance": {
    "cluster_id": "1201-my-cluster",
    "spark_context_id": "1102398-spark-context-id"
  },
  "overriding_parameters": {
    "jar_params": ["param1", "param2"]
  },
  "start_time": 1457570074236,
  "setup_duration": 259754,
  "execution_duration": 3589020,
  "cleanup_duration": 31038,
  "trigger": "PERIODIC"
}

Anforderungs Struktur Request structure

Rufen Sie die Metadaten einer Testlauf ohne Ausgabe ab.Retrieve the metadata of a run without any output.

FeldnameField Name typeType BeschreibungDescription
run_idrun_id INT64 Der kanonische Bezeichner der Laufzeit, für die die Metadaten abgerufen werden sollen.The canonical identifier of the run for which to retrieve the metadata. Dieses Feld ist erforderlich.This field is required.

Antwort Struktur Response structure

FeldnameField Name typeType BeschreibungDescription
job_idjob_id INT64 Der kanonische Bezeichner des Auftrags, der diesen Testlauf enthält.The canonical identifier of the job that contains this run.
run_idrun_id INT64 Der kanonische Bezeichner des Testlaufs.The canonical identifier of the run. Diese ID ist in allen Ausführungen aller Aufträge eindeutig.This ID is unique across all runs of all jobs.
number_in_jobnumber_in_job INT64 Die Sequenznummer dieser Ausführung bei allen Ausführungen des Auftrags.The sequence number of this run among all runs of the job. Dieser Wert beginnt bei 1.This value starts at 1.
original_attempt_run_idoriginal_attempt_run_id INT64 Wenn dieser Vorgang eine Wiederholung eines vorherigen Versuchs ist, enthält dieses Feld den run_id des ursprünglichen Versuchs. Andernfalls ist sie identisch mit dem run_id.If this run is a retry of a prior run attempt, this field contains the run_id of the original attempt; otherwise, it is the same as the run_id.
statestate RunStateRunState Die Ergebnis-und Lebenszyklus Zustände der Laufzeit.The result and lifecycle states of the run.
scheduleschedule CronscheduleCronSchedule Der cron-Zeitplan, der diese Ausführung ausgelöst hat, wenn er durch den periodischen Planer ausgelöst wurde.The cron schedule that triggered this run if it was triggered by the periodic scheduler.
tasktask JobtaskJobTask Die von der Ausführung ausgeführte Aufgabe, falls vorhanden.The task performed by the run, if any.
cluster_speccluster_spec ClusterspecClusterSpec Eine Momentaufnahme der Cluster Spezifikation des Auftrags, als diese Testlauf erstellt wurde.A snapshot of the job’s cluster specification when this run was created.
cluster_instancecluster_instance ClusterinstanceClusterInstance Der für diesen Testlauf verwendete Cluster.The cluster used for this run. Wenn der Testlauf für die Verwendung eines neuen Clusters festgelegt wird, wird dieses Feld festgelegt, sobald der Auftrags Dienst einen Cluster für den Testlauf angefordert hat.If the run is specified to use a new cluster, this field will be set once the Jobs service has requested a cluster for the run.
overriding_parametersoverriding_parameters RunparametersRunParameters Die Parameter, die für diesen Testlauf verwendet werden.The parameters used for this run.
start_timestart_time INT64 Der Zeitpunkt, zu dem dieser Testlauf in Epochen Millisekunden (Millisekunden seit 1/1/1970 UTC) gestartet wurde.The time at which this run was started in epoch milliseconds (milliseconds since 1/1/1970 UTC). Dies ist möglicherweise nicht der Zeitpunkt, zu dem die Ausführung des Auftrags Tasks beginnt, z. b., wenn der Auftrag für die Ausführung auf einem neuen Cluster geplant ist, dies ist der Zeitpunkt, an dem der Aufruf der Cluster Erstellung ausgeführt wird.This may not be the time when the job task starts executing, for example, if the job is scheduled to run on a new cluster, this is the time the cluster creation call is issued.
setup_durationsetup_duration INT64 Die zum Einrichten des Clusters benötigte Zeit in Millisekunden.The time it took to set up the cluster in milliseconds. Bei Ausführungen, die auf neuen Clustern ausgeführt werden, handelt es sich hierbei um die Cluster Erstellungszeit. für Ausführungen, die auf vorhandenen Clustern ausgeführt werden, sollte diese Zeit sehr kurz sein.For runs that run on new clusters this is the cluster creation time, for runs that run on existing clusters this time should be very short.
execution_durationexecution_duration INT64 Die Zeit in Millisekunden, die benötigt wurde, um die Befehle in der JAR-Datei oder dem Notebook auszuführen, bis Sie abgeschlossen sind, fehlgeschlagen sind, ein Timeout aufgetreten ist oder ein unerwarteter Fehler aufgetreten ist.The time in milliseconds it took to execute the commands in the JAR or notebook until they completed, failed, timed out, were cancelled, or encountered an unexpected error.
cleanup_durationcleanup_duration INT64 Die Zeit in Millisekunden, die benötigt wurde, um den Cluster zu beenden und alle Zwischenergebnisse zu bereinigen, usw. Die Gesamtdauer der Durchführung ist die Summe der setup_duration, der execution_duration und der cleanup_duration.The time in milliseconds it took to terminate the cluster and clean up any intermediary results, etc. The total duration of the run is the sum of the setup_duration, the execution_duration, and the cleanup_duration.
Trigger (trigger)trigger TriggerTypeTriggerType Der Typ des Auslösers, der diese Ausführung ausgelöst hat, z. b. ein regelmäßiger Zeitplan oder eine einmalige Ausführung.The type of trigger that fired this run, e.g., a periodic schedule or a one time run.
creator_user_namecreator_user_name STRING Der Ersteller-Benutzername.The creator user name. Dieses Feld wird nicht in die Antwort eingeschlossen, wenn der Benutzer bereits gelöscht wurde.This field won’t be included in the response if the user has already been deleted.
run_page_urlrun_page_url STRING Die URL zur Detailseite des Testlaufs.The URL to the detail page of the run.

Führt den Export aus Runs export

EndpunktEndpoint HTTP-MethodeHTTP Method
2.0/jobs/runs/export GET

Exportieren und Abrufen der Auftrags Ausführungs AufgabeExport and retrieve the job run task.

Hinweis

Nur Notebook-Ausführungen können im HTML-Format exportiert werden.Only notebook runs can be exported in HTML format. Der Export anderer Ausführungen anderer Typen schlägt fehl.Exporting other runs of other types will fail.

Eine Beispiel Anforderung:An example request:

/jobs/runs/export?run_id=452

Beispiel Antwort:An example response:

{
  "views": [ {
    "content": "<!DOCTYPE html><html><head>Head</head><body>Body</body></html>",
    "name": "my-notebook",
    "type": "NOTEBOOK"
  } ]
}

Um das HTML-Notebook aus der JSON-Antwort zu extrahieren, müssen Sie dieses Python-Skriptherunterladen und ausführen.To extract the HTML notebook from the JSON response, download and run this Python script.

Hinweis

Der Notebook-Text im- __DATABRICKS_NOTEBOOK_MODEL Objekt ist codiert.The notebook body in the __DATABRICKS_NOTEBOOK_MODEL object is encoded.

Anforderungs Struktur Request structure

Ruft den Export einer Auftrags Ausführungs Aufgabe ab.Retrieve the export of a job run task.

FeldnameField Name typeType BeschreibungDescription
run_idrun_id INT64 Der kanonische Bezeichner für den Testlauf.The canonical identifier for the run. Dieses Feld ist erforderlich.This field is required.
views_to_exportviews_to_export ViewstoexportViewsToExport Welche Ansichten exportiert werden sollen (Code, Dashboards oder alle).Which views to export (CODE, DASHBOARDS, or ALL). Der Standardwert ist Code.Defaults to CODE.

Antwort Struktur Response structure

FeldnameField Name typeType BeschreibungDescription
viewsviews Ein Array von ViewItem .An array of ViewItem Der exportierte Inhalt im HTML-Format (einen für jedes Ansichts Element).The exported content in HTML format (one for every view item).

Führt einen Abbruch aus Runs cancel

EndpunktEndpoint HTTP-MethodeHTTP Method
2.0/jobs/runs/cancel POST

Abbrechen einer Testlauf.Cancel a run. Der Testlauf wird asynchron abgebrochen. wenn diese Anforderung abgeschlossen ist, wird die Ausführung möglicherweise weiterhin ausgeführt.The run is canceled asynchronously, so when this request completes, the run may still be running. Der Testlauf wird bald beendet.The run will be terminated shortly. Wenn der Testlauf bereits in einem Terminal ausgeführt wird life_cycle_state , ist diese Methode kein op.If the run is already in a terminal life_cycle_state, this method is a no-op.

Dieser Endpunkt überprüft, ob der run_id Parameter gültig ist, und gibt bei ungültigen Parametern den HTTP-Statuscode 400 zurück.This endpoint validates that the run_id parameter is valid and for invalid parameters returns HTTP status code 400.

Eine Beispiel Anforderung:An example request:

{
  "run_id": 453
}

Anforderungs Struktur Request structure

Abbrechen einer Testlauf.Cancel a run. Der Testlauf wird asynchron abgebrochen. wenn diese Anforderung abgeschlossen ist, ist die Ausführung möglicherweise noch aktiv.The run is canceled asynchronously, so when this request completes the run may be still be active. Der Testlauf wird so bald wie möglich beendet.The run will be terminated as soon as possible.

FeldnameField Name typeType BeschreibungDescription
run_idrun_id INT64 Dieses Feld ist erforderlich.This field is required.

Führt die Ausgabe aus. Runs get output

EndpunktEndpoint HTTP-MethodeHTTP Method
2.0/jobs/runs/get-output GET

Abrufen der Ausgabe einer Testlauf.Retrieve the output of a run. Wenn eine Notebook-Aufgabe über den dbutils. Notebook. Exit () -Befehl einen Wert zurückgibt, können Sie diesen Endpunkt verwenden, um diesen Wert abzurufen.When a notebook task returns a value through the dbutils.notebook.exit() call, you can use this endpoint to retrieve that value. Azure Databricks schränkt diese API ein, um die ersten 5 MB der Ausgabe zurückzugeben.Azure Databricks restricts this API to return the first 5 MB of the output. Wenn Sie ein höheres Ergebnis zurückgeben möchten, können Sie Auftrags Ergebnisse in einem cloudspeicherdienst speichern.For returning a larger result, you can store job results in a cloud storage service.

Dieser Endpunkt überprüft, ob der run_id Parameter gültig ist, und gibt bei ungültigen Parametern den HTTP-Statuscode 400 zurück.This endpoint validates that the run_id parameter is valid and for invalid parameters returns HTTP status code 400.

Ausführungen werden nach 60 Tagen automatisch entfernt.Runs are automatically removed after 60 days. Wenn Sie über 60 Tage hinaus referenzieren möchten, sollten Sie alte Ergebnisse speichern, bevor Sie ablaufen.If you to want to reference them beyond 60 days, you should save old run results before they expire. Informationen zum Exportieren über die Benutzeroberfläche finden Sie unter Ergebnisse der Export Auftrags Führung.To export using the UI, see Export job run results. Informationen zum Exportieren mit der Auftrags-API finden Sie unter Ausführen des Exports.To export using the Job API, see Runs export.

Eine Beispiel Anforderung:An example request:

/jobs/runs/get-output?run_id=453

Und Antwort:And response:

{
  "metadata": {
    "job_id": 1,
    "run_id": 452,
    "number_in_job": 5,
    "state": {
      "life_cycle_state": "TERMINATED",
      "result_state": "SUCCESS",
      "state_message": ""
    },
    "task": {
      "notebook_task": {
        "notebook_path": "/Users/donald@duck.com/my-notebook"
      }
    },
    "cluster_spec": {
      "existing_cluster_id": "1201-my-cluster"
    },
    "cluster_instance": {
      "cluster_id": "1201-my-cluster",
      "spark_context_id": "1102398-spark-context-id"
    },
    "overriding_parameters": {
      "jar_params": ["param1", "param2"]
    },
    "start_time": 1457570074236,
    "setup_duration": 259754,
    "execution_duration": 3589020,
    "cleanup_duration": 31038,
    "trigger": "PERIODIC"
  },
  "notebook_output": {
    "result": "the maybe truncated string passed to dbutils.notebook.exit()"
  }
}

Anforderungs Struktur Request structure

Ruft sowohl die Ausgabe als auch die Metadaten einer Testlauf ab.Retrieves both the output and the metadata of a run.

FeldnameField Name typeType BeschreibungDescription
run_idrun_id INT64 Der kanonische Bezeichner für den Testlauf.The canonical identifier for the run. Dieses Feld ist erforderlich.This field is required.

Antwort Struktur Response structure

FeldnameField Name typeType BeschreibungDescription
notebook_output oder Fehlernotebook_output OR error Notebookoutput Noch STRINGNotebookOutput OR STRING Wenn notebook_output, die Ausgabe eines Notebook-Tasks, falls verfügbar.If notebook_output, the output of a notebook task, if available. Einen Notebook-Task, der beendet wird (entweder erfolgreich oder mit einem Fehler), ohne zu aufrufenA notebook task that terminates (either successfully or with a failure) without calling
dbutils.notebook.exit() gilt als leere Ausgabe.dbutils.notebook.exit() is considered to have an empty output. Dieses Feld wird festgelegt, der Ergebniswert ist jedoch leer.This field will be set but its result value will be empty.

Wenn Fehler, wird eine Fehlermeldung angezeigt, die angibt, warum die Ausgabe nicht verfügbar ist.If error, an error message indicating why output is not available. Die Nachricht ist unstrukturiert, und das genaue Format kann geändert werden.The message is unstructured, and its exact format is subject to change.
metadatametadata RunRun Alle Details des Testlaufs mit Ausnahme der Ausgabe.All details of the run except for its output.

Führt DELETE aus. Runs delete

EndpunktEndpoint HTTP-MethodeHTTP Method
2.0/jobs/runs/delete POST

Löscht einen nicht aktiven Testlauf.Delete a non-active run. Gibt einen Fehler zurück, wenn der Testlauf aktiv ist.Returns an error if the run is active.

Eine Beispiel Anforderung:An example request:

{
  "run_id": 42
}

Anforderungs Struktur Request structure

Rufen Sie die Metadaten einer Testlauf ohne Ausgabe ab.Retrieve the metadata of a run without any output.

FeldnameField Name typeType BeschreibungDescription
run_idrun_id INT64 Der kanonische Bezeichner der Laufzeit, für die die Metadaten abgerufen werden sollen.The canonical identifier of the run for which to retrieve the metadata.

Datenstrukturen Data structures

Inhalt dieses Abschnitts:In this section:

Clusterinstance ClusterInstance

Bezeichner für den Cluster und den Spark-Kontext, der von einem Testlauf verwendet wird.Identifiers for the cluster and Spark context used by a run. Diese beiden Werte identifizieren zusammen einen Ausführungs Kontext für alle Zeit.These two values together identify an execution context across all time.

FeldnameField Name typeType BeschreibungDescription
cluster_idcluster_id STRING Der kanonische Bezeichner für den von einem Testlauf verwendeten Cluster.The canonical identifier for the cluster used by a run. Dieses Feld ist immer für Ausführungen in vorhandenen Clustern verfügbar.This field is always available for runs on existing clusters. Für Ausführungen in neuen Clustern wird Sie nach dem Erstellen des Clusters verfügbar.For runs on new clusters, it becomes available once the cluster is created. Dieser Wert kann verwendet werden, um Protokolle anzuzeigen, indem Sie zu navigieren /#setting/sparkui/$cluster_id/driver-logs .This value can be used to view logs by browsing to /#setting/sparkui/$cluster_id/driver-logs. Die Protokolle werden nach Abschluss der Ausführung weiterhin verfügbar sein.The logs will continue to be available after the run completes.

Wenn dieser Bezeichner noch nicht verfügbar ist, enthält die Antwort dieses Feld nicht.If this identifier is not yet available, the response won’t include this field.
spark_context_idspark_context_id STRING Der kanonische Bezeichner für den von einer Testlauf verwendeten Spark-Kontext.The canonical identifier for the Spark context used by a run. Dieses Feld wird ausgefüllt, sobald die Ausführung der Ausführung beginnt.This field will be filled in once the run begins execution. Dieser Wert kann verwendet werden, um die Spark-Benutzeroberfläche anzuzeigen, indem Sie zu navigieren /#setting/sparkui/$cluster_id/$spark_context_id .This value can be used to view the Spark UI by browsing to /#setting/sparkui/$cluster_id/$spark_context_id. Die Spark-Benutzeroberfläche wird nach Abschluss der Ausführung weiterhin verfügbar sein.The Spark UI will continue to be available after the run has completed.

Wenn dieser Bezeichner noch nicht verfügbar ist, enthält die Antwort dieses Feld nicht.If this identifier is not yet available, the response won’t include this field.

Clusterspec ClusterSpec

Wichtig

  • Wenn Sie einen Auftrag in einem neuen Auftrags Cluster ausführen, wird der Auftrag als Auftrags Compute-Arbeitsauslastung (automatisiert) behandelt, die den computepreisen für Aufträge unterliegt.When you run a job on a new jobs cluster, the job is treated as a Jobs Compute (automated) workload subject to Jobs Compute pricing.
  • Wenn Sie einen Auftrag für einen vorhandenen gesamten Cluster ausführen, wird er als All-Purpose Compute-Arbeitsauslastung (interaktiv) behandelt, die All-Purpose computepreisen unterliegt.When you run a job on an existing all-purpose cluster, it is treated as an All-Purpose Compute (interactive) workload subject to All-Purpose Compute pricing.
FeldnameField Name typeType BeschreibungDescription
existing_cluster_id oder new_clusterexisting_cluster_id OR new_cluster STRING Oder newclusterSTRING OR NewCluster Wenn existing_cluster_id, die ID eines vorhandenen Clusters, der für alle Ausführungen dieses Auftrags verwendet wird.If existing_cluster_id, the ID of an existing cluster that will be used for all runs of this job. Wenn Sie Aufträge auf einem vorhandenen Cluster ausführen, müssen Sie den Cluster möglicherweise manuell neu starten, wenn er nicht mehr reagiert.When running jobs on an existing cluster, you may need to manually restart the cluster if it stops responding. Wir empfehlen die Ausführung von Aufträgen in neuen Clustern, um die Zuverlässigkeit zu erhöhen.We suggest running jobs on new clusters for greater reliability.

Wenn new_cluster, eine Beschreibung eines Clusters, der für jede Testlauf erstellt wird.If new_cluster, a description of a cluster that will be created for each run.
librarieslibraries Ein Array der BibliothekAn array of Library Eine optionale Liste der Bibliotheken, die auf dem Cluster installiert werden sollen, von dem der Auftrag ausgeführt wird.An optional list of libraries to be installed on the cluster that will execute the job. Der Standardwert ist eine leere Liste.The default value is an empty list.

Cronschedule CronSchedule

FeldnameField Name typeType BeschreibungDescription
quartz_cron_expressionquartz_cron_expression STRING Ein Cron-Ausdruck mit der Quarz Syntax, der den Zeitplan für einen Auftrag beschreibt.A Cron expression using Quartz syntax that describes the schedule for a job. Weitere Informationen finden Sie unter cron -Beispiel.See Cron Trigger for details. Dieses Feld ist erforderlich.This field is required.
timezone_idtimezone_id STRING Eine Java-Zeit Zonen-ID.A Java timezone ID. Der Zeitplan für einen Auftrag wird in Bezug auf diese Zeitzone aufgelöst.The schedule for a job will be resolved with respect to this timezone. Weitere Informationen finden Sie in der Java-Zeitzone .See Java TimeZone for details. Dieses Feld ist erforderlich.This field is required.
pause_statuspause_status STRING Geben Sie an, ob dieser Zeitplan angehalten wurde.Indicate whether this schedule is paused or not. Entweder "angehalten" oder "nicht angehalten".Either “PAUSED” or “UNPAUSED”.

Auftrag Job

FeldnameField Name typeType BeschreibungDescription
job_idjob_id INT64 Der kanonische Bezeichner für diesen Auftrag.The canonical identifier for this job.
creator_user_namecreator_user_name STRING Der Ersteller-Benutzername.The creator user name. Dieses Feld wird nicht in die Antwort eingeschlossen, wenn der Benutzer bereits gelöscht wurde.This field won’t be included in the response if the user has already been deleted.
settingssettings JobsettingsJobSettings Einstellungen für diesen Auftrag und alle seine Ausführungen.Settings for this job and all of its runs. Diese Einstellungen können mit der-Methode aktualisiert werden resetJob .These settings can be updated using the resetJob method.
created_timecreated_time INT64 Der Zeitpunkt, zu dem dieser Auftrag in Epochen Millisekunden (Millisekunden seit 1/1/1970 UTC) erstellt wurde.The time at which this job was created in epoch milliseconds (milliseconds since 1/1/1970 UTC).

Jobemailbenachrichtigungen JobEmailNotifications

Wichtig

In den Feldern on_start, on_success und ON_FAILURE werden ausschließlich lateinische Zeichen (ASCII-Zeichensatz) akzeptiert.The on_start, on_success, and on_failure fields accept only Latin characters (ASCII character set). Wenn Sie nicht-ASCII-Zeichen verwenden, wird ein Fehler zurückgegeben.Using non-ASCII characters will return an error. Beispiele für ungültige, nicht-ASCII-Zeichen sind Chinesisch, Japanisch Kanjis und Emojis.Examples of invalid, non-ASCII characters are Chinese, Japanese kanjis, and emojis.

FeldnameField Name typeType BeschreibungDescription
on_starton_start Ein Array von STRINGAn array of STRING Eine Liste von e-Mail-Adressen, die benachrichtigt werden sollen, wenn ein Start beginnt.A list of email addresses to be notified when a run begins. Wenn beim Erstellen oder Zurücksetzen des Auftrags nicht angegeben, ist die Liste leer, d. h., es wird keine Adresse benachrichtigt.If not specified upon job creation or reset, the list will be empty, i.e., no address will be notified.
on_successon_success Ein Array von STRINGAn array of STRING Eine Liste von e-Mail-Adressen, die benachrichtigt werden, wenn eine Ausführung erfolgreich abgeschlossen wurde.A list of email addresses to be notified when a run successfully completes. Eine Ausführung wird als erfolgreich abgeschlossen betrachtet, wenn Sie mit einem TERMINATED life_cycle_state -und einem- SUCCESSFUL result_state endet.A run is considered to have completed successfully if it ends with a TERMINATED life_cycle_state and a SUCCESSFUL result_state. Wenn beim Erstellen oder Zurücksetzen des Auftrags nicht angegeben, ist die Liste leer, d. h., es wird keine Adresse benachrichtigt.If not specified upon job creation or reset, the list will be empty, i.e., no address will be notified.
on_failureon_failure Ein Array von STRINGAn array of STRING Eine Liste von e-Mail-Adressen, die benachrichtigt werden sollen, wenn eine Ausführung erfolglos abgeschlossen wirdA list of email addresses to be notified when a run unsuccessfully completes. Eine Ausführung wird als erfolglos betrachtet, wenn Sie mit einem INTERNAL_ERRORA run is considered to have completed unsuccessfully if it ends with an INTERNAL_ERROR
life_cycle_state oder ein- SKIPPED ,- FAILED oder- TIMED_OUT result_state.life_cycle_state or a SKIPPED, FAILED, or TIMED_OUT result_state. Wenn beim Erstellen oder Zurücksetzen des Auftrags nicht angegeben, ist die Liste leer, d. h., es wird keine Adresse benachrichtigt.If not specified upon job creation or reset, the list will be empty, i.e., no address will be notified.
no_alert_for_skipped_runsno_alert_for_skipped_runs BOOL Wenn der Wert true ist, wird keine e-Mail an die in angegebenen Empfänger gesendet, on_failure Wenn die Laufzeit übersprungen wird.If true, do not send email to recipients specified in on_failure if the run is skipped.

Jobsettings JobSettings

Wichtig

  • Wenn Sie einen Auftrag in einem neuen Auftrags Cluster ausführen, wird der Auftrag als Auftrags Compute-Arbeitsauslastung (automatisiert) behandelt, die den computepreisen für Aufträge unterliegt.When you run a job on a new jobs cluster, the job is treated as a Jobs Compute (automated) workload subject to Jobs Compute pricing.
  • Wenn Sie einen Auftrag für einen vorhandenen gesamten Cluster ausführen, wird er als All-Purpose Compute-Arbeitsauslastung (interaktiv) behandelt, die All-Purpose computepreisen unterliegt.When you run a job on an existing all-purpose cluster, it is treated as an All-Purpose Compute (interactive) workload subject to All-Purpose Compute pricing.

Einstellungen für einen Auftrag.Settings for a job. Diese Einstellungen können mit der-Methode aktualisiert werden resetJob .These settings can be updated using the resetJob method.

FeldnameField Name typeType BeschreibungDescription
existing_cluster_id oder new_clusterexisting_cluster_id OR new_cluster STRING Oder newclusterSTRING OR NewCluster Wenn existing_cluster_id, die ID eines vorhandenen Clusters, der für alle Ausführungen dieses Auftrags verwendet wird.If existing_cluster_id, the ID of an existing cluster that will be used for all runs of this job. Wenn Sie Aufträge auf einem vorhandenen Cluster ausführen, müssen Sie den Cluster möglicherweise manuell neu starten, wenn er nicht mehr reagiert.When running jobs on an existing cluster, you may need to manually restart the cluster if it stops responding. Wir empfehlen die Ausführung von Aufträgen in neuen Clustern, um die Zuverlässigkeit zu erhöhen.We suggest running jobs on new clusters for greater reliability.

Wenn new_cluster, eine Beschreibung eines Clusters, der für jede Testlauf erstellt wird.If new_cluster, a description of a cluster that will be created for each run.
notebook_task oder spark_jar_task oder spark_python_task oder spark_submit_tasknotebook_task OR spark_jar_task OR spark_python_task OR spark_submit_task Notebooktask Oder sparkjartask oder sparkpythontask oder sparksubmittaskNotebookTask OR SparkJarTask OR SparkPythonTask OR SparkSubmitTask Wenn notebook_task, wird angegeben, dass für diesen Auftrag ein Notebook ausgeführt werden soll.If notebook_task, indicates that this job should run a notebook. Dieses Feld kann nicht zusammen mit spark_jar_task angegeben werden.This field may not be specified in conjunction with spark_jar_task.

Wenn spark_jar_task, wird angegeben, dass für diesen Auftrag ein JAR ausgeführt werden soll.If spark_jar_task, indicates that this job should run a JAR.

Wenn spark_python_task, wird angegeben, dass von diesem Auftrag eine python-Datei ausgeführt werden soll.If spark_python_task, indicates that this job should run a Python file.

Wenn spark_submit_task, gibt an, dass dieser Auftrag das Spark-Submit-Skript ausführen soll.If spark_submit_task, indicates that this job should run Spark submit script.
namename STRING Ein optionaler Name für den Auftrag.An optional name for the job. Der Standardwert ist Untitled.The default value is Untitled.
librarieslibraries Ein Array der BibliothekAn array of Library Eine optionale Liste der Bibliotheken, die auf dem Cluster installiert werden sollen, von dem der Auftrag ausgeführt wird.An optional list of libraries to be installed on the cluster that will execute the job. Der Standardwert ist eine leere Liste.The default value is an empty list.
email_notificationsemail_notifications JobemailbenachrichtigungenJobEmailNotifications Ein optionaler Satz von e-Mail-Adressen, der benachrichtigt wird, wenn die Ausführung dieses Auftrags beginnt oder beendet wird, und wenn dieser Auftrag gelöscht wird.An optional set of email addresses that will be notified when runs of this job begin or complete as well as when this job is deleted. Das Standardverhalten besteht darin, keine e-Mails zu senden.The default behavior is to not send any emails.
timeout_secondstimeout_seconds INT32 Ein optionales Timeout, das auf jede ausführen dieses Auftrags angewendet wird.An optional timeout applied to each run of this job. Das Standardverhalten ist, dass kein Timeout vorhanden ist.The default behavior is to have no timeout.
max_retriesmax_retries INT32 Eine optionale maximale Anzahl von Wiederholungs versuchen für eine fehlgeschlagene Testlauf.An optional maximum number of times to retry an unsuccessful run. Eine Ausführung wird als nicht erfolgreich betrachtet, wenn Sie mit dem FAILED result_state oderA run is considered to be unsuccessful if it completes with the FAILED result_state or
INTERNAL_ERROR
life_cycle_state.life_cycle_state. Der Wert-1 bedeutet, dass ein wiederholter Versuch unbegrenzt durchgesetzt werden soll. der Wert 0 bedeutet, dass nie versucht wirdThe value -1 means to retry indefinitely and the value 0 means to never retry. Das Standardverhalten besteht darin, nie einen Wiederholungsversuch auszuführen.The default behavior is to never retry.
min_retry_interval_millismin_retry_interval_millis INT32 Ein optionales minimal Intervall in Millisekunden zwischen den versuchen.An optional minimal interval in milliseconds between attempts. Das Standardverhalten besteht darin, dass nicht erfolgreiche Ausführungen sofort wiederholt werden.The default behavior is that unsuccessful runs are immediately retried.
retry_on_timeoutretry_on_timeout BOOL Eine optionale Richtlinie, die angibt, ob ein Auftrag bei einem Timeout wiederholt werden soll. Das Standardverhalten besteht darin, bei einem Timeout keinen Wiederholungsversuch auszuführen.An optional policy to specify whether to retry a job when it times out. The default behavior is to not retry on timeout.
scheduleschedule CronscheduleCronSchedule Ein optionaler regelmäßiger Zeitplan für diesen Auftrag.An optional periodic schedule for this job. Das Standardverhalten besteht darin, dass der Auftrag nur ausgeführt wird, wenn er durch Klicken auf "jetzt ausführen" in der Benutzeroberfläche der Aufträge oder über das Senden einer API-Anforderung anThe default behavior is that the job will only run when triggered by clicking “Run Now” in the Jobs UI or sending an API request to
runNow.runNow.
max_concurrent_runsmax_concurrent_runs INT32 Eine optionale maximal zulässige Anzahl von gleichzeitigen Ausführungen des Auftrags.An optional maximum allowed number of concurrent runs of the job.

Legen Sie diesen Wert fest, wenn Sie in der Lage sein möchten, mehrere Ausführungen desselben Auftrags gleichzeitig auszuführen.Set this value if you want to be able to execute multiple runs of the same job concurrently. Dies ist beispielsweise hilfreich, wenn Sie den Auftrag in einem regelmäßigen Zeitplan auslassen und die Überschneidung von aufeinander folgenden Ausführungen zulassen möchten, oder wenn Sie mehrere Ausführungen auslassen möchten, die sich durch ihre Eingabeparameter unterscheiden.This is useful for example if you trigger your job on a frequent schedule and want to allow consecutive runs to overlap with each other, or if you want to trigger multiple runs which differ by their input parameters.

Diese Einstellung wirkt sich nur auf neue Ausführungen aus.This setting affects only new runs. Nehmen wir beispielsweise an, dass die Parallelität des Auftrags 4 beträgt und vier gleichzeitige aktive Ausführungen vorhanden sind.For example, suppose the job’s concurrency is 4 and there are 4 concurrent active runs. Wenn Sie die Parallelität auf "3" festlegen, werden die aktiven Ausführungen nicht beendet.Then setting the concurrency to 3 won’t kill any of the active runs. Anschließend werden neue Ausführungen übersprungen, es sei denn, es sind weniger als drei aktive Ausführungen vorhanden.However, from then on, new runs will be skipped unless there are fewer than 3 active runs.

Dieser Wert darf 1000 nicht überschreiten.This value cannot exceed 1000. Wenn Sie diesen Wert auf 0 festlegen, werden alle neuen Ausführungen übersprungen.Setting this value to 0 causes all new runs to be skipped. Das Standardverhalten besteht darin, nur 1 gleichzeitige Laufzeit zuzulassen.The default behavior is to allow only 1 concurrent run.

Jobtask JobTask

FeldnameField Name typeType BeschreibungDescription
notebook_task oder spark_jar_task oder spark_python_task oder spark_submit_tasknotebook_task OR spark_jar_task OR spark_python_task OR spark_submit_task Notebooktask Oder sparkjartask oder sparkpythontask oder sparksubmittaskNotebookTask OR SparkJarTask OR SparkPythonTask OR SparkSubmitTask Wenn notebook_task, wird angegeben, dass für diesen Auftrag ein Notebook ausgeführt werden soll.If notebook_task, indicates that this job should run a notebook. Dieses Feld kann nicht zusammen mit spark_jar_task angegeben werden.This field may not be specified in conjunction with spark_jar_task.

Wenn spark_jar_task, wird angegeben, dass für diesen Auftrag ein JAR ausgeführt werden soll.If spark_jar_task, indicates that this job should run a JAR.

Wenn spark_python_task, wird angegeben, dass von diesem Auftrag eine python-Datei ausgeführt werden soll.If spark_python_task, indicates that this job should run a Python file.

Wenn spark_submit_task, gibt an, dass dieser Auftrag das Spark-Submit-Skript ausführen soll.If spark_submit_task, indicates that this job should run spark submit script.

Neucluster NewCluster

FeldnameField Name typeType BeschreibungDescription
num_workers oder automatische Skalierungnum_workers OR autoscale INT32 Oder automatisch skalierenINT32 OR AutoScale Wenn num_workers, die Anzahl der workerknoten, die dieser Cluster aufweisen sollte.If num_workers, number of worker nodes that this cluster should have. Ein Cluster verfügt über einen Spark-Treiber und num_workers Executors für insgesamt num_workers + 1 Spark-Knoten.A cluster has one Spark driver and num_workers executors for a total of num_workers + 1 Spark nodes.

Hinweis: beim Lesen der Eigenschaften eines Clusters gibt dieses Feld die gewünschte Anzahl von Workern anstelle der tatsächlichen aktuellen Anzahl von Workern an.Note: When reading the properties of a cluster, this field reflects the desired number of workers rather than the actual current number of workers. Wenn beispielsweise die Größe eines Clusters von 5 auf 10 Worker geändert wird, wird dieses Feld sofort aktualisiert, um die Zielgröße von 10 Arbeitsthreads widerzuspiegeln, wohingegen die in spark_info aufgeführten Worker allmählich von 5 auf 10 erhöht werden, wenn die neuen Knoten bereitgestellt werden.For instance, if a cluster is resized from 5 to 10 workers, this field will immediately be updated to reflect the target size of 10 workers, whereas the workers listed in spark_info gradually increase from 5 to 10 as the new nodes are provisioned.

Wenn die automatische Skalierung erforderlich ist, werden für die automatische Skalierung von Clustern basierend auf der Auslastung Parameter benötigt.If autoscale, parameters needed in order to automatically scale clusters up and down based on load.
spark_versionspark_version STRING Die Spark-Version des Clusters.The Spark version of the cluster. Eine Liste der verfügbaren Spark-Versionen kann mit dem API-Befehl Lauf Zeit Versionen abgerufen werden.A list of available Spark versions can be retrieved by using the Runtime versions API call. Dieses Feld ist erforderlich.This field is required.
spark_confspark_conf SparkconfpairSparkConfPair Ein-Objekt, das einen Satz optionaler, benutzerdefinierte Spark-Konfigurationsschlüssel-Wert-Paare enthält.An object containing a set of optional, user-specified Spark configuration key-value pairs. Sie können auch eine Zeichenfolge zusätzlicher JVM-Optionen an den Treiber und die Executors übergeben, indem SieYou can also pass in a string of extra JVM options to the driver and the executors via
spark.driver.extraJavaOptions``spark.executor.extraJavaOptionsbzw.spark.driver.extraJavaOptions and spark.executor.extraJavaOptions respectively.

Beispiel für Spark-Verbund:Example Spark confs:
{"spark.speculation": true, "spark.streaming.ui.retainedBatches": 5} oder{"spark.speculation": true, "spark.streaming.ui.retainedBatches": 5} or
{"spark.driver.extraJavaOptions": "-verbose:gc -XX:+PrintGCDetails"}
node_type_idnode_type_id STRING Dieses Feld codiert mithilfe eines einzigen Werts die Ressourcen, die jedem der Spark-Knoten in diesem Cluster zur Verfügung stehen.This field encodes, through a single value, the resources available to each of the Spark nodes in this cluster. Beispielsweise können die Spark-Knoten bereitgestellt und für Arbeitsspeicher-oder rechenintensive Arbeits Auslastungen optimiert werden. eine Liste der verfügbaren Knoten Typen kann mithilfe des API-aufrufyps List Node Types abgerufen werden.For example, the Spark nodes can be provisioned and optimized for memory or compute intensive workloads A list of available node types can be retrieved by using the List node types API call. Dieses Feld ist erforderlich.This field is required.
driver_node_type_iddriver_node_type_id STRING Der Knotentyp des Spark-Treibers.The node type of the Spark driver. Dieses Feld ist optional. Wenn nicht festgelegt, wird der Treiber Knotentyp auf denselben Wert festgelegt wie node_type_id oben definiert.This field is optional; if unset, the driver node type is set as the same value as node_type_id defined above.
custom_tagscustom_tags ClustertagClusterTag Ein-Objekt, das einen Satz von Tags für Cluster Ressourcen enthält.An object containing a set of tags for cluster resources. Azure Databricks alle Cluster Ressourcen mit diesen Tags zusätzlich zu default_tags.Azure Databricks tags all cluster resources with these tags in addition to default_tags.
Hinweis: databricks ermöglicht höchstens 45 benutzerdefinierte Tags.Note: Databricks allows at most 45 custom tags.
cluster_log_confcluster_log_conf ClusterlogconfClusterLogConf Die Konfiguration für die Übermittlung von Spark-Protokollen an ein langfristiges Speicher Ziel.The configuration for delivering Spark logs to a long-term storage destination. Für einen Cluster kann nur ein Ziel angegeben werden.Only one destination can be specified for one cluster. Wenn die conf angegeben wird, werden die Protokolle alle an das Ziel übermittelt 5 mins .If the conf is given, the logs will be delivered to the destination every 5 mins. Das Ziel der Treiber Protokolle ist <destination>/<cluster-id>/driver , während das Ziel der Executor-Protokolle ist <destination>/<cluster-id>/executor .The destination of driver logs is <destination>/<cluster-id>/driver, while the destination of executor logs is <destination>/<cluster-id>/executor.
init_scriptsinit_scripts Ein Array von initscriptinfoAn array of InitScriptInfo Die Konfiguration zum Speichern von Init-Skripts.The configuration for storing init scripts. Es können beliebig viele Skripts angegeben werden.Any number of scripts can be specified. Die Skripts werden sequenziell in der angegebenen Reihenfolge ausgeführt.The scripts are executed sequentially in the order provided. Wenn cluster_log_conf angegeben wird, werden Init-Skript Protokolle an gesendet.If cluster_log_conf is specified, init script logs are sent to
<destination>/<cluster-id>/init_scripts.<destination>/<cluster-id>/init_scripts.
spark_env_varsspark_env_vars SparkenvpairSparkEnvPair Ein-Objekt, das einen Satz optionaler, benutzerdefinierte Umgebungsvariablen-Schlüssel-Wert-Paare enthält.An object containing a set of optional, user-specified environment variable key-value pairs. Das Schlüssel-Wert-Paar in der Form (X, Y) wird wie folgt exportiert (d. h.Key-value pair of the form (X,Y) are exported as is (i.e.,
export X='Y') beim Starten des Treibers und der Worker.export X='Y') while launching the driver and workers.

Um einen zusätzlichen Satz von anzugeben SPARK_DAEMON_JAVA_OPTS , empfiehlt es sich, diese an zu anhängen, $SPARK_DAEMON_JAVA_OPTS wie im folgenden Beispiel gezeigt.In order to specify an additional set of SPARK_DAEMON_JAVA_OPTS, we recommend appending them to $SPARK_DAEMON_JAVA_OPTS as shown in the following example. Dadurch wird sichergestellt, dass alle standardmäßigen von databricks verwalteten Umgebungsvariablen ebenfalls eingeschlossen werden.This ensures that all default databricks managed environmental variables are included as well.

Beispiel für Spark-Umgebungsvariablen:Example Spark environment variables:
{"SPARK_WORKER_MEMORY": "28000m", "SPARK_LOCAL_DIRS": "/local_disk0"} oder{"SPARK_WORKER_MEMORY": "28000m", "SPARK_LOCAL_DIRS": "/local_disk0"} or
{"SPARK_DAEMON_JAVA_OPTS": "$SPARK_DAEMON_JAVA_OPTS -Dspark.shuffle.service.enabled=true"}
enable_elastic_diskenable_elastic_disk BOOL Automatische Skalierung des lokalen Speichers: Wenn diese Option aktiviert ist, erhält dieser Cluster dynamisch zusätzlichen Speicherplatz, wenn seine Spark-Worker wenig Speicherplatz haben.Autoscaling Local Storage: when enabled, this cluster dynamically acquires additional disk space when its Spark workers are running low on disk space. Weitere Informationen finden Sie unter Automatische Skalierung des lokalen Speichers .Refer to Autoscaling local storage for details.
instance_pool_idinstance_pool_id STRING Die optionale ID des instanzpools, zu dem der Cluster gehört.The optional ID of the instance pool to which the cluster belongs. Ausführliche Informationen finden Sie unter instanzpools-API .Refer to Instance Pools API for details.

Notebookoutput NotebookOutput

FeldnameField Name typeType BeschreibungDescription
resultresult STRING Der an dbutils. Notebook. Exit ()-Wert.The value passed to dbutils.notebook.exit(). Azure Databricks schränkt diese API ein, um die ersten 1 MB des Werts zurückzugeben.Azure Databricks restricts this API to return the first 1 MB of the value. Um das Ergebnis zu vergrößern, kann Ihr Auftrag die Ergebnisse in einem cloudspeicherdienst speichern.For a larger result, your job can store the results in a cloud storage service. Dieses Feld ist nicht vorhanden, wenn dbutils.notebook.exit() nie aufgerufen wurde.This field will be absent if dbutils.notebook.exit() was never called.
abgeschnittentruncated BOOLEAN Gibt an, ob das Ergebnis abgeschnitten wurde.Whether or not the result was truncated.

Notebooktask NotebookTask

Alle Ausgabe Zellen unterliegen der Größe von 8 MB.All the output cells are subject to the size of 8MB. Wenn die Ausgabe einer Zelle größer ist, wird der Rest des Testlaufs abgebrochen, und der Testlauf wird als fehlerhaft markiert.If the output of a cell has a larger size, the rest of the run will be cancelled and the run will be marked as failed. In diesem Fall fehlen möglicherweise auch einige der Inhalts Ausgaben aus anderen Zellen.In that case, some of the content output from other cells may also be missing. Wenn Sie Hilfe bei der Suche nach der Zelle benötigen, die den Grenzwert überschreitet, führen Sie das Notebook für einen gesamten Cluster aus, und verwenden Sie dieses Notebook-Verfahren für die Automatische Speicherung.If you need help finding the cell that is beyond the limit, run the notebook against an all-purpose cluster and use this notebook autosave technique.

FeldnameField Name typeType BeschreibungDescription
notebook_pathnotebook_path STRING Der absolute Pfad des Notebooks, das im Arbeitsbereich Azure Databricks ausgeführt werden soll.The absolute path of the notebook to be run in the Azure Databricks workspace. Dieser Pfad muss mit einem Schrägstrich beginnen.This path must begin with a slash. Dieses Feld ist erforderlich.This field is required.
revision_timestamprevision_timestamp LONG Der Zeitstempel der Revision des Notebooks.The timestamp of the revision of the notebook.
base_parametersbase_parameters Eine Karte des parampairA map of ParamPair Basisparameter, die für jede ausführen dieses Auftrags verwendet werden sollen.Base parameters to be used for each run of this job. Wenn der Testlauf durch einen-Rückruf run-now mit angegebenen Parametern initiiert wird, werden die beiden Parameter Zuordnungen zusammengeführt.If the run is initiated by a call to run-now with parameters specified, the two parameters maps will be merged. Wenn derselbe Schlüssel in base_parameters und in angegeben ist run-now , wird der Wert von run-now verwendet.If the same key is specified in base_parameters and in run-now, the value from run-now will be used.

Wenn das Notebook einen Parameter annimmt, der nicht in den base_parameters oder den Überschreibungs Parametern des Auftrags angegeben ist run-now , wird der Standardwert aus dem Notebook verwendet.If the notebook takes a parameter that is not specified in the job’s base_parameters or the run-now override parameters, the default value from the notebook will be used.

Rufen Sie diese Parameter mithilfe von dbutils. widgets. Getin einem Notebook ab.Retrieve these parameters in a notebook using dbutils.widgets.get.

Parampair ParamPair

Namensbasierte Parameter für Aufträge, die Notebook-Tasks ausführen.Name-based parameters for jobs running notebook tasks.

Wichtig

Die Felder in dieser Datenstruktur akzeptieren ausschließlich lateinische Zeichen (ASCII-Zeichensatz).The fields in this data structure accept only Latin characters (ASCII character set). Wenn Sie nicht-ASCII-Zeichen verwenden, wird ein Fehler zurückgegeben.Using non-ASCII characters will return an error. Beispiele für ungültige, nicht-ASCII-Zeichen sind Chinesisch, Japanisch Kanjis und Emojis.Examples of invalid, non-ASCII characters are Chinese, Japanese kanjis, and emojis.

typeType BeschreibungDescription
STRING Parametername.Parameter name. Übergeben Sie dbutils. widgets. Get , um den Wert abzurufen.Pass to dbutils.widgets.get to retrieve the value.
STRING Parameterwert.Parameter value.

Ausführen von Run

Alle Informationen zu einem Testlauf mit Ausnahme der Ausgabe.All the information about a run except for its output. Die Ausgabe kann separat mit der-Methode abgerufen werden getRunOutput .The output can be retrieved separately with the getRunOutput method.

FeldnameField Name typeType BeschreibungDescription
job_idjob_id INT64 Der kanonische Bezeichner des Auftrags, der diesen Testlauf enthält.The canonical identifier of the job that contains this run.
run_idrun_id INT64 Der kanonische Bezeichner des Testlaufs.The canonical identifier of the run. Diese ID ist in allen Ausführungen aller Aufträge eindeutig.This ID is unique across all runs of all jobs.
creator_user_namecreator_user_name STRING Der Ersteller-Benutzername.The creator user name. Dieses Feld wird nicht in die Antwort eingeschlossen, wenn der Benutzer bereits gelöscht wurde.This field won’t be included in the response if the user has already been deleted.
number_in_jobnumber_in_job INT64 Die Sequenznummer dieser Ausführung bei allen Ausführungen des Auftrags.The sequence number of this run among all runs of the job. Dieser Wert beginnt bei 1.This value starts at 1.
original_attempt_run_idoriginal_attempt_run_id INT64 Wenn dieser Vorgang eine Wiederholung eines vorherigen Versuchs ist, enthält dieses Feld den run_id des ursprünglichen Versuchs. Andernfalls ist sie identisch mit dem run_id.If this run is a retry of a prior run attempt, this field contains the run_id of the original attempt; otherwise, it is the same as the run_id.
statestate RunStateRunState Die Ergebnis-und Lebenszyklus Zustände der Laufzeit.The result and lifecycle states of the run.
scheduleschedule CronscheduleCronSchedule Der cron-Zeitplan, der diese Ausführung ausgelöst hat, wenn er durch den periodischen Planer ausgelöst wurde.The cron schedule that triggered this run if it was triggered by the periodic scheduler.
tasktask JobtaskJobTask Die von der Ausführung ausgeführte Aufgabe, falls vorhanden.The task performed by the run, if any.
cluster_speccluster_spec ClusterspecClusterSpec Eine Momentaufnahme der Cluster Spezifikation des Auftrags, als diese Testlauf erstellt wurde.A snapshot of the job’s cluster specification when this run was created.
cluster_instancecluster_instance ClusterinstanceClusterInstance Der für diesen Testlauf verwendete Cluster.The cluster used for this run. Wenn der Testlauf für die Verwendung eines neuen Clusters festgelegt wird, wird dieses Feld festgelegt, sobald der Auftrags Dienst einen Cluster für den Testlauf angefordert hat.If the run is specified to use a new cluster, this field will be set once the Jobs service has requested a cluster for the run.
overriding_parametersoverriding_parameters RunparametersRunParameters Die Parameter, die für diesen Testlauf verwendet werden.The parameters used for this run.
start_timestart_time INT64 Der Zeitpunkt, zu dem dieser Testlauf in Epochen Millisekunden (Millisekunden seit 1/1/1970 UTC) gestartet wurde.The time at which this run was started in epoch milliseconds (milliseconds since 1/1/1970 UTC). Dies ist möglicherweise nicht der Zeitpunkt, zu dem die Ausführung des Auftrags Tasks beginnt, z. b., wenn der Auftrag für die Ausführung auf einem neuen Cluster geplant ist, dies ist der Zeitpunkt, an dem der Aufruf der Cluster Erstellung ausgeführt wird.This may not be the time when the job task starts executing, for example, if the job is scheduled to run on a new cluster, this is the time the cluster creation call is issued.
setup_durationsetup_duration INT64 Die zum Einrichten des Clusters benötigte Zeit in Millisekunden.The time it took to set up the cluster in milliseconds. Bei Ausführungen, die auf neuen Clustern ausgeführt werden, handelt es sich hierbei um die Cluster Erstellungszeit. für Ausführungen, die auf vorhandenen Clustern ausgeführt werden, sollte diese Zeit sehr kurz sein.For runs that run on new clusters this is the cluster creation time, for runs that run on existing clusters this time should be very short.
execution_durationexecution_duration INT64 Die Zeit in Millisekunden, die benötigt wurde, um die Befehle in der JAR-Datei oder dem Notebook auszuführen, bis Sie abgeschlossen sind, fehlgeschlagen sind, ein Timeout aufgetreten ist oder ein unerwarteter Fehler aufgetreten ist.The time in milliseconds it took to execute the commands in the JAR or notebook until they completed, failed, timed out, were cancelled, or encountered an unexpected error.
cleanup_durationcleanup_duration INT64 Die Zeit in Millisekunden, die benötigt wurde, um den Cluster zu beenden und alle Zwischenergebnisse zu bereinigen, usw. Die Gesamtdauer der Durchführung ist die Summe der setup_duration, der execution_duration und der cleanup_duration.The time in milliseconds it took to terminate the cluster and clean up any intermediary results, etc. The total duration of the run is the sum of the setup_duration, the execution_duration, and the cleanup_duration.
Trigger (trigger)trigger TriggerTypeTriggerType Der Typ des Auslösers, der diese Ausführung ausgelöst hat, z. b. ein regelmäßiger Zeitplan oder eine einmalige Ausführung.The type of trigger that fired this run, e.g., a periodic schedule or a one time run.
run_namerun_name STRING Ein optionaler Name für den Testlauf.An optional name for the run. Der Standardwert ist Untitled.The default value is Untitled. Die maximal zulässige Länge beträgt 4096 Bytes in UTF-8-Codierung.The maximum allowed length is 4096 bytes in UTF-8 encoding.
run_page_urlrun_page_url STRING Die URL zur Detailseite des Testlaufs.The URL to the detail page of the run.
run_typerun_type STRING Der Typ des Testlaufs.The type of the run.

* JOB_RUN -Normale Auftrags Laufzeit.* JOB_RUN - Normal job run. Ein mit erstellter Testlauf wird jetzt ausgeführt.A run created with Run now.
* WORKFLOW_RUN -Workflow ausführen.* WORKFLOW_RUN - Workflow run. Ein mit dbutils. Notebook. Runerstellter Testlauf.A run created with dbutils.notebook.run.
* SUBMIT_RUN -Übermitteln der Testlauf.* SUBMIT_RUN - Submit run. Ein mit erstellter Testlauf wird jetzt ausgeführt.A run created with Run now.

Runparameters RunParameters

Parameter für diesen Testlauf.Parameters for this run. In der Anforderung sollte nur eine jar_params-,- python_params oder-notebook_params in run-now Abhängigkeit vom Typ der Auftrags Aufgabe angegeben werden.Only one of jar_params, python_params, or notebook_params should be specified in the run-now request, depending on the type of job task. Aufträge mit Spark-jar-Task oder python-Task nehmen eine Liste von Positions basierten Parametern an, und Aufträge mit Notebook-Aufgaben übernehmen eine Schlüsselwert Zuordnung.Jobs with Spark JAR task or Python task take a list of position-based parameters, and jobs with notebook tasks take a key value map.

FeldnameField Name typeType BeschreibungDescription
jar_paramsjar_params Ein Array von STRINGAn array of STRING Eine Liste von Parametern für Aufträge mit Spark-jar-Aufgaben, z. b. "jar_params": ["john doe", "35"] .A list of parameters for jobs with Spark JAR tasks, e.g. "jar_params": ["john doe", "35"]. Die Parameter werden verwendet, um die Main-Funktion der Hauptklasse aufzurufen, die in der Spark-jar-Aufgabe angegeben ist.The parameters will be used to invoke the main function of the main class specified in the Spark JAR task. Wenn nicht angegeben run-now wird, wird standardmäßig eine leere Liste angezeigt.If not specified upon run-now, it will default to an empty list. jar_params kann nicht in Verbindung mit notebook_params angegeben werden.jar_params cannot be specified in conjunction with notebook_params. Die JSON-Darstellung dieses Felds (d. h. {"jar_params":["john doe","35"]} ) darf 10.000 Bytes nicht überschreiten.The JSON representation of this field (i.e. {"jar_params":["john doe","35"]}) cannot exceed 10,000 bytes.
notebook_paramsnotebook_params Eine Karte des parampairA map of ParamPair Eine Zuordnung von Schlüsseln zu Werten für Aufträge mit Notebook-Aufgabe, z. b.A map from keys to values for jobs with notebook task, e.g.
"notebook_params": {"name": "john doe", "age": "35"}."notebook_params": {"name": "john doe", "age": "35"}. Die Karte wird an das Notebook übermittelt und kann über die Funktion dbutils. widgets. Get aufgerufen werden .The map is passed to the notebook and is accessible through the dbutils.widgets.get function.

Wenn nicht angegeben run-now wird, werden die Basisparameter des Auftrags von der ausgelösten Laufzeit verwendet.If not specified upon run-now, the triggered run uses the job’s base parameters.

notebook_params kann nicht in Verbindung mit jar_params angegeben werden.notebook_params cannot be specified in conjunction with jar_params.

Die JSON-Darstellung dieses Felds (d. h.The JSON representation of this field (i.e.
{"notebook_params":{"name":"john doe","age":"35"}}) darf nicht länger als 10.000 Bytes sein.{"notebook_params":{"name":"john doe","age":"35"}}) cannot exceed 10,000 bytes.
python_paramspython_params Ein Array von STRINGAn array of STRING Eine Liste von Parametern für Aufträge mit python-Aufgaben, z. b. "python_params": ["john doe", "35"] .A list of parameters for jobs with Python tasks, e.g. "python_params": ["john doe", "35"]. Die Parameter werden als Befehlszeilenparameter an die python-Datei übermittelt.The parameters are passed to Python file as command-line parameters. Wenn für angegeben run-now , werden die in der Auftragseinstellung angegebenen Parameter überschrieben.If specified upon run-now, it would overwrite the parameters specified in job setting. Die JSON-Darstellung dieses Felds (d. h. {"python_params":["john doe","35"]} ) darf 10.000 Bytes nicht überschreiten.The JSON representation of this field (i.e. {"python_params":["john doe","35"]}) cannot exceed 10,000 bytes.

> [!IMPORTANT] > > diese Parameter nur lateinische Zeichen (ASCII-Zeichensatz) akzeptieren.> [!IMPORTANT] > > These parameters accept only Latin characters (ASCII character set). >, die nicht-ASCII-Zeichen verwenden, wird ein Fehler zurückgegeben.> Using non-ASCII characters will return an error. Beispiele für ungültige, nicht-ASCII-Zeichen sind > Chinesisch, Japanisch Kanjis und Emojis.Examples of invalid, non-ASCII characters are > Chinese, Japanese kanjis, and emojis.
spark_submit_paramsspark_submit_params Ein Array von STRINGAn array of STRING Eine Liste von Parametern für Aufträge mit dem Spark-Submit-Task, z. b.A list of parameters for jobs with spark submit task, e.g.
"spark_submit_params": ["--class", "org.apache.spark.examples.SparkPi"]."spark_submit_params": ["--class", "org.apache.spark.examples.SparkPi"]. Die Parameter werden als Befehlszeilenparameter an das Spark-Submit-Skript übergeben.The parameters are passed to spark-submit script as command-line parameters. Wenn für angegeben run-now , werden die in der Auftragseinstellung angegebenen Parameter überschrieben.If specified upon run-now, it would overwrite the parameters specified in job setting. Die JSON-Darstellung dieses Felds (d. h. {"python_params":["john doe","35"]} ) darf 10.000 Bytes nicht überschreiten.The JSON representation of this field (i.e. {"python_params":["john doe","35"]}) cannot exceed 10,000 bytes.

> [!IMPORTANT] > > diese Parameter nur lateinische Zeichen (ASCII-Zeichensatz) akzeptieren.> [!IMPORTANT] > > These parameters accept only Latin characters (ASCII character set). >, die nicht-ASCII-Zeichen verwenden, wird ein Fehler zurückgegeben.> Using non-ASCII characters will return an error. Beispiele für ungültige, nicht-ASCII-Zeichen sind > Chinesisch, Japanisch Kanjis und Emojis.Examples of invalid, non-ASCII characters are > Chinese, Japanese kanjis, and emojis.

RunState RunState

FeldnameField Name typeType BeschreibungDescription
life_cycle_statelife_cycle_state RunlifecyclestateRunLifeCycleState Eine Beschreibung der aktuellen Position einer Testlauf im Lauf Lebenszyklus.A description of a run’s current location in the run lifecycle. Dieses Feld ist in der Antwort immer verfügbar.This field is always available in the response.
result_stateresult_state RunresultstateRunResultState Der Ergebnis Zustand einer Testlauf.The result state of a run. Wenn Sie nicht verfügbar ist, enthält die Antwort dieses Feld nicht.If it is not available, the response won’t include this field. Ausführliche Informationen zur Verfügbarkeit von result_state finden Sie unter runresultstate .See RunResultState for details about the availability of result_state.
state_messagestate_message STRING Eine beschreibende Meldung für den aktuellen Status.A descriptive message for the current state. Dieses Feld ist unstrukturiert, und das genaue Format kann geändert werden.This field is unstructured, and its exact format is subject to change.

Sparkjartask SparkJarTask

FeldnameField Name typeType BeschreibungDescription
jar_urijar_uri STRING Veraltet seit 04/2016.Deprecated since 04/2016. Stellen Sie jar stattdessen eine durch das- libraries Feld bereit.Provide a jar through the libraries field instead. Ein Beispiel finden Sie unter Erstellenvon.For an example, see Create.
main_class_namemain_class_name STRING Der vollständige Name der Klasse, die die auszuführende Hauptmethode enthält.The full name of the class containing the main method to be executed. Diese Klasse muss in einer JAR-Datei enthalten sein, die als Bibliothek bereitgestellt wird.This class must be contained in a JAR provided as a library.

Der Code sollte SparkContext.getOrCreate zum Abrufen eines Spark-Kontexts verwenden. andernfalls tritt bei der Ausführung des Auftrags ein Fehler auf.The code should use SparkContext.getOrCreate to obtain a Spark context; otherwise, runs of the job will fail.
parametersparameters Ein Array von STRINGAn array of STRING Parameter, die an die Main-Methode übermittelt werden.Parameters passed to the main method.

Sparkpythontask SparkPythonTask

FeldnameField Name typeType BeschreibungDescription
python_filepython_file STRING Der URI der auszuführenden Python-Datei.The URI of the Python file to be executed. DBFS-Pfade werden unterstützt.DBFS paths are supported. Dieses Feld ist erforderlich.This field is required.
parametersparameters Ein Array von STRINGAn array of STRING Befehlszeilenparameter, die an die python-Datei übermittelt werden.Command line parameters passed to the Python file.

Sparksubmittask SparkSubmitTask

Wichtig

  • Sie können Spark-Submit-Tasks nur in neuen Clustern aufrufen.You can invoke Spark submit tasks only on new clusters.
  • In der new_cluster Spezifikation libraries werden und spark_conf nicht unterstützt.In the new_cluster specification, libraries and spark_conf are not supported. Verwenden Sie stattdessen --jars und, --py-files um Java-und python-Bibliotheken hinzuzufügen und --conf die Spark-Konfiguration festzulegen.Instead, use --jars and --py-files to add Java and Python libraries and --conf to set the Spark configuration.
  • master, deploy-mode und executor-cores werden automatisch Azure Databricks konfiguriert. Sie können Sie nicht in Parametern angeben.master, deploy-mode, and executor-cores are automatically configured by Azure Databricks; you cannot specify them in parameters.
  • Standardmäßig verwendet der Spark-Submit-Auftrag den gesamten verfügbaren Arbeitsspeicher (mit Ausnahme des reservierten Speichers für Azure Databricks Dienste).By default, the Spark submit job uses all available memory (excluding reserved memory for Azure Databricks services). Sie können --driver-memory und --executor-memory auf einen kleineren Wert festlegen, um den Platz für die Off-Heap-Nutzung zu verlassen.You can set --driver-memory, and --executor-memory to a smaller value to leave some room for off-heap usage.
  • Die --jars --py-files Argumente,, --files unterstützen dBFS-Pfade.The --jars, --py-files, --files arguments support DBFS paths.

Wenn z. b. die jar-Informationen in dBFS hochgeladen werden, können Sie ausführen, SparkPi indem Sie die folgenden Parameter festlegen.For example, assuming the JAR is uploaded to DBFS, you can run SparkPi by setting the following parameters.

{
  "parameters": [
    "--class",
    "org.apache.spark.examples.SparkPi",
    "dbfs:/path/to/examples.jar",
    "10"
  ]
}
FeldnameField Name typeType BeschreibungDescription
parametersparameters Ein Array von STRINGAn array of STRING An Spark Submit übergebenen Befehlszeilenparameter.Command-line parameters passed to spark submit.

ViewItem ViewItem

Der exportierte Inhalt weist das HTML-Format auf.The exported content is in HTML format. Wenn z. b. die zu exportier Tier Ansicht Dashboards ist, wird für jedes Dashboard eine HTML-Zeichenfolge zurückgegeben.For example, if the view to export is dashboards, one HTML string is returned for every dashboard.

FeldnameField Name typeType BeschreibungDescription
Inhaltcontent STRING Der Inhalt der Ansicht.Content of the view.
namename STRING Der Name des Ansichts Elements.Name of the view item. Im Fall der Code Ansicht wäre dies der Name des Notebooks.In the case of code view, it would be the notebook’s name. Im Fall der Dashboardansicht wäre dies der Name des Dashboards.In the case of dashboard view, it would be the dashboard’s name.
typetype ViewTypeViewType Der Typ des Ansichts Elements.Type of the view item.

Runlifecyclestate RunLifeCycleState

Der Lebenszyklus Zustand einer Testlauf.The life cycle state of a run. Zulässige Zustandsübergänge:Allowed state transitions are:

  • PENDING -> RUNNING -> TERMINATING -> TERMINATED
  • PENDING -> SKIPPED
  • PENDING -> INTERNAL_ERROR
  • RUNNING -> INTERNAL_ERROR
  • TERMINATING -> INTERNAL_ERROR
StaatState BeschreibungDescription
PENDING Der Testlauf wurde ausgelöst.The run has been triggered. Wenn nicht bereits eine aktive Ausführung desselben Auftrags vorhanden ist, werden der Cluster und der Ausführungs Kontext vorbereitet.If there is not already an active run of the same job, the cluster and execution context are being prepared. Wenn bereits eine aktive Laufzeit desselben Auftrags vorhanden ist, wechselt der Testlauf sofort in den Zustand, SKIPPED ohne dass Ressourcen vorbereitet werden.If there is already an active run of the same job, the run will immediately transition into the SKIPPED state without preparing any resources.
RUNNING Die Aufgabe dieser Ausführung wird ausgeführt.The task of this run is being executed.
TERMINATING Die Aufgabe dieser Ausführung wurde abgeschlossen, und der Cluster und der Ausführungs Kontext werden bereinigt.The task of this run has completed, and the cluster and execution context are being cleaned up.
TERMINATED Die Aufgabe dieser Ausführung wurde abgeschlossen, und der Cluster und der Ausführungs Kontext wurden bereinigt.The task of this run has completed, and the cluster and execution context have been cleaned up. Dieser Status ist "Terminal".This state is terminal.
SKIPPED Dieser Testlauf wurde abgebrochen, weil bereits eine vorherige Laufzeit desselben Auftrags aktiv war.This run was aborted because a previous run of the same job was already active. Dieser Status ist "Terminal".This state is terminal.
INTERNAL_ERROR Ein Ausnahmestatus, der auf einen Fehler im Auftrags Dienst hinweist, z. b. Netzwerkfehler über einen längeren Zeitraum.An exceptional state that indicates a failure in the Jobs service, such as network failure over a long period. Wenn eine auf einem neuen Cluster ausgeführt INTERNAL_ERROR wird, beendet der Auftrags Dienst den Cluster so schnell wie möglich.If a run on a new cluster ends in the INTERNAL_ERROR state, the Jobs service terminates the cluster as soon as possible. Dieser Status ist "Terminal".This state is terminal.

Runresultstate RunResultState

Der Ergebnis Zustand des Testlaufs.The result state of the run.

  • Wenn life_cycle_state = TERMINATED : Wenn die Ausführungsdauer eine Aufgabe enthielt, ist das Ergebnis garantiert verfügbar und gibt das Ergebnis der Aufgabe an.If life_cycle_state = TERMINATED: if the run had a task, the result is guaranteed to be available, and it indicates the result of the task.
  • Wenn life_cycle_state = PENDING , RUNNING oder SKIPPED ist, ist der Ergebnis Zustand nicht verfügbar.If life_cycle_state = PENDING, RUNNING, or SKIPPED, the result state is not available.
  • If life_cycle_state = TERMINATING oder lifecyclestate = INTERNAL_ERROR : der Ergebnis Zustand ist verfügbar, wenn für die Ausführungs Aufgabe eine Aufgabe vorhanden ist, die zum Starten der Anwendung verwaltet wird.If life_cycle_state = TERMINATING or lifecyclestate = INTERNAL_ERROR: the result state is available if the run had a task and managed to start it.

Wenn Sie verfügbar sind, ändert sich der Ergebnis Zustand nie.Once available, the result state never changes.

StaatState BeschreibungDescription
SUCCESSSUCCESS Die Aufgabe wurde erfolgreich abgeschlossen.The task completed successfully.
FAILEDFAILED Der Task wurde mit einem Fehler abgeschlossen.The task completed with an error.
TIMEDOUTTIMEDOUT Der Testlauf wurde beendet, nachdem das Timeout erreicht wurde.The run was stopped after reaching the timeout.
HobCANCELED Der Testlauf wurde bei der Benutzer Anforderung abgebrochen.The run was canceled at user request.

TriggerType TriggerType

Dies sind die Typen von Triggern, mit denen eine Testlauf ausgelöst werden kann.These are the type of triggers that can fire a run.

typeType BeschreibungDescription
RegelmäßigePERIODIC Plant regelmäßige Triggerausführungen, wie z. b. einen cron-Planer.Schedules that periodically trigger runs, such as a cron scheduler.
ONE_TIMEONE_TIME Einmalige Trigger, die eine einzelne Testlauf auslösen.One time triggers that fire a single run. Dieser Fehler tritt auf, wenn Sie über die Benutzeroberfläche oder die API eine einzelne Bedarfs gesteuerte ausführen auslösen.This occurs you triggered a single run on demand through the UI or the API.
ERNEUTER VERSUCHRETRY Gibt einen Testlauf an, der als Wiederholungsversuch einer zuvor fehlgeschlagenen Testlauf ausgelöst wird.Indicates a run that is triggered as a retry of a previously failed run. Dieser Fehler tritt auf, wenn Sie die erneute Installation des Auftrags bei Fehlern anfordern.This occurs when you request to re-run the job in case of failures.

ViewType ViewType

typeType BeschreibungDescription
NotenNOTEBOOK Notebook-Ansichts Element.Notebook view item.
DASHBOARDDASHBOARD Dashboard-Ansichts Element.Dashboard view item.

Viewstoexport ViewsToExport

Zu exportier Tier Ansicht: entweder Code, alle Dashboards oder alle.View to export: either code, all dashboards, or all.

typeType BeschreibungDescription
CODECODE Code Ansicht des Notebooks.Code view of the notebook.
DASHBOARDSDASHBOARDS Alle Dashboardansichten des Notebooks.All dashboard views of the notebook.
ALLALL Alle Ansichten des Notebooks.All views of the notebook.