REST-API 2.0 REST API 2.0

Die Databricks-REST-API 2.0 unterstützt Dienste zum Verwalten von Arbeitsbereichen, DBFS, Clustern, Instanzpools, Aufträgen, Bibliotheken, Benutzern und Gruppen, Token und MLflow-Experimenten und-Modellen.The Databricks REST API 2.0 supports services to manage your workspace, DBFS, clusters, instance pools, jobs, libraries, users and groups, tokens, and MLflow experiments and models.

In diesem Artikel finden Sie eine Übersicht über die Verwendung der REST-API.This article provides an overview of how to use the REST API. Links zu den einzelnen API-Verweisen, Authentifizierungsoptionen und Beispielen sind am Ende des Artikels aufgeführt.Links to each API reference, authentication options, and examples are listed at the end of the article.

Informationen zum Authentifizieren bei der REST-API mithilfe persönlicher Zugriffstoken finden Sie unter Authentifizieren mit persönlichen Azure Databricks-Zugriffstoken.For information about authenticating to the REST API using personal access tokens, see Authentication using Azure Databricks personal access tokens. API-Beispiele finden Sie unter API-Beispiele.For API examples, see API examples.

Informationen zum Authentifizieren bei der REST-API mithilfe von Azure Active Directory-Token finden Sie unter Authentifizieren mit Azure Active Directory-Token.For information about authenticating to the REST API using Azure Active Directory tokens, see Authenticate using Azure Active Directory tokens. Beispiele finden Sie unter Verwenden eines Azure AD-Zugriffstokens für einen Benutzer und Verwenden eines Azure AD-Zugriffstokens für einen Dienstprinzipal.For examples, see Use an Azure AD access token for a user and Use an Azure AD access token for a service principal.

RatenbegrenzungenRate limits

Databricks erzwingt eine Begrenzung der Datenübertragungsrate für alle REST-API-Aufrufe, um bei starker Auslastung eine hohe Dienstqualität sicherzustellen.To ensure high quality of service under heavy load, Databricks enforces rate limits for all REST API calls. Grenzwerte werden pro Endpunkt und Arbeitsbereich festgelegt, um eine faire Nutzung und Hochverfügbarkeit sicherzustellen.Limits are set per endpoint and per workspace to ensure fair usage and high availability. Wenden Sie sich an Ihren Databricks-Vertriebsmitarbeiter, um eine Erhöhung des Grenzwerts anzufordern.To request a limit increase, contact your Databricks representative.

Bei Anforderungen, die die Ratenbegrenzung überschreiten, wird der Statuscode 429 als Antwort empfangen.Requests that exceed the rate limit return a 429 response status code.

Analysieren der AusgabeParse output

Es kann nützlich sein, Teile der JSON-Ausgabe zu analysieren.It can be useful to parse out parts of the JSON output. In diesen Fällen empfiehlt es sich, das Hilfsprogramm jq zu verwenden.In these cases, we recommend that you to use the utility jq. Weitere Informationen finden Sie im Leitfaden zu jq.For more information, see the jq Manual. Sie können jq unter MacOS mit Homebrew installieren, indem Sie brew install jq ausführen.You can install jq on MacOS using Homebrew by running brew install jq.

Einige STRING-Felder (die Fehlermeldungen/beschreibende Meldungen für die Benutzeroberfläche enthalten) sind unstrukturiert. In programmgesteuerten Workflows ist das Format dieser Felder nicht verlässlich.Some STRING fields (which contain error/descriptive messaging intended to be consumed by the UI) are unstructured, and you should not depend on the format of these fields in programmatic workflows.

Aufrufen von GET mithilfe einer AbfragezeichenfolgeInvoke a GET using a query string

Die meisten API-Aufrufe erfordern zwar die Angabe eines JSON-Texts, für GET-Aufrufe können Sie jedoch eine Abfragezeichenfolge angeben.While most API calls require that you specify a JSON body, for GET calls you can specify a query string.

Ersetzen Sie in den folgenden Beispielen <databricks-instance> durch die Arbeitsbereichs-URL Ihrer Azure Databricks-Bereitstellung.In the following examples, replace <databricks-instance> with the workspace URL of your Azure Databricks deployment. <databricks-instance> muss mit adb- beginnen.<databricks-instance> should start with adb-. Verwenden Sie nicht die veraltete regionale URL, die mit <azure-region-name> beginnt.Do not use the deprecated regional URL starting with <azure-region-name>. Sie funktioniert möglicherweise nicht für neue Arbeitsbereiche, ist weniger zuverlässig und weist eine geringere Leistung als arbeitsbereichsspezifische URLs auf.It may not work for new workspaces, will be less reliable, and will exhibit lower performance than per-workspace URLs.

Zum Abrufen der Details für einen Cluster führen Sie den folgenden Befehl aus:To get the details for a cluster, run:

curl ... https://<databricks-instance>/api/2.0/clusters/get?cluster_id=<cluster-id>

Zum Auflisten der Inhalte des DBFS-Stamms führen Sie den folgenden Befehl aus:To list the contents of the DBFS root, run:

curl ... https://<databricks-instance>/api/2.0/dbfs/list?path=/

Zeichenfolgen der Runtimeversion Runtime version strings

Viele API-Aufrufe erfordern die Angabe der Zeichenfolge einer Databricks-Runtimeversion.Many API calls require you to specify a Databricks runtime version string. In diesem Abschnitt wird die Struktur einer Versionszeichenfolge in der Databricks-REST-API beschrieben.This section describes the structure of a version string in the Databricks REST API.

Databricks RuntimeDatabricks Runtime

<M>.<F>.x[-cpu][-gpu][-ml][-hls][conda]-scala<scala-version>

Hierbei gilt:where

  • M: Hauptversion von Databricks RuntimeM - Databricks Runtime major release
  • F: Featurerelease von Databricks RuntimeF - Databricks Runtime feature release
  • cpu: CPU-Version (nur mit -ml)cpu - CPU version (with -ml only)
  • gpu - GPU-fähiggpu - GPU-enabled
  • ml - Maschinelles Lernenml - Machine learning
  • hls - Genomicshls - Genomics
  • conda - mit Conda (nicht mehr verfügbar)conda - with Conda (no longer available)
  • scala-version: Version von Scala, die zum Kompilieren von Spark verwendet wird: 2.10, 2.11 oder 2.12scala-version - version of Scala used to compile Spark: 2.10, 2.11, or 2.12

Beispiel: 5.5.x-scala2.10 und 6.3.x-gpu-scala2.11.For example, 5.5.x-scala2.10 and 6.3.x-gpu-scala2.11. Die Tabellen mit den unterstützten Releases und dem Verlauf zum Ende des Supports ordnen Databricks Runtime-Versionen der in der Runtime enthaltenen Spark-Version zu.The Supported releases and End-of-support history tables map Databricks Runtime versions to the Spark version contained in the runtime.

Databricks LightDatabricks Light

apache-spark.<M>.<F>.x-scala<scala-version>

Hierbei gilt:where

  • M: Hauptversion von Apache SparkM - Apache Spark major release
  • F: Featurerelease von Apache SparkF - Apache Spark feature release
  • scala-version: Version von Scala, die zum Kompilieren von Spark verwendet wird: 2.10 oder 2.11scala-version - version of Scala used to compile Spark: 2.10 or 2.11

Beispiel: apache-spark-2.4.x-scala2.11.For example, apache-spark-2.4.x-scala2.11.

APIsAPIs