REST API 2.0

Rozhraní Databricks REST API 2.0 podporuje služby pro správu pracovních prostorů, DBFS, clusterů, fondů instancí, úloh, knihoven, uživatelů a skupin, tokenů a experimentů a modelů MLflow.

Tento článek obsahuje přehled použití tohoto rozhraní REST API. Odkazy na referenční informace k jednotlivým rozhraním API, možnosti ověřování a příklady jsou uvedené na konci článku.

Informace o ověřování v rozhraní REST API pomocí tokenů PAT najdete v tématu Ověřování pomocí tokenů PAT služby Azure Databricks. Ukázky rozhraní API najdete v tématu Ukázky rozhraní API.

Informace o ověřování v rozhraní REST API pomocí tokenů Azure Active Directory najdete v tématu Ověřování pomocí tokenů Azure Active Directory. Příklady najdete v částech Použití přístupového tokenu Azure AD pro uživatele a Použití přístupového tokenu Azure AD pro instanční objekt.

Omezení přenosové rychlosti

Za účelem zajištění vysoké kvality služby v případě vysoké zátěže služba Databricks vynucuje omezení přenosové rychlosti pro všechna volání REST API. Omezení se nastavují na koncový bod a na pracovní prostor, aby se zajistilo spravedlivé využití a vysoká dostupnost. Pokud chcete požádat o zvýšení limitu, obraťte se na zástupce Databricks.

Požadavky, které toto omezení přenosové rychlosti překročí, vrací stavový kód odpovědi 429.

Parsování výstupu

Někdy může být užitečné parsováním získat části výstupu JSON. V takových případech doporučujeme použít nástroj jq. Další informace najdete v příručce k nástroji jq. V systému MacOS můžete nástroj jq nainstalovat pomocí Homebrew spuštěním příkazu brew install jq.

Některá pole STRING (obsahující chybové nebo popisné zprávy určené pro uživatelské rozhraní) jsou nestrukturovaná, a proto by vaše programové pracovní postupy neměly být závislé na formátu těchto polí.

Vyvolání příkazu GET pomocí řetězce dotazu

Zatímco většina volání rozhraní API vyžaduje zadání textu JSON, pro volání příkazu GET můžete zadat řetězec dotazu.

V následujících příkladech nahraďte <databricks-instance> adresou URL pracovního prostoru pro vaše nasazení Azure Databricks. Parametr <databricks-instance> by měl začínat řetězcem adb-. Nepoužívejte zastaralou adresu URL oblasti začínající <azure-region-name>. Nemusí fungovat pro nové pracovní prostory, bude méně spolehlivá a bude mít nižší výkon než adresy URL pro jednotlivé pracovní prostory.

Pokud chcete získat podrobnosti o clusteru, spusťte:

curl ... https://<databricks-instance>/api/2.0/clusters/get?cluster_id=<cluster-id>

Pokud chcete vypsat obsah kořenového adresáře DBFS, spusťte:

curl ... https://<databricks-instance>/api/2.0/dbfs/list?path=/

Řetězce verzí modulu runtime

Řada volání rozhraní API vyžaduje zadání řetězce verze modulu Databricks Runtime. Tato část popisuje strukturu řetězce verze v rozhraní Databricks REST API.

Modul runtime Databricks

<M>.<F>.x[-cpu][-esr][-gpu][-ml][-hls][conda]-scala<scala-version>

kde:

  • M – hlavní verze modulu Databricks Runtime
  • F – vydání modulu Databricks Runtime s novými funkcemi
  • cpu – verze CPU (pouze s parametrem -ml)
  • esr – Rozšířená podpora
  • gpu - s podporou GPU
  • ml - strojové učení
  • hls - Genomics
  • conda - se systémem Conda (už není k dispozici)
  • scala-version – verze Scala použitá ke kompilaci Sparku: 2.10, 2.11 nebo 2.12

Například:

  • 7.6.x-gpu-ml-scala2.12 představuje Databricks Runtime 7,6 pro Machine Learning, je povolený grafický procesor a používá Scala verze 2,12 ke kompilaci Spark verze 3.0.1.
  • 6.4.x-esr-scala2.11 představuje rozšířenou podporu Databricks Runtime 6,4 a používá Scala verze 2,11 ke kompilaci Spark verze 2.4.5.

Podporované verze modulu runtime datacihly a plány podpory a nepodporované verze tabulky mapují Databricks runtime verze na verzi Sparku obsaženou v modulu runtime.

Seznam dostupných Azure Databricksch řetězců běhové verze můžete získat voláním rozhraní API verze modulu runtime .

Databricks Light

apache-spark.<M>.<F>.x-scala<scala-version>

kde:

  • M – hlavní verze Apache Sparku
  • F – vydání Apache Sparku s novými funkcemi
  • scala-version – verze Scala použitá ke kompilaci Sparku: 2.10 nebo 2.11

Například, apache-spark-2.4.x-scala2.11.

Rozhraní API