Poskytovatel Terraformu datacihlů

HashiCorp terraformu je oblíbený otevřený zdrojový Nástroj pro vytváření bezpečné a předvídatelné cloudové infrastruktury napříč několika poskytovateli cloudu. Pomocí zprostředkovatele Terraformu datacihly můžete spravovat Azure Databricks pracovní prostory a přidruženou cloudovou infrastrukturu pomocí flexibilního a výkonného nástroje. Cílem poskytovatele datacihly terraformu je podporovat všechna rozhraní REST API datacihly, která podporují automatizaci nejsložitější aspektů nasazení a správy datových platforem. Zákazníci datacihly používají poskytovatele Terraformu k nasazování a správě clusterů a úloh, zřizování pracovních prostorů datacihlů a konfiguraci přístupu k datům.

Vztah prostředků terraformu

Důležité

Poskytovatel datacihlů Terraformu není formálně podporovaný datacihly nebo Microsoftem. Spravuje ho technický tým pro datacihly a je poskytován tak, jak je. Není k dispozici žádná smlouva o úrovni služeb (SLA). Datacihly a společnost Microsoft nezpůsobují žádné záruky žádného druhu. Pokud zjistíte problém se zprostředkovatelem, zadáte problém na GitHubua aplikace Project Maintainer bude přezkoumána jako čas povolení.

Rychlý start

  1. Stáhněte a nainstalujte rozhraní příkazového řádku terraformu. Pokud si chcete přečíst kompletní dokumentaci pro poskytovatele datacihly Terraformu, přečtěte si téma Terraformu Registry. Další informace najdete v tématu dokumentace k HashiCorp terraformu a referenční informace ke konfiguračnímu jazyku.

  2. Vytvořte základní konfigurační soubor Terraformu a pojmenujte ho main.tf . Pokud jste již nakonfigurovali CLI datacihly, následující příklad bude fungovat bez jakýchkoli změn. Prostudujte si primární dokumentaci týkající se Konfigurace ověřování.

    Je možné použít experimentální ověřování pomocí rozhraní příkazového řádku Azure CLI, kde zprostředkovatel spoléhá na přístupový token uložený v mezipaměti az login příkazem, aby bylo možné místní vývojové scénáře. Technicky se poskytovatel volá az account get-access-token pokaždé, než vyprší platnost přístupového tokenu. Ověřuje se tím, že funguje se všemi rozhraními REST API datacihly.

    terraform {
      required_providers {
        databricks = {
          source = "databrickslabs/databricks"
          version = "0.3.1"
        }
      }
    }
    
    provider "databricks" {
      # authentication options
    }
    
    data "databricks_current_user" "me" {}
    data "databricks_spark_version" "latest" {}
    data "databricks_node_type" "smallest" {
      local_disk = true
    }
    
    resource "databricks_notebook" "this" {
      path     = "${data.databricks_current_user.me.home}/Terraform"
      language = "PYTHON"
      content_base64 = base64encode(<<-EOT
        # created from ${abspath(path.module)}
        display(spark.range(10))
        EOT
      )
    }
    
    resource "databricks_job" "this" {
      name = "Terraform Demo (${data.databricks_current_user.me.alphanumeric})"
    
      new_cluster {
        num_workers   = 1
        spark_version = data.databricks_spark_version.latest.id
        node_type_id  = data.databricks_node_type.smallest.id
      }
    
      notebook_task {
        notebook_path = databricks_notebook.this.path
      }
    
      email_notifications {}
    }
    
    output "notebook_url" {
      value = databricks_notebook.this.url
    }
    
    output "job_url" {
      value = databricks_job.this.url
    }
    
  3. Inicializujte nasazení terraformu , abyste stáhli moduly potřebné k vytváření Azure Databricks úloh a poznámkových bloků automatizovaným způsobem:

    terraform init
    
  4. Spusťte terraformu použít pro použití plánu spuštění:

    terraform apply
    

Řešení potíží

Pro podporu specifickou pro Terraformu použijte kanál podpory HashiCorp Community. Úplnou dokumentaci k poskytovateli datacihlů Terraformu najdete v tématu Terraformu Registry. Pro problémy specifické pro poskytovatele Terraformu datacihly použijte problémy GitHubu.

Další kroky

  1. Vytvořte pracovní prostor Azure Databricks.
  2. Správa prostředků pracovního prostoru pro Azure Databricks pracovní prostor.