Verwalten von NotebooksManage notebooks

Sie können Notebooks mithilfe der Benutzeroberfläche, der CLI und durch Aufrufen der Arbeitsbereichs-API verwalten.You can manage notebooks using the UI, the CLI, and by invoking the Workspace API. Dieser Artikel konzentriert sich auf die Ausführung von Notebook-Aufgaben mithilfe der Benutzeroberfläche.This article focuses on performing notebook tasks using the UI. Informationen zu den anderen Methoden finden Sie unter databricks-CLI und Arbeitsbereichs- API.For the other methods, see Databricks CLI and Workspace API.

Erstellen eines NotebooksCreate a notebook

  1. Klicken Sie Workspace  Home  in der Rand Leiste auf die Schaltfläche Arbeitsbereich und auf das Start Symbol der Start Schaltfläche .Click the Workspace button Workspace Icon or the Home button Home Icon in the sidebar. Führen Sie einen der folgenden Schritte aus:Do one of the following:
    • Klicken Sie neben einem beliebigen Ordner  auf der rechten Seite des Texts auf die Dropdown Liste Menü, und wählen Sie > Notebook erstellenaus.Next to any folder, click the Menu Dropdown on the right side of the text and select Create > Notebook.

      Erstellen eines NotebooksCreate notebook

    • Klicken Sie im Arbeitsbereich oder in einem Benutzerordner auf die  Einfügemarke, und wählen Sie > Notebook erstellenaus.In the Workspace or a user folder, click Down Caret and select Create > Notebook.

  2. Geben Sie im Dialogfeld Create Notebook einen Namen ein, und wählen Sie die Standardsprache des Notebooks aus.In the Create Notebook dialog, enter a name and select the notebook’s default language.
  3. Wenn Cluster ausgeführt werden, wird in der Dropdown-Dropdown-Gruppe angezeigt.If there are running clusters, the Cluster drop-down displays. Wählen Sie den Cluster aus, an den Sie das Notebook Anfügen möchten.Select the cluster you want to attach the notebook to.
  4. Klicken Sie auf Erstellen.Click Create.

Öffnen eines NotebooksOpen a notebook

Klicken Sie in Ihrem Arbeitsbereich auf einenIn your workspace, click a Notebook.. Der Notebook-Pfad wird angezeigt, wenn Sie auf den Notebook-Titel zeigen.The notebook path displays when you hover over the notebook title.

Löschen eines NotebooksDelete a notebook

Informationen zum Zugriff auf das Arbeitsbereichs Menü und zum Löschen von Notebooks oder anderen Elementen im Arbeitsbereich finden Sie unter Ordner -und Arbeitsbereichs Objekt Vorgänge .See Folders and Workspace object operations for information about how to access the workspace menu and delete notebooks or other items in the Workspace.

Kopieren des NotebookpfadsCopy notebook path

Um einen Notebook-Dateipfad zu kopieren, ohne das Notebook zu öffnen, klicken Sie mit der rechten Maustaste auf den Notebook-Namen, oder klicken Sie  auf die Dropdown Liste rechts neben dem Notebook, und wählen Sie Datei Pfad kopierenTo copy a notebook file path without opening the notebook, right-click the notebook name or click the Menu Dropdown to the right of the notebook name and select Copy File Path.

Kopieren des NotebookpfadsCopy notebook path

Umbenennen eines NotebooksRename a notebook

Um den Titel eines geöffneten Notebooks zu ändern, klicken Sie auf den Titel, und bearbeiten Sie Inline, oder klicken Sie auf Datei > umbenennen.To change the title of an open notebook, click the title and edit inline or click File > Rename.

Steuern des Zugriffs auf ein NotebookControl access to a notebook

Wenn Ihr Azure Databricks Konto über den Azure Databricks Premium-Planverfügt, können Sie die Zugriffs Steuerung für den Arbeitsbereich verwenden, um zu steuern, wer Zugriff auf ein Notebook hat.If your Azure Databricks account has the Azure Databricks Premium Plan, you can use Workspace access control to control who has access to a notebook.

Externe Notebook-Formate Notebook external formats

Azure Databricks unterstützt mehrere externe Notebook-Formate:Azure Databricks supports several notebook external formats:

  • Quelldatei: eine Datei, die nur Quell Code Anweisungen mit der Erweiterung .scala , .py , oder enthält .sql .r .Source file: A file containing only source code statements with the extension .scala, .py, .sql, or .r.
  • HTML: ein Azure Databricks Notebook mit der Erweiterung .html .HTML: An Azure Databricks notebook with the extension .html.
  • DBC-Archiv: ein databricks-Archiv.DBC archive: A Databricks archive.
  • Ipython Notebook: ein jupyter Notebook mit der Erweiterung .ipynb .IPython notebook: A Jupyter notebook with the extension .ipynb.
  • Rmarkdown: ein R markdown Dokument mit der Erweiterung .Rmd .RMarkdown: An R Markdown document with the extension .Rmd.

Inhalt dieses Abschnitts:In this section:

Notebook importieren Import a notebook

Sie können ein externes Notebook aus einer URL oder einer Datei importieren.You can import an external notebook from a URL or a file.

  1. Klicken Sie Workspace  Home  in der Rand Leiste auf die Schaltfläche Arbeitsbereich und auf das Start Symbol der Start Schaltfläche .Click the Workspace button Workspace Icon or the Home button Home Icon in the sidebar. Führen Sie einen der folgenden Schritte aus:Do one of the following:

    • Klicken Sie neben einem beliebigen Ordner  auf der rechten Seite des Texts auf die Dropdown Liste Menü, und wählen Sie importierenaus.Next to any folder, click the Menu Dropdown on the right side of the text and select Import.

    • Klicken Sie im Arbeitsbereich oder in einem Benutzerordner auf  nach unten, und wählen Sie importierenaus.In the Workspace or a user folder, click Down Caret and select Import.

      Notebook importierenImport notebook

  2. Geben Sie die URL an, oder navigieren Sie zu einer Datei mit einem unterstützten externen Format.Specify the URL or browse to a file containing a supported external format.

  3. Klicken Sie auf Importieren.Click Import.

Exportieren eines Notebooks Export a notebook

Wählen Sie in der Notebook-Symbolleiste die Option Datei > exportieren und dann ein Formataus.In the notebook toolbar, select File > Export and a format.

Hinweis

Wenn Sie ein Notebook als HTML, ipython Notebook oder Archive (DBC) exportieren und die Ergebnisse nicht gelöscht haben, sind die Ergebnisse der Ausführung des Notebooks enthalten.When you export a notebook as HTML, IPython notebook, or archive (DBC), and you have not cleared the results, the results of running the notebook are included.

Notebooks und ClusterNotebooks and clusters

Bevor Sie in einem Notebook arbeiten können, müssen Sie das Notebook zuerst an einen Cluster anfügen.Before you can do any work in a notebook, you must first attach the notebook to a cluster. In diesem Abschnitt wird beschrieben, wie Notebooks an und von Clustern angefügt und getrennt werden und was im Hintergrund passiert, wenn Sie diese Aktionen ausführen.This section describes how to attach and detach notebooks to and from clusters and what happens behind the scenes when you perform these actions.

Inhalt dieses Abschnitts:In this section:

Ausführungs Kontexte Execution contexts

Wenn Sie ein Notebook an einen Cluster anfügen, erstellt Azure Databricks einen Ausführungs Kontext.When you attach a notebook to a cluster, Azure Databricks creates an execution context. Ein Ausführungs Kontext enthält den Status für eine repl -Umgebung für jede unterstützte Programmiersprache: python, R, Scala und SQL.An execution context contains the state for a REPL environment for each supported programming language: Python, R, Scala, and SQL. Wenn Sie eine Zelle in einem Notebook ausführen, wird der Befehl an die entsprechende Sprache der repl-Umgebung gesendet und ausgeführt.When you run a cell in a notebook, the command is dispatched to the appropriate language REPL environment and run.

Sie können auch die Rest-1,2-API verwenden, um einen Ausführungs Kontext zu erstellen und einen Befehl zum Ausführen im Ausführungs Kontext zu senden.You can also use the REST 1.2 API to create an execution context and send a command to run in the execution context. Entsprechend wird der Befehl an die Sprache der repl-Umgebung gesendet und ausgeführt.Similarly, the command is dispatched to the language REPL environment and run.

Ein Cluster hat eine maximale Anzahl von Ausführungs Kontexten (145).A cluster has a maximum number of execution contexts (145). Nachdem die Anzahl der Ausführungs Kontexte diesen Schwellenwert erreicht hat, können Sie kein Notebook an den Cluster anfügen oder einen neuen Ausführungs Kontext erstellen.Once the number of execution contexts has reached this threshold, you cannot attach a notebook to the cluster or create a new execution context.

Leerlauf Ausführungs KontexteIdle execution contexts

Ein Ausführungs Kontext wird als Leerlauf betrachtet, wenn die letzte abgeschlossene Ausführung über einen festgelegten Leerlauf Schwellenwert liegt.An execution context is considered idle when the last completed execution occurred past a set idle threshold. Die letzte abgeschlossene Ausführung ist der Zeitpunkt, zu dem das Notebook die Ausführung von Befehlen zuletzt abgeschlossen hat.Last completed execution is the last time the notebook completed execution of commands. Der Leerlauf Schwellenwert ist die Zeitspanne, die zwischen der letzten abgeschlossenen Ausführung und jedem Versuch, das Notebook automatisch zu trennen, bestehen muss.The idle threshold is the amount of time that must pass between the last completed execution and any attempt to automatically detach the notebook. Der Standard Schwellenwert für den Leerlauf beträgt 24 Stunden.The default idle threshold is 24 hours.

Wenn ein Cluster den maximalen Kontext Grenzwert erreicht hat, entfernt Azure Databricks in den Leerlauf befindlichen Ausführungs Kontexte (ausgehend von der zuletzt verwendeten) nach Bedarf.When a cluster has reached the maximum context limit, Azure Databricks removes (evicts) idle execution contexts (starting with the least recently used) as needed. Selbst wenn ein Kontext entfernt wird, wird das Notebook, das den Kontext verwendet, weiterhin an den Cluster angefügt und in der Notebook-Liste des Clusters angezeigt.Even when a context is removed, the notebook using the context is still attached to the cluster and appears in the cluster’s notebook list. Streamingnotebooks werden als aktiv ausgeführt, und Ihr Kontext wird nie entfernt, bis die Ausführung beendet wurde.Streaming notebooks are considered actively running, and their context is never evicted until their execution has been stopped. Wenn ein Leerlauf Kontext entfernt wird, zeigt die Benutzeroberfläche eine Meldung an, die anzeigt, dass das Notebook, das den Kontext verwendet, aufgrund einer Leerlaufzeit getrennt wurde.If an idle context is evicted, the UI displays a message indicating that the notebook using the context was detached due to being idle.

Notebook-Kontext entferntNotebook context evicted

Wenn Sie versuchen, ein Notebook an einen Cluster mit der maximalen Anzahl von Ausführungs Kontexten anzufügen, und es keine Leerlauf Kontexte gibt (oder wenn die automatische Entfernung deaktiviert ist), zeigt die Benutzeroberfläche eine Meldung an, die besagt, dass der aktuelle Schwellenwert für die maximale Ausführungs Kontexte erreicht wurde und das Notebook im getrennten Zustand verbleibt.If you attempt to attach a notebook to cluster that has maximum number of execution contexts and there are no idle contexts (or if auto-eviction is disabled), the UI displays a message saying that the current maximum execution contexts threshold has been reached and the notebook will remain in the detached state.

Notebook getrenntNotebook detached

Wenn Sie einen Prozess verzweigen, wird ein Leerlauf Ausführungs Kontext nach wie vor in den Leerlauf versetzt, sobald die Ausführung der Anforderung, die den Prozess verzweigt hat, erfolgt.If you fork a process, an idle execution context is still considered idle once execution of the request that forked the process returns. Das Verzweigen von separaten Prozessen wird bei Spark nicht empfohlen .Forking separate processes is not recommended with Spark.

Konfigurieren der automatischen Entfernung von Kontexten Configure context auto-eviction

Sie können die automatische Entfernung von Kontext Einstellungen konfigurieren, indem Sie die Spark-Eigenschaft festlegen spark.databricks.chauffeur.enableIdleContextTracking .You can configure context auto-eviction by setting the Spark property spark.databricks.chauffeur.enableIdleContextTracking.

  • In databricks 5,0 und höher ist die automatische Entfernung standardmäßig aktiviert.In Databricks 5.0 and above, auto-eviction is enabled by default. Sie deaktivieren die automatische Entfernung für einen Cluster, indem Sie festlegen spark.databricks.chauffeur.enableIdleContextTracking false .You disable auto-eviction for a cluster by setting spark.databricks.chauffeur.enableIdleContextTracking false.
  • In databricks 4,3 ist die automatische Entfernung standardmäßig deaktiviert.In Databricks 4.3, auto-eviction is disabled by default. Sie aktivieren die automatische Entfernung für einen Cluster durch Festlegen von spark.databricks.chauffeur.enableIdleContextTracking true .You enable auto-eviction for a cluster by setting spark.databricks.chauffeur.enableIdleContextTracking true.

Anfügen eines Notebooks an einen Cluster Attach a notebook to a cluster

So fügen Sie ein Notebook an einen Cluster an:To attach a notebook to a cluster:

  1. Klicken Sie in der Notebook-Symbolleiste auf  Cluster Symbol getrennte  Cluster-Dropdown Liste .In the notebook toolbar, click Clusters Icon Detached Cluster Dropdown.
  2. Wählen Sie in der Dropdown-Dropdown Gruppe einen Clusteraus.From the drop-down, select a cluster.

Wichtig

Für ein angefügtes Notebook sind die folgenden Apache Spark Variablen definiert.An attached notebook has the following Apache Spark variables defined.

KlasseClass VariablennameVariable Name
SparkContext sc
SQLContext/HiveContext sqlContext
SparkSession(Spark 2. x)SparkSession (Spark 2.x) spark

Erstellen Sie nicht SparkSession , SparkContext oder SQLContext .Do not create a SparkSession, SparkContext, or SQLContext. Dies führt zu inkonsistentem Verhalten.Doing so will lead to inconsistent behavior.

Ermitteln der Version von Spark und Databricks Runtime Determine Spark and Databricks Runtime version

Führen Sie Folgendes aus, um die Spark-Version des Clusters zu ermitteln, an den Ihr Notebook angefügt ist:To determine the Spark version of the cluster your notebook is attached to, run:

spark.version

Führen Sie Folgendes aus, um die Databricks Runtime Version des Clusters zu ermitteln, an den Ihr Notebook angefügt ist:To determine the Databricks Runtime version of the cluster your notebook is attached to, run:

ScalaScala
dbutils.notebook.getContext.tags("sparkVersion")
PythonPython
spark.conf.get("spark.databricks.clusterUsageTags.sparkVersion")

Hinweis

Sowohl dieses sparkVersion Tag als auch die spark_version Eigenschaft, die für die Endpunkte in der Cluster-API und der Jobs- API erforderlich ist, verweisen auf die Databricks Runtime Version, nicht auf die Spark-Version.Both this sparkVersion tag and the spark_version property required by the endpoints in the Clusters API and Jobs API refer to the Databricks Runtime version, not the Spark version.

Trennen eines Notebooks von einem Cluster Detach a notebook from a cluster

  1. Klicken Sie in der Notebook-Symbolleiste auf  Cluster Symbol Cluster-  Dropdown .In the notebook toolbar, click Clusters Icon Attached Cluster Dropdown.

  2. Wählen Sie trennenaus.Select Detach.

    Notebook trennenDetach notebook

Sie können Notebooks auch über die Registerkarte Notebooks auf der Seite Cluster Details trennen.You can also detach notebooks from a cluster using the Notebooks tab on the cluster details page.

Wenn Sie ein Notebook von einem Cluster trennen, wird der Ausführungs Kontext entfernt, und alle berechneten Variablen Werte werden aus dem Notebook gelöscht.When you detach a notebook from a cluster, the execution context is removed and all computed variable values are cleared from the notebook.

Tipp

Azure Databricks empfiehlt, nicht verwendete Notebooks von einem Cluster zu trennen.Azure Databricks recommends that you detach unused notebooks from a cluster. Dadurch wird Speicherplatz auf dem Treiber freigegeben.This frees up memory space on the driver.

Alle an einen Cluster angefügten Notebooks anzeigenView all notebooks attached to a cluster

Auf der Registerkarte Notebooks auf der Seite Cluster Details werden alle Notebooks angezeigt, die an einen Cluster angefügt sind.The Notebooks tab on the cluster details page displays all of the notebooks that are attached to a cluster. Auf der Registerkarte wird außerdem der Status der einzelnen angefügten Notebooks angezeigt, zusammen mit dem Zeitpunkt, an dem ein Befehl zuletzt vom Notebook aus ausgeführt wurde.The tab also displays the status of each attached notebook, along with the last time a command was run from the notebook.

An Cluster Details angefügte NotebooksCluster details attached notebooks

Notebook planen Schedule a notebook

So planen Sie die regelmäßige Ausführung eines Notebook-Auftrags:To schedule a notebook job to run periodically:

  1. Klicken Sie in der Notebook-Symbolleiste auf die SchaltflächenIn the notebook toolbar, click the Zeitplan rechts oben.button at the top right.
  2. Klicken Sie auf + Neu.Click + New.
  3. Wählen Sie den Zeitplan aus.Choose the schedule.
  4. Klicken Sie auf OK.Click OK.

Notebooks verteilen Distribute notebooks

Um die einfache Verteilung von Azure Databricks Notebookszu ermöglichen, unterstützt Azure Databricks das databricks-Archiv, bei dem es sich um ein Paket handelt, das einen Ordner mit Notebooks oder ein einzelnes Notebook enthalten kann.To allow you to easily distribute Azure Databricks notebooks, Azure Databricks supports the Databricks archive, which is a package that can contain a folder of notebooks or a single notebook. Ein databricks-Archiv ist eine JAR-Datei mit zusätzlichen Metadaten und hat die Erweiterung .dbc .A Databricks archive is a JAR file with extra metadata and has the extension .dbc. Die im Archiv enthaltenen Notebooks weisen ein Azure Databricks internes Format auf.The notebooks contained in the archive are in an Azure Databricks internal format.

Importieren eines ArchivsImport an archive

  1. Klicken Sie   rechts neben einem Ordner oder Notebook auf die Dropdown Liste mit dem Dropdown Menü, und wählen Sie importierenaus.Click Down Caret or Menu Dropdown to the right of a folder or notebook and select Import.
  2. Wählen Sie Datei oder URLaus.Choose File or URL.
  3. Wechseln Sie zu oder löschen Sie ein databricks-Archiv in der Dropzone.Go to or drop a Databricks archive in the dropzone.
  4. Klicken Sie auf Importieren.Click Import. Das Archiv wird in Azure Databricks importiert.The archive is imported into Azure Databricks. Wenn das Archiv einen Ordner enthält, Azure Databricks diesen Ordner neu erstellen.If the archive contains a folder, Azure Databricks recreates that folder.

Exportieren eines ArchivsExport an archive

Klicken Sie   rechts neben einem Ordner oder Notebook auf die Dropdown Liste mit dem Dropdown Menü, und wählen Sie > DBC-Archiv exportierenaus.Click Down Caret or Menu Dropdown to the right of a folder or notebook and select Export > DBC Archive. Azure Databricks lädt eine Datei mit dem Namen herunter <[folder|notebook]-name>.dbc .Azure Databricks downloads a file named <[folder|notebook]-name>.dbc.