Verwendung von Notebooks in Azure Data StudioHow to use notebooks in Azure Data Studio

In diesem Artikel wird beschrieben, wie Sie der Notebook-Umgebung in Azure Data Studio starten und zum Starten, erstellen Ihre eigenen Notebooks.This article describes how to launch the Notebook experience in Azure Data Studio and how to start authoring your own notebooks. Außerdem wird veranschaulicht, Notebooks verwenden unterschiedlicher Kernel zu schreiben.It also shows how to write Notebooks using different kernels.

Verbindung mit SQL Server herstellenConnect to SQL Server

Sie können in den Microsoft SQL Server-Verbindungstyp in Azure Data Studio verbinden.You can connect to the Microsoft SQL Server connection type in Azure Data Studio. In Azure Data Studio, Sie können auch F1 drücken, und klicken Sie auf neue Verbindung und eine Verbindung mit Ihrer SQL Server.In Azure Data Studio, you can also press F1, and click New Connection and connect to your SQL Server.

Image1

Starten des NotebooksLaunch Notebooks

Es gibt mehrere Möglichkeiten, um ein neues Notebook zu starten.There are multiple ways to launch a new notebook.

  1. Wechseln Sie zu der Menü "Datei" in Azure Data Studio, und klicken Sie dann auf neues Notizbuch.Go to the File Menu in Azure Data Studio and then click on New Notebook.

    image3

  2. Klicken Sie mit der rechten Maustaste auf die SQL Server Verbindung, und klicken Sie dann starten neues Notizbuch.Right click on the SQL Server connection and then launch New Notebook. image3image3

  3. Öffnen Sie die befehlspalette (STRG + UMSCHALT + P)) und geben Sie im neues Notizbuch.Open the command palette (Ctrl+Shift+P)) and then type in New Notebook. Eine neue Datei namens Notebook-1.ipynb wird geöffnet.A new file named Notebook-1.ipynb opens.

Kernels unterstützt, und fügen Sie zum KontextSupported kernels and attach to context

SQL-Kernel wird von der Notebook-Installation in Studio für Azure Data nativ unterstützt.The Notebook Installation in Azure Data Studio natively supports SQL Kernel. Wenn Sie eine SQL-Entwickler sind und Notebooks verwenden möchten, dann wäre dies der gewählten Kernel.If you are a SQL developer and would like to use Notebooks then this would be your chosen Kernel.

Der SQL-Kernel kann auch verwendet werden, für die Verbindung mit PostgreSQL-Server-Instanzen.The SQL Kernel can also be used to connect to PostgreSQL server instances. Wenn Sie eine PostgreSQL-Entwickler sind und mit Ihrem PostgreSQL-Server herstellen möchten, klicken Sie dann Herunterladen der PostgreSQL Erweiterung im Studio für Azure Data Marketplace-Erweiterung.If you are a PostgreSQL developer and would like to connect to your PostgreSQL Server then download the PostgreSQL extension in the Azure Data Studio extension marketplace.

image7

SQL KernelSQL Kernel

In den codezellen im Notebook, ähnlich wie der Abfrage-Editor unterstützt moderne SQL codierumgebung, der Ihre alltäglichen Aufgaben mit integrierten Features wie z. B. einen umfangreichen SQL-Editor, IntelliSense und integrierten Codeausschnitte einfacher macht.In the code cells within the Notebook, similar to our query editor, we support modern SQL coding experience that makes your everyday tasks easier with built-in features such as a rich SQL editor, IntelliSense, and built-in code snippets. Codeausschnitte können Sie die richtige SQL-Syntax zum Erstellen von Datenbanken, Tabellen, Sichten, gespeicherte Prozeduren usw., und klicken Sie zum Aktualisieren vorhandener Datenbankobjekte generiert wird.Code snippets allow you to generate the proper SQL syntax to create databases, tables, views, stored procedures, etc., and to update existing database objects. Verwenden von Codeausschnitten schnell Kopien einer Datenbank für Entwicklungs- oder Testzwecke erstellen und zu generieren und Ausführen von Skripts.Use code snippets to quickly create copies of your database for development or testing purposes and to generate and execute scripts.

Klicken Sie auf ausführen um jede Zelle auszuführen.Click Run to execute each cell.

SQL-Kernel, um die Verbindung mit SQL Server-InstanzSQL Kernel to connect to SQL Server instance

image7

AbfrageergebnisseQuery Results

Image19

SQL-Kernel, um die Verbindung mit PostgreSQL-Server-InstanzSQL Kernel to connect to PostgreSQL Server instance

Image18

AbfrageergebnisseQuery Results

Image20

Konfigurieren von Python-NotebooksConfigure Python for Notebooks

Wenn Sie eine der anderen Kernel abgesehen von SQL aus der Dropdownliste "Kernel" auswählen, werden Sie dazu aufgefordert Konfigurieren von Python für Notebooks.When you select any of the other kernels apart from SQL from the kernel dropdown, this prompts you to Configure Python for Notebooks. Die Notebook-Abhängigkeiten im angegebenen Speicherort installiert, aber Sie können entscheiden, ob der Speicherort der Installation festgelegt.The Notebook dependencies get installed in a specified location but you can decide whether to set the installation location. Diese Installation kann einige Zeit dauern, und es wird empfohlen, die die Anwendung nicht zu schließen, bis die Installation abgeschlossen ist.This installation can take some time and it is recommended to not close the application until the installation is complete. Sobald die Installation abgeschlossen ist, können Sie das Schreiben von Code in die unterstützte Sprache starten.Once the installation finishes, you can start writing code in the supported language.

Image21

Wenn die Installation erfolgreich war, finden Sie eine Benachrichtigung in der Geschichte der Aufgabe sowie den Speicherort des Jupyter-Back-End-Servers in der Ausgabe-Terminal ausführen.Once the installation succeeds, you will find a notification in the Task History along with the location of the Jupyter backend server running in the Output Terminal.

Image22

KernelKernel DescriptionDescription
SQL KernelSQL Kernel Schreiben Sie SQL-Code an Ihre relationale Datenbank gerichtet sind.Write SQL Code targeted at your relational database.
PySpark3 und PySpark-KernelPySpark3 and PySpark Kernel Schreiben Sie Python-Code, die mit Spark Compute aus dem Cluster.Write Python code using Spark compute from the cluster.
Spark-KernelSpark Kernel Schreiben von Scala und R-Code, die mit Spark Compute aus dem Cluster.Write Scala and R code using Spark compute from the cluster.
Python KernelPython Kernel Schreiben Sie Python-Code für die lokale Entwicklung.Write Python code for local development.

Attach to Liefert den Kontext für den Kernel anfügen.Attach to provides the context for the Kernel to attach. Wenn Sie SQL-Kernel verwenden, dann Sie können Attach to eines SQL Server-Instanzen.If you are using SQL Kernel then you can Attach to any of your SQL Server instances.

Bei Verwendung der Kernel für Python3 der Attach to ist localhost.If you are using Python3 Kernel the Attach to is localhost. Sie können diesen Kernel für Ihre lokalen Python-Entwicklung verwenden.You can use this kernel for your local Python development.

Wenn Sie verbunden sind SQL Server-2019 big Data-Cluster, der Standardwert Attach to wird dieser Endpunkt des Clusters und informiert Sie Python, Scala und R-Code mithilfe der Spark-COMPUTE-, der dem Cluster zu übermitteln.When you are connected to SQL Server 2019 big data cluster, the default Attach to is that end point of the cluster and will let you submit Python,Scala and R code using the Spark compute of the cluster.

Codezellen und Markdown-ZellenCode Cells and Markdown Cells

Fügen Sie eine neue codezelle hinzu, indem Sie auf die + Code Befehl in der Symbolleiste.Add a new code cell by clicking the +Code command in the toolbar.

Fügen Sie eine neue Textzelle hinzu, indem Sie auf die + Text Befehl in der Symbolleiste.Add a new text cell by clicking the +Text command in the toolbar.

image8

Zelle ändert Bearbeitungsmodus, und geben Sie nun Markdown und Sie sehen die Vorschau zur gleichen ZeitThe cell changes to edit mode and now type markdown and you will see the preview at the same time

image9

Klicken außerhalb der Textzelle wird den markdowntext angezeigt.Clicking outside the text cell will show the markdown text.

Image10

Vertrauenswürdige und nicht vertrauenswürdigenTrusted and Non Trusted

Notebooks in Azure Data Studio geöffnet sind, standardmäßig vertrauenswürdige.Notebooks open in Azure Data Studio are default Trusted.

Wenn Sie ein Notebook von einer anderen Quelle öffnen sie in geöffnet nicht vertrauenswürdige Modus aus, und klicken Sie dann Sie stellen vertrauenswürdige.If you open a Notebook from some other source it will be opened in Non Trusted mode and then you can make it Trusted.

SpeichernSave

Sie können das Notebook durch Speichern STRG + S oder durch Klicken auf die Datei speichern, Datei speichern unter... und Datei Alles speichern Befehle über das Menü Datei und Datei: Speichern Sie Befehle in der befehlspalette den Befehl eingegeben wurden.You can save the Notebook by Ctrl+S or clicking the File Save, File Save As... and File Save All commands from the File menu and File: Save commands entered in the command palette.

Pyspark3/PySpark kernelPyspark3/PySpark kernel

Wählen Sie die PySpark Kernel und in den Zellentyp in den folgenden Code.Choose the PySpark Kernel and in the cell type in the following code.

Klicken Sie auf Ausführen.Click Run.

Der Spark-Anwendung wird gestartet, und gibt die folgende Ausgabe zurück:The Spark Application is started and returns the following output:

Image12

Spark-Kernel | Sprache ScalaSpark kernel | Scala language

Wählen Sie die Spark|Scala Kernel und in den Zellentyp in den folgenden Code.Choose the Spark|Scala Kernel and in the cell type in the following code.

Image13

Sie können auch die Optionen"Zelle" anzeigen, wenn Sie auf unten auf das Symbol "Optionen" klicken:You can also view the "Cell Options" when you click on the options icon below –

Image14

Spark-Kernel | R-SpracheSpark kernel | R language

Wählen Sie die Spark | R in der Dropdownliste für den Kernel.Choose the Spark | R in the dropdown for the kernels. Geben Sie oder fügen Sie in den Code, in der Zelle.In the cell, type or paste in the code. Klicken Sie auf ausführen auf die folgende Ausgabe angezeigt.Click Run to see the following output.

Image15

Lokaler Python-kernelLocal Python kernel

Wählen Sie die lokalen Python-Kernel und in den Zellentyp unter ""Choose the local Python Kernel and in the cell type in -

Image16

Verwalten von PaketenManage Packages

Eines der Dinge, die wir für die lokale Python-Entwicklung optimiert, bestand darin, bieten die Möglichkeit, Pakete zu installieren, die Kunden für ihre Szenarien benötigt würde.One of the things we optimized for local Python development was to include the ability to install packages which customers would need for their scenarios. Standardmäßig schließen wir die gängige Pakete wie pandas, numpy usw., aber wenn Sie erwarten ein Paket, das nicht enthalten ist, Schreiben Sie dann den folgenden Code, in die Zellen des Notebooks:By default, we include the common packages like pandas, numpy etc., but if you are expecting a package that is not included then write the following code in the notebook cell:

import <package-name>

Wenn Sie diesen Befehl ausführen Module not found zurückgegeben wird.When you run this command, Module not found is returned. Wenn Ihr Paket vorhanden ist, erhalten Sie nicht den Fehler.If your package exists, then you will not get the error.

Wenn zurückgegeben wird ein Module not Found Fehler, klicken Sie auf -Pakete verwalten Terminal zu starten.If it returns a Module not Found error, then click on Manage Packages to launch the terminal . Sie können jetzt Pakete lokal installieren.You can now install packages locally. Verwenden Sie die folgenden Befehle aus, um die Pakete zu installieren:Use the following commands to install the packages:

./pip install <package-name>

Tipp

Befolgen Sie die Anweisungen zum Installieren von Paketen im Terminalfenster ein, auf Mac.On Mac please follow the instructions in the Terminal window for installing packages.

Nach der Installation des Pakets sollten Sie in der Lage, wechseln in den Zellen des Notebooks, und geben Sie in den folgenden Befehl aus:After the package is installed, you should be able to go in the Notebook cell and type in following command:

import <package-name>

Verwenden Sie zum Deinstallieren eines Pakets in Ihr Terminal den folgenden Befehl ein:To uninstall a package, use the following command from your terminal:

./pip uninstall <package-name>

Nächste SchritteNext steps

Arbeiten mit der ein vorhandenes Notebook finden Sie unter so verwalten Sie Notebooks in Azure Data Studio.To learn how to work with an existing notebook, see How to manage notebooks in Azure Data Studio.