Importieren aus Azure Blob Storage

Wichtig

Der Support für Machine Learning Studio (klassisch) endet am 31. August 2024. Es wird empfohlen, bis zu diesem Datum auf Azure Machine Learning umzustellen.

Ab dem 1. Dezember 2021 können Sie keine neuen Ressourcen in Machine Learning Studio (klassisch) mehr erstellen. Bis zum 31. August 2024 können Sie die vorhandenen Ressourcen in Machine Learning Studio (klassisch) weiterhin verwenden.

Die Dokumentation zu ML Studio (klassisch) wird nicht mehr fortgeführt und kann künftig nicht mehr aktualisiert werden.

In diesem Thema wird beschrieben, wie Sie das Import Data-Modul in Machine Learning Studio (klassisch) verwenden, um Daten aus Azure Blob Storage zu lesen, damit Sie die Daten in einem Machine Learning-Experiment verwenden können.

Hinweis

Gilt für: Machine Learning Studio (klassisch)

Ähnliche Drag & Drop-Module sind im Azure Machine Learning-Designer verfügbar.

Azure Blob Service dient zum Speichern großer Datenmengen, einschließlich binärer Daten. Azure-Blobs können von überall aus über HTTP oder HTTPS aufgerufen werden. Je nach Art des Blobspeichers kann eine Authentifizierung erforderlich sein.

  • Öffentliche Blobs können von jedem oder von Benutzern mit einer SAS-URL aufgerufen werden.
  • Für private Blobs sind Anmeldeinformationen erforderlich.

Das Importieren aus dem Blobspeicher erfordert, dass Daten in Blobs gespeichert werden, die das Blockblob-Format verwenden. Die im Blob gespeicherten Dateien müssen entweder durch Komma getrennte Formate (CSV) oder durch Tabstopps getrennte Formate (TSV) verwenden. Wenn Sie die Datei lesen, werden die Datensätze und alle zutreffenden Attributüberschriften zeilenweise als Datensatz in den Arbeitsspeicher geladen.

Hinweis

Das Importdatenmodul unterstützt keine Verbindung mit einem Azure Blob Storage, wenn die Option "Sichere Übertragung erforderlich" aktiviert ist.

Weitere Einschränkungen für die Blobspeichertypen, die für die Verwendung mit Machine Learning unterstützt werden, finden Sie im Abschnitt Technische Hinweise.

Tipp

Müssen Daten in einem Format importiert werden, das nicht unterstützt wird? Sie können Python oder R verwenden. Weitere Informationen finden Sie in diesem Beispiel Azure KI-Katalog: Laden von Nicht-Textdateien aus Azure Blob Storage

Importieren von Daten aus Azure-Blobs

Es wird dringend empfohlen, vor dem Importieren Datenprofile zu erstellen, um sicherzustellen, dass das Schema wie erwartet ausfällt. Beim Importvorgang werden einige Kopfzeilen durchsucht, um das Schema zu bestimmen, aber spätere Zeilen können zusätzliche Spalten oder Daten enthalten, die Fehler verursachen.

Verwenden des Assistenten zum Importieren von Daten

Das Modul verfügt über einen neuen Assistenten, mit dem Sie eine Speicheroption auswählen, aus vorhandenen Abonnements und Konten auswählen und schnell alle Optionen konfigurieren können.

  1. Fügen Sie das Modul Import Data Ihrem Experiment hinzu. Sie finden das Modul in Studio (klassisch) in der Kategorie Dateneingabe und - ausgabe.

  2. Klicken Sie auf Datenimport-Assistenten starten , und befolgen Sie die Anweisungen.

  3. Klicken Sie nach Abschluss der Konfiguration mit der rechten Maustaste auf das Modul, und wählen Sie Ausgewählte ausführen aus, um die Daten tatsächlich in Ihr Experiment zu kopieren.

Wenn Sie eine vorhandene Datenverbindung bearbeiten müssen, lädt der Assistent alle vorherigen Konfigurationsdetails, damit Sie nicht von Grund auf neu starten müssen.

Manuelles Festlegen der Eigenschaften im Modul „Daten importieren“

Die folgenden Schritte beschreiben, wie Sie die Importquelle manuell konfigurieren.

  1. Fügen Sie das Modul Import Data Ihrem Experiment hinzu. Sie finden dieses Modul in Studio (klassisch) in der Kategorie Dateneingabe und - ausgabe.

  2. Wählen Sie Azure Blob Storage als Datenquelle aus.

  3. Wählen Sie Öffentlich (SAS-URL) als Authentifizierungstyp aus, wenn Sie wissen, dass die Informationen als öffentliche Datenquelle bereitgestellt wurden. Eine SAS-URL ist eine zeitgebundene URL für den öffentlichen Zugriff, die Sie mit einem Azure Storage-Hilfsprogramm generieren können.

    Andernfalls wählen Sie Konto aus.

  4. Wenn sich Ihre Daten in einem öffentlichen Blob befinden, auf den über eine SAS-URL zugegriffen werden kann, benötigen Sie keine zusätzlichen Anmeldeinformationen, da die URL-Zeichenfolge alle Informationen enthält, die für den Download und die Authentifizierung erforderlich sind.

    Im Feld URI tippen oder fügen Sie die vollständige URI ein, die das Konto und den öffentlichen Blob definiert.

    Hinweis

    Auf einer Seite, auf die über die SAS-URL zugegriffen werden kann, können Daten nur in den folgenden Formaten gespeichert werden: CSV, TSV und ARFF.

  5. Wenn sich Ihre Daten in einem privaten Konto befinden, müssen Sie Anmeldeinformationen angeben, einschließlich des Kontonamens und des Schlüssels.

    • Für Kontoname tippen oder fügen Sie den Namen des Kontos ein, das den Blob enthält, auf den Sie zugreifen möchten.

      Wenn die vollständige URL des Speicherkontos z.B. https://myshared.blob.core.windows.net lautet, geben Sie myshared ein.

    • Fügen Sie für Kontenschlüssel den Speicherzugriffsschlüssel ein, der dem Konto zugeordnet ist.

      Wenn Sie den Zugriffsschlüssel nicht kennen, lesen Sie den Abschnitt "Verwalten Ihrer Azure-Speicherkonten" in diesem Artikel: Informationen Azure Storage Konten.

  6. Geben Sie für Pfad zum Container, Verzeichnis oder Blob den Namen des Blobs ein, den Sie abrufen möchten.

    Angenommen, Sie haben eine Datei namens data01.csv in den Container trainingdata in einem Konto namens mymldata hochgeladen, dann wäre die vollständige URL für die Datei: https://mymldata.blob.core.windows.net/trainingdata/data01.txt.

    Daher geben Sie im Feld Pfad zum Container, Verzeichnis oder Blob Folgendens ein: trainingdata/data01.csv

    Um mehrere Dateien zu importieren, können Sie die Platzhalterzeichen * (Sternchen) oder ? (Fragezeichen) verwenden.

    Angenommen, der Container trainingdata enthält mehrere Dateien eines kompatiblen Formats, dann könnten Sie beispielsweise die folgende Spezifikation verwenden, um alle Dateien zu lesen, die mit data beginnen, und sie zu einem einzigen Datensatz verketten:

    trainingdata/data*.csv

    In Containernamen können Sie keine Platzhalter verwenden. Wenn Sie Dateien aus mehreren Containern importieren müssen, verwenden Sie eine separate Instanz des Moduls Daten importieren für jeden Container, und führen Sie die Datensätze dann mit dem Modul Zeilen hinzufügen zusammen.

    Hinweis

    Wenn Sie die Option Zwischengespeicherte Ergebnisse verwenden ausgewählt haben, lösen Änderungen, die Sie an den Dateien im Container vornehmen, keine Aktualisierung der Daten im Experiment aus.

  7. Wählen Sie für Blobdateiformat eine Option aus, die das Format der im Blob gespeicherten Daten angibt, damit Machine Learning die Daten entsprechend verarbeiten können. Die folgenden Formate werden unterstützt:

    • CSV: Durch Komma getrennte Werte (CSV) ist das Standardspeicherformat zum Exportieren und Importieren von Dateien in Machine Learning. Wenn die Daten bereits eine Kopfzeile enthalten, vergewissern Sie sich, dass Sie die Option Die Datei enthält eine Kopfzeile ausgewählt haben. Ansonsten wird die Kopfzeile als Datenzeile behandelt.

      Weitere Informationen zum CSV-Format, das in Machine Learning verwendet wird, finden Sie unter [Convert to CSV](convert-to-csv.md

    • TSV: Durch Tabstopps getrennte Werte (TSV) ist ein Format, das von vielen Machine Learning-Tools verwendet wird. Wenn die Daten bereits eine Kopfzeile enthalten, vergewissern Sie sich, dass Sie die Option Die Datei enthält eine Kopfzeile ausgewählt haben. Ansonsten wird die Kopfzeile als Datenzeile behandelt.

      Weitere Informationen zum TSV-Format, das in der -Machine Learning verwendet wird, finden Sie unter Konvertieren in TSV.

    • ARFF: Dieses Format unterstützt das Importieren von Dateien im vom Weka-Toolset verwendeten Format. Weitere Informationen finden Sie unter Konvertieren in ARFF.

    • CSV mit einer angegebenen Codierung: Verwenden Sie diese Option für CSV-Dateien, die möglicherweise mit einem anderen Feldtrennzeichen vorbereitet wurden, oder wenn die Quelle möglicherweise eine andere Zeichencodierung als UTF-8 verwendet hat. Dieses Format wird für Dateien, die in einer SAS-URL gespeichert sind, nicht unterstützt.

    • Excel: Verwenden Sie diese Option, um Daten aus Excel arbeitsmappen zu lesen, die in Azure Blob Storage. Das Excel format wird für Dateien, die in einer SAS-URL gespeichert sind, nicht unterstützt.

  8. Legen Sie für CSV-Dateien mit speziellen Codierungen diese zusätzlichen Optionen fest, um den richtigen Import der Zeichen zu steuern:

    • Kommatrennzeichenformat: Wählen Sie aus einer Liste gängiger Zeichen aus, die als Feldtrennzeichen verwendet werden, einschließlich des Kommaregisterzeichens , und des Semikolons ;.

    • Codierungsformat: Wählen Sie die Zeichencodierung aus, die von der Datei verwendet wird, die Sie lesen möchten. Eine Liste der unterstützten Codierungen finden Sie im Abschnitt Technische Hinweise.

    • Datei enthält Kopfzeile: Wählen Sie diese Option aus, wenn die Daten bereits eine Kopfzeile enthalten. Andernfalls wird der Header als Datenzeile importiert.

  9. Für Excel-Dateien müssen Sie nach angabe des Kontos und Containers, in dem die Excel-Datei gespeichert ist, das Excel-Format und den Bereichs- oder Tabellennamen angeben, indem Sie die folgenden Optionen verwenden:

    • Excel Datenformat: Geben Sie an, ob sich die Daten in einem Excel Arbeitsblattbereich oder in einer Excel befinden.

    • Excel tabelle oder eingebettete Tabelle: Wenn Sie die Option Excel Sheet auswählen, geben Sie den Namen des Arbeitsblatts (den Registerkartennamen) oder eine in die Arbeitsmappe eingebettete Tabelle an. Alle Daten aus dem Blatt werden gelesen. Sie können keinen Zellenbereich angeben. Wenn Sie die Option Excel Tabelle auswählen, müssen Sie den Tabellennamen und nicht den Tabellennamen erhalten, auch wenn nur eine Tabelle auf einem Blatt vorkommt. Klicken Sie zum Anzeigen des Tabellennamens in die Tabelle, und zeigen Sie dann auf der Registerkarte Tabellentools die Eigenschaft Tabellenname an.

  10. Führen Sie das Experiment aus.

Beispiele

Informationen zum Verwenden von Daten aus Azure Blob Storage in Machine Learning-Experimenten finden Sie im Azure-Katalog:

Technische Hinweise

Dieser Abschnitt enthält Implementierungsdetails, Tipps und Antworten auf häufig gestellte Fragen.

Häufig gestellte Fragen

Gibt es eine Möglichkeit, den Datenimport zu automatisieren?

Es gibt eine Vielzahl von Möglichkeiten, neue Daten abzurufen und sie zu verwenden, um ein Experiment regelmäßig zu aktualisieren. Viel hängt davon ab, woher die Quelldaten stammen, und von den Tools, die Sie für die Datenbewegung bevorzugen. Einige Ideen finden Sie in diesen Artikeln.

Die Automatisierung der Ausführung des Experiments erfordert im Allgemeinen die Erstellung eines Webdiensts, der dann von einem Aufgabenplaner, PowerShell oder anderem benutzerdefinierten Code ausgelöst werden kann.

Warum ist beim Versuch, Eingabedaten aus einem vorhandenen Blob zu lesen, ein Fehler aufgetreten?

Es gibt mehrere mögliche Probleme:

  • Das Blob verwendet ein nicht unterstütztes Format.
  • Das Konto selbst wurde mit einer Option erstellt, die von Machine Learning noch nicht unterstützt wird.

Nicht unterstütztes Format: Beim Lesen aus Azure Blob Storage erfordert Machine Learning derzeit, dass das Blob das Blockblobformat verwendet, mit dem Sie große Blobs effizient hochladen können. Wenn Sie beispielsweise eine CSV-Datei in blob storage hochladen, wird die Datei als Blockblob gespeichert. Wenn Sie jedoch eine Blobdatei programmgesteuert erstellen, generieren Sie möglicherweise einen anderen Blobtyp, z. B. den AppendBlob-Typ, der nicht unterstützt wird.

Als Problemumgehung wird empfohlen, den Blockblobtyp zu verwenden.

Wichtig

Nachdem das Blob erstellt wurde, kann der Typ nicht mehr geändert werden.

Weitere Informationen finden Sie unter Grundlegendes zu Blockblobs, Anfügeblobs und Seitenblobs.

Nicht unterstützter Kontotyp: Die Import- und Exportmodule können nur Daten aus Azure-Speicherkonten lesen und schreiben, die mit dem klassischen Bereitstellungsmodell erstellt wurden. Anders ausgedrückt: Der neue Azure Blob Storage Kontotyp, der die Zugriffsebenen "Heiß" und "Kalt" bietet, wird noch nicht unterstützt. Im Allgemeinen sollten alle Azure-Speicherkonten, die Sie möglicherweise erstellt haben, bevor diese Dienstoption verfügbar wurde, nicht betroffen sein.

Wenn Sie ein neues Konto für die Verwendung mit Machine Learning erstellen müssen, wählen Sie klassisch als Bereitstellungsmodell aus, oder verwenden Sie Resource Manager, und wählen Sie für Kontoartdie Option Allgemein anstelle von Blob Storage aus.

Wie kann ich vermeiden, dass dieselben Daten unnötigerweise erneut geladen werden?

Wenn sich die Quelldaten ändern, können Sie das Dataset aktualisieren und neue Daten hinzufügen, indem Sie Import Data erneut ausführen. Wenn die Daten jedoch nicht bei jeder Ausführung des Experiments erneut aus der Quelle gelesen werden sollen, legen Sie die Option Use cached results (Zwischengespeicherte Ergebnisse verwenden) auf TRUE fest. Wenn diese Option auf TRUE festgelegt ist, überprüft das Modul, ob das Experiment zuvor mit der gleichen Quelle und denselben Eingabeoptionen ausgeführt wurde. Wenn eine vorherige Ausführung gefunden wird, werden die Daten im Cache verwendet, anstatt die Daten erneut aus der Quelle zu laden.

Kann ich Daten filtern, während sie aus der Quelle gelesen werden?

Das Import Data-Modul unterstützt keine Filterung, wenn Daten gelesen werden.

Nachdem Sie die Daten in Machine Learning Studio (klassisch) geladen haben, können Sie die Daten mit den folgenden Tools ändern:

  • Verwenden Sie ein benutzerdefiniertes R-Skript, um Daten zu filtern oder zu transformieren.

  • Verwenden Sie das Modul Split Data mit einem relativen ausdruck oder einem regulären Ausdruck, um die gewünschten Daten zu isolieren, und speichern Sie sie dann als Dataset.

Wenn Sie feststellen, dass Sie mehr Daten geladen haben, als Sie benötigen, können Sie das Dataset überschreiben, indem Sie ein neues Dataset lesen und angeben, dass es mit dem gleichen Namen wie die älteren, größeren Daten gespeichert wird.

Warum fügt der Importvorgang am Ende meines Datasets eine zusätzliche Zeile hinzu, wenn eine nachfolgende neue Zeile gefunden wird?

Wenn das Import Data-Modul auf eine Datenzeile trifft, auf die eine leere Zeile oder ein nachfolgendes Zeilenzeichen folgt, wird am Ende der Tabelle eine zusätzliche Zeile mit fehlenden Werten hinzugefügt.

Der Grund für das Interpretieren einer nachgestellten neuen Zeile als neue Zeile ist, dass Daten importieren den Unterschied zwischen einer tatsächlich leeren Zeile und einer leeren Zeile, die vom Benutzer durch Drücken der EINGABETASTE am Ende einer Datei erstellt wird, nicht bestimmen kann.

Da einige Machine Learning-Algorithmen fehlende Daten unterstützen und diese Zeile daher als Fall behandeln würden (was sich wiederum auf die Ergebnisse auswirken kann), sollten Sie fehlende Daten bereinigen verwenden, um nach fehlenden Werten zu suchen und sie nach Bedarf zu entfernen.

Bevor Sie nach leeren Zeilen suchen, sollten Sie auch die letzte leere Zeile von anderen Zeilen mit teilweise fehlenden Werten trennen, die möglicherweise die tatsächlichen fehlenden Werte in den Quelldaten darstellen. Hierzu können Sie das Dataset mithilfe von Split Data (Daten aufteilen) unterteilen. Wählen Sie die Option Kopf N Zeilen auswählen aus, um alle Zeilen außer der letzten Zeile zu lesen.

Was geschieht, wenn Sie Daten importieren, die aus verschiedenen geografischen Regionen geladen wurden?

Wenn sich das Blob- oder Tabellenspeicherkonto in einer anderen Region als der Computeknoten befindet, der für das Machine Learning-Experiment verwendet wird, ist der Datenzugriff möglicherweise langsamer. Darüber hinaus werden Ihnen die ein- und ausgehenden Daten für das Abonnement in Rechnung gestellt.

Warum sind einige Zeichen in meiner Quelldatei in der Kopfzeile nicht richtig angezeigt?

Machine Learning unterstützt im Allgemeinen die UTF-8-Codierung. Wenn ihre Quelldatei einen anderen Codierungstyp verwendet, werden die Zeichen möglicherweise nicht ordnungsgemäß importiert.

Wenn Sie die Daten nicht ordnungsgemäß laden können, versuchen Sie es mithilfe der Option CSV with encoding, und geben Sie Parameter für benutzerdefinierte Trennzeichen, die Codepage usw. an.

Gibt es unzulässige Zeichen oder Zeichen, die während des Imports geändert werden?

Wenn Attributdaten Anführungszeichen oder Zeichenfolgen mit Escapezeichen enthalten, werden diese gemäß den Regeln für solche Zeichen in Microsoft Excel behandelt. Alle anderen Zeichen werden anhand der folgenden Spezifikationen als Richtlinie behandelt: RFC 4180.

Die Größenbeschränkung für das direkte Hochladen lokaler Datasets in Machine Learning beträgt 1,98 GB. Bei sehr großen Dateien kann das Hinzufügen des Datasets zu Ihrem Experimentkonto sehr lange dauern.

  • Schätzen Sie 10 Minuten oder mehr pro GB an Daten.
  • Um die Leistung zu optimieren, verwenden Sie ein Speicherkonto in derselben Region, die azure ML Dienst verwendet.

Es gibt mehrere Ansätze, um größere Dateien (bis zu 10 GB) hochzuladen:

  • Verwenden Sie eine ZIP-Datei. Sie können Datasets in Azure ML Studio (klassisch) im ZIP-Format hochladen und dann das Modul Gezippte Datasets entpacken verwenden, um das Dataset zu entpacken und zu speichern. Gezippte Datasets können auch mithilfe des Moduls Execute R Script entpackt werden, aber die Leistung kann eingeschränkt sein.

  • Verwenden Sie ein schnelles Azure-Hilfsprogramm wie AzCopy. Stufen Sie die Daten mithilfe eines Hilfsprogramms wie AzCopy in Microsoft Azure Blob-Storage ein. Verwenden Sie dann das Import Data-Modul , um Daten aus Blob Storage in Studio (klassisch) zu importieren.

    Der folgende Code zeigt beispielsweise die AzCopy-Syntax zum Schreiben in Blob Storage.

    cd "C:\Program Files (x86)\Microsoft SDKs\Azure\AzCopy"
    .\AzCopy.exe /Source:C:\LocalFolder /Dest:https://mystorage.blob.core.windows.net/mycontainer /DestKey:MyStorageAccountKey /Pattern:myfile.csv
    

Ich habe eine CSV-Datei mit einer angegebenen Codierung importiert, aber der Text wird nicht ordnungsgemäß angezeigt, wenn ich die Option zum Visualisieren verwende. Warum?

Für hochgeladene Datasets unterstützt Machine Learning in der Regel nur UTF-8. Das Import Data-Modul unterstützt jedoch zusätzliche Codierungsformate. Nachdem Sie eine Datei mit einem dieser Formate importiert haben, stellen Sie daher möglicherweise fest, dass die Zeichen nicht ordnungsgemäß angezeigt werden. Die Lösung besteht darin, die Codierung mit einer der folgenden Methoden in UTF-8 zu konvertieren:

  • Speichern Sie die importierten Daten als Dataset. (Die Verwendung eines gespeicherten Datasets anstelle der CSV-Daten kann auch die Leistung verbessern.)

  • Wenn Sie das Dataset im Modul Execute R Script verwenden, können Sie die richtige Codierung mithilfe eines Skripts wie diesem erzwingen:

    dataset <- maml.mapInputPort(1)
    Encoding(dataset$city) <- "UTF-8"
    maml.mapOutputPort("dataset")
    

    Anschließend können Sie Visualize für die Ausgabe des Moduls Execute R Script verwenden und überprüfen, ob Die Zeichen richtig angezeigt werden.

Welche Optionen habe ich zum Importieren von Textdateien? Die CSV-Datei ist für meine Daten nicht geeignet.

Das Verarbeiten und Bereinigen von unstrukturiertem Text, damit er gut in Spalten passt, ist immer eine Herausforderung. Wenn Sie jedoch Spalten mit Textdaten importieren müssen, stellt das TSV-Format häufig weniger Schwierigkeiten dar, obwohl Sie im Voraus noch nach übermäßigen Tabstoppzeichen suchen müssen.

Es wird empfohlen, die Vorlage Textklassifizierung im Azure KI-Katalog zu lesen, um ein Beispiel für die Texterfassung und -verarbeitung in Machine Learning Studio (klassisch) anzuzeigen.

Benutzerdefinierte Codierung für CSV-Dateien

Frühere Versionen des Moduls Import Data unterstützten einige Arten gültiger CSV-Dateien nicht. Beispielsweise enthielten aus Excel exportierte Daten manchmal Zeichen, die verhinderten, dass die Datei ordnungsgemäß analysiert wurde.

Um einen größeren Bereich von Trennzeichen und Zeichenformaten zu unterstützen, unterstützt Import Data jetzt das Auswählen des Trennzeichen- und Codierungsformats. Bei Verwendung der Option CSV with encoding stellt das Ergebnis eine robustere und effizientere Analyse der CSV-Datei dar.

Sie können die folgenden Zeichencodierungen verwenden:

Type Codierung
Unicode Unicode (UTF-8)

Unicode

Unicode (UTF-32)

Unicode (UTF-7)
CJYK Chinesisch traditionell (Big5)

Chinesisch vereinfacht (GB2312)

Chinesisch vereinfacht (Mac)

Chinesisch vereinfacht (GB2312-80)

Chinesisch vereinfacht (ISO-2022)

Chinesisch vereinfacht (GB18030)

Japanisch (JIS)

Koreanisch (ISO)

Koreanisch (Mac)
Sonstiges Westeuropäisch (Windows)

Westeuropäisch (ISO)

Hebräisch (ISO-Visual)

US-ASCII

Tipp

Nach Abschluss des CSV-Imports wird empfohlen, importierte Dateien als Dataset zu speichern, um sicherzustellen, dass die importierten Daten die UTF-8-Codierung in Ihrem Experiment verwenden.

Datentyprückschluss im CSV- und TSV-Format

Wenn das Import Data-Modul Daten aus einer CSV- oder TSV-Datei in Azure Blob Storage lädt, sucht ein Typersteller in der Quelldatei nach kategorischen oder numerischen Daten und stellt den ermittelten Typ in den Metadaten für das neue Dataset dar.

Sie können jedoch die Ergebnisse des Typerrateners überschreiben, indem Sie die Spaltenattribute im Modul Edit Metadata (Metadaten bearbeiten ) bearbeiten, nachdem die Daten geladen wurden.

Modulparameter

Allgemeine Optionen

Name Range type Standard Beschreibung
Datenquellen- Liste Datenquelle oder Senke Azure Blob Storage Die Datenquelle kann HTTP, FTP, anonymes HTTPS oder FTPS, eine Datei in Azure BLOB Storage, eine Azure-Tabelle, eine Azure SQL-Datenbank, eine lokale SQL Server-Datenbank, eine Hive-Tabelle oder ein OData-Endpunkt sein.
Authentifizierungsart PublicOrSas/Account String Konto Geben Sie an, ob sich die Daten in einem öffentlichen Container befinden, auf den über die SAS-URL zugegriffen werden kann, oder ob sie sich in einem privaten Speicherkonto befinden, für das eine Authentifizierung für den Zugriff erforderlich ist.
Verwenden von zwischengespeicherten Ergebnissen TRUE/FALSE Boolean FALSE Wählen Sie diese Option aus, um das Laden von Daten zwischen Ausführungen zu vermeiden.

Öffentlich oder SAS: Optionen für öffentlichen Speicher

Name Range type Standard Beschreibung
URI any Zeichenfolge Keine HDFS-Restendpunkt
Dateiformat ARFF, CSV oder TSV Zeichenfolge CSV Wählen Sie eines der unterstützten Formate aus.
Der URI weist eine Kopfzeile auf. Boolean TRUE/FALSE true TRUE, wenn die Datei eine Headerzeile enthält; False gibt an, dass die erste Datenzeile als Spaltenüberschriften verwendet wird.

Konto – Optionen für privaten Speicher

Name Range type Standard Beschreibung
Kontoname any String Keine Geben Sie den Namen des Speicherkontos ein.
Kontoschlüssel any SecureString Keine Einfügen des Kontoschlüssels
Path to container, directory or blob any String Nicht zutreffend Geben Sie den Container- oder Verzeichnisnamen ein.
Blob-Dateiformat ARFF, CSV oder TSV Zeichenfolge CSV Wählen Sie eines der unterstützten Formate aus.
Datei hat Kopfzeile any Zeichenfolge True Azure-Speicherkontoname

Ausgaben

Name Type Beschreibung
Ergebnisdataset Datentabelle Dataset mit importierten Daten

Ausnahmen

Ausnahme Beschreibung
Fehler 0027 Eine Ausnahme tritt auf, wenn zwei Objekte gleich groß sein müssen, dies aber nicht der Fall ist.
Fehler 0003 Eine Ausnahme tritt auf, wenn mindestens eine Eingabe NULL oder leer ist.
Fehler 0029 Eine Ausnahme tritt auf, wenn ein ungültiger URI übergeben wird.
Fehler 0030 Eine Ausnahme tritt auf, wenn es nicht möglich ist, eine Datei herunterzuladen.
Fehler 0002 Eine Ausnahme tritt auf, wenn mindestens ein Parameter nicht analysiert oder nicht aus einem angegebenen Typ in den für die Zielmethode erforderlichen Typ konvertiert werden konnte.
Fehler 0009 Eine Ausnahme tritt auf, wenn der Azure-Speicherkontoname oder der Containername falsch angegeben ist.
Fehler 0048 Eine Ausnahme tritt auf, wenn es nicht möglich, eine Datei zu öffnen.
Fehler 0046 Eine Ausnahme tritt auf, wenn es nicht möglich ist, ein Verzeichnis im angegebenen Pfad zu erstellen.
Fehler 0049 Eine Ausnahme tritt auf, wenn es nicht möglich, eine Datei zu analysieren.

Eine Liste der Fehler, die für Studio-Module (klassisch) spezifisch sind, finden Sie unter Machine Learning Fehlercodes.

Eine Liste der API-Ausnahmen finden Sie unter Machine Learning REST-API-Fehlercodes.

Siehe auch

Daten importieren
Daten exportieren
Importieren aus Web-URL über HTTP
Importieren aus Hive-Abfrage
Importieren aus Azure SQL-Datenbank
Importieren aus Azure Table
Importieren aus Datenfeedanbietern
Importieren aus lokaler SQL Server-Datenbank