Importieren aus Azure Blob Storage

In diesem Thema wird beschrieben, wie Sie das Import Data -Modul in Azure Machine Learning Studio (klassisch) zum Lesen von Daten aus Azure BLOB Storage verwenden, damit Sie die Daten in einem Machine Learning-Experiment verwenden können.

Hinweis

Gilt für: Machine Learning Studio (klassisch)

Dieser Inhalt bezieht sich nur auf Studio (klassisch). Ähnliche Drag & Drop-Module wurden Azure Machine Learning-Designer hinzugefügt. Weitere Informationen finden Sie in diesem Artikel zum Vergleich der beiden Versionen.

Azure Blob Service dient zum Speichern großer Datenmengen, einschließlich binärer Daten. Azure-Blobs können von überall aus über HTTP oder HTTPS aufgerufen werden. Je nach Art des Blobspeichers kann eine Authentifizierung erforderlich sein.

  • Öffentliche Blobs können von jedem oder von Benutzern mit einer SAS-URL aufgerufen werden.
  • Für private Blobs sind Anmeldeinformationen erforderlich.

Das Importieren aus dem Blobspeicher erfordert, dass Daten in Blobs gespeichert werden, die das Blockblob-Format verwenden. Die im BLOB gespeicherten Dateien müssen entweder durch Trennzeichen getrennte (CSV) oder durch Tabstopps getrennte (TSV-) Formate verwendet werden. Wenn Sie die Datei lesen, werden die Datensätze und alle zutreffenden Attributüberschriften zeilenweise als Datensatz in den Arbeitsspeicher geladen.

Hinweis

Das Import Data-Modul unterstützt das Herstellen einer Verbindung mit Azure BLOB Storage Konto nicht, wenn die Option "sichere Übertragung erforderlich" aktiviert ist.

Weitere Einschränkungen bei den Typen von BLOB Storage, die für die Verwendung mit Azure Machine Learning unterstützt werden, finden Sie im Abschnitt Technische Hinweise .

Tipp

Müssen Sie Daten in einem Format importieren, das nicht unterstützt wird? Sie können python oder R verwenden. Weitere Informationen finden Sie in diesem Beispiel im Azure AI Gallery: Laden von nicht-Textdateien aus Azure BLOB Storage

Importieren von Daten aus Azure-blobdateien

Es wird dringend empfohlen, vor dem Importieren Datenprofile zu erstellen, um sicherzustellen, dass das Schema wie erwartet ausfällt. Beim Importvorgang werden einige Kopfzeilen durchsucht, um das Schema zu bestimmen, aber spätere Zeilen können zusätzliche Spalten oder Daten enthalten, die Fehler verursachen.

Verwenden des Assistenten zum Importieren von Daten

Das Modul enthält einen neuen Assistenten, der Sie bei der Auswahl einer Speicher Option unterstützt, aus vorhandenen Abonnements und Konten auswählen und schnell alle Optionen konfigurieren können.

  1. Fügen Sie das Modul Import Data Ihrem Experiment hinzu. Sie finden das Modul in Studio (klassisch) in der Kategorie Dateneingabe und-Ausgabe .

  2. Klicken Sie auf Daten importieren-Assistent , und befolgen Sie die Anweisungen.

  3. Wenn die Konfiguration beendet ist, klicken Sie mit der rechten Maustaste auf das Modul, und wählen Sie ausgewählte ausführen aus, um die Daten tatsächlich in das Experiment zu kopieren.

Wenn Sie eine vorhandene Datenverbindung bearbeiten müssen, lädt der Assistent alle vorherigen Konfigurationsdetails, damit Sie nicht von Grund auf neu beginnen müssen.

Manuelles Festlegen der Eigenschaften im Modul „Daten importieren“

Die folgenden Schritte beschreiben, wie Sie die Importquelle manuell konfigurieren.

  1. Fügen Sie das Modul Import Data Ihrem Experiment hinzu. Sie finden dieses Modul in Studio (klassisch) in der Kategorie Dateneingabe und-Ausgabe .

  2. Wählen Sie Azure Blob Storage als Datenquelle aus.

  3. Wählen Sie Öffentlich (SAS-URL) als Authentifizierungstyp aus, wenn Sie wissen, dass die Informationen als öffentliche Datenquelle bereitgestellt wurden. Eine SAS-URL ist eine zeitgebundene URL für den öffentlichen Zugriff, die Sie mit einem Azure Storage-Hilfsprogramm generieren können.

    Andernfalls wählen Sie Konto aus.

  4. Wenn sich Ihre Daten in einem öffentlichen Blob befinden, auf den über eine SAS-URL zugegriffen werden kann, benötigen Sie keine zusätzlichen Anmeldeinformationen, da die URL-Zeichenfolge alle Informationen enthält, die für den Download und die Authentifizierung erforderlich sind.

    Im Feld URI tippen oder fügen Sie die vollständige URI ein, die das Konto und den öffentlichen Blob definiert.

    Hinweis

    Auf einer Seite, auf die über die SAS-URL zugegriffen werden kann, können Daten nur mit diesen Formaten gespeichert werden: CSV, TSV und ArFF.

  5. Wenn sich Ihre Daten in einem privaten Konto befinden, müssen Sie Anmeldeinformationen angeben, einschließlich des Kontonamens und des Schlüssels.

    • Für Kontoname tippen oder fügen Sie den Namen des Kontos ein, das den Blob enthält, auf den Sie zugreifen möchten.

      Wenn die vollständige URL des Speicherkontos z.B. https://myshared.blob.core.windows.net lautet, geben Sie myshared ein.

    • Fügen Sie für Kontenschlüssel den Speicherzugriffsschlüssel ein, der dem Konto zugeordnet ist.

      Wenn Sie den Zugriffsschlüssel nicht kennen, finden Sie weitere Informationen im Abschnitt "Verwalten von Azure-Speicher Konten" in diesem Artikel: Informationen zu Azure Storage Konten.

  6. Geben Sie für Pfad zum Container, Verzeichnis oder Blob den Namen des Blobs ein, den Sie abrufen möchten.

    Angenommen, Sie haben eine Datei namens data01.csv in den Container trainingdata in einem Konto namens mymldata hochgeladen, dann wäre die vollständige URL für die Datei: https://mymldata.blob.core.windows.net/trainingdata/data01.txt.

    Daher würden Sie im Feld Pfad zum Container, Verzeichnis oder Blob Folgendes eingeben: trainingdata/data01.csv.

    Um mehrere Dateien zu importieren, können Sie die Platzhalterzeichen * (Sternchen) oder ? (Fragezeichen) verwenden.

    Angenommen, der Container trainingdata enthält mehrere Dateien eines kompatiblen Formats, dann könnten Sie beispielsweise die folgende Spezifikation verwenden, um alle Dateien zu lesen, die mit data beginnen, und sie zu einem einzigen Datensatz verketten:

    trainingdata/data*.csv

    In Containernamen können Sie keine Platzhalter verwenden. Wenn Sie Dateien aus mehreren Containern importieren müssen, verwenden Sie eine separate Instanz des Moduls Daten importieren für jeden Container, und führen Sie die Datensätze dann mit dem Modul Zeilen hinzufügen zusammen.

    Hinweis

    Wenn Sie die Option Zwischengespeicherte Ergebnisse verwenden ausgewählt haben, lösen Änderungen, die Sie an den Dateien im Container vornehmen, keine Aktualisierung der Daten im Experiment aus.

  7. Wählen Sie für Blobdateiformat eine Option aus, die das Format der im Blob gespeicherten Daten angibt, damit Azure Machine Learning die Daten entsprechend verarbeiten kann. Die folgenden Formate werden unterstützt:

    • CSV: durch Trennzeichen getrennte Werte (CSV) ist das Standard Speicherformat zum Exportieren und Importieren von Dateien in Azure Machine Learning. Wenn die Daten bereits eine Kopfzeile enthalten, vergewissern Sie sich, dass Sie die Option Die Datei enthält eine Kopfzeile ausgewählt haben. Ansonsten wird die Kopfzeile als Datenzeile behandelt.

      Weitere Informationen zum CSV-Format, das in Azure Machine Learning verwendet wird, finden Sie unter [konvertieren in CSV] (Convert-to-CSV.MD

    • TSV: durch Tabstopps getrennte Werte (TSV) ist ein von vielen Machine Learning-Tools verwendetes Format. Wenn die Daten bereits eine Kopfzeile enthalten, vergewissern Sie sich, dass Sie die Option Die Datei enthält eine Kopfzeile ausgewählt haben. Ansonsten wird die Kopfzeile als Datenzeile behandelt.

      Weitere Informationen zum TSV-Format, das in Azure Machine Learning verwendet wird, finden Sie unter Konvertieren in TSV.

    • ArFF: dieses Format unterstützt das Importieren von Dateien in dem Format, das vom WEKA-Toolset verwendet wird. Weitere Informationen finden Sie unter Convert to ArFF.

    • CSV mit einer angegebenen Codierung: Verwenden Sie diese Option für CSV-Dateien, die möglicherweise mit einem anderen Feld Trennzeichen vorbereitet wurden, oder wenn die Quelle möglicherweise eine andere Zeichencodierung als UTF-8 verwendet hat. Dieses Format wird für Dateien, die in einer SAS-URL gespeichert sind, nicht unterstützt.

    • Excel: Verwenden Sie diese Option zum Lesen von Daten aus Excel-Arbeitsmappen, die in Azure BLOB Storage gespeichert sind. Das Excel-Format wird für in einer SAS-URL gespeicherte Dateien nicht unterstützt.

  8. Legen Sie für CSV-Dateien mit speziellen Codierungen diese zusätzlichen Optionen fest, um den ordnungsgemäßen Import der Zeichen zu steuern:

    • Komma Trennzeichen Format: Wählen Sie aus einer Liste gängiger Zeichen aus, die als Feld Trennzeichen verwendet werden, einschließlich des Komma , Tabstopps und Semikolons ; .

    • Codierungsformat: Wählen Sie die Zeichencodierung aus, die von der zu lesenden Datei verwendet wird. Eine Liste der unterstützten Codierungen finden Sie im Abschnitt Technische Hinweise .

    • Datei hat Kopfzeile: Wählen Sie diese Option aus, wenn die Daten bereits eine Kopfzeile enthalten. Andernfalls wird der Header als Daten Zeile importiert.

  9. Wenn Sie für Excel-Dateien das Konto und den Container angegeben haben, in dem die Excel-Datei gespeichert ist, müssen Sie das Excel-Format, den Bereich oder den Tabellennamen mithilfe der folgenden Optionen angeben:

    • Excel-Datenformat: Geben Sie an, ob sich die Daten in einem Excel-Arbeitsblatt Bereich oder in einer Excel-Tabelle befinden.

    • Excel-Tabelle oder eingebettete Tabelle: Wenn Sie die Option Excel -Tabelle auswählen, geben Sie den Namen des Arbeitsblatts (Name der Registerkarte) oder eine in die Arbeitsmappe eingebettete Tabelle an. Alle Daten aus dem Blatt werden gelesen. Es ist nicht möglich, einen Zellbereich anzugeben. Wenn Sie die Excel-Tabellen Option auswählen, müssen Sie den Tabellennamen und nicht den Tabellennamen, auch wenn nur eine Tabelle auf einem Blatt vorhanden ist, erhalten. Um den Tabellennamen anzuzeigen, klicken Sie in die Tabelle, und zeigen Sie dann auf der Registerkarte Tabellen Tools die Eigenschaft Tabellenname an.

  10. Führen Sie das Experiment aus.

Beispiele

Informationen zum Verwenden von Daten aus Azure BLOB Storage in Machine Learning-Experimenten finden Sie im Azure-Katalog:

Technische Hinweise

Dieser Abschnitt enthält Implementierungsdetails, Tipps und Antworten auf häufig gestellte Fragen.

Häufig gestellte Fragen

Gibt es eine Möglichkeit, den Datenimport zu automatisieren?

Es gibt eine Vielzahl von Möglichkeiten, neue Daten zu erhalten und Sie zu verwenden, um ein Experiment regelmäßig zu aktualisieren. Das hängt davon ab, woher die Quelldaten stammen und welche Tools Sie für die Daten Verschiebung bevorzugen. einige Ideen finden Sie in diesen Artikeln.

Die Automatisierung der Ausführung des Experiments erfordert in der Regel die Erstellung eines Webdiensts, der dann durch einen Aufgabenplaner, PowerShell oder anderen benutzerdefinierten Code ausgelöst werden kann.

Warum erhalte ich einen Fehler, als ich versuchte, Eingabedaten aus einem vorhandenen BLOB zu lesen?

Es gibt mehrere mögliche Probleme:

  • Das BLOB verwendet ein nicht unterstütztes Format.
  • Das Konto selbst wurde mithilfe einer Option erstellt, die von Azure Machine Learning noch nicht unterstützt wird.

Nicht unterstütztes Format: Wenn Sie aus Azure BLOB Storage lesen, erfordert Azure Machine Learning derzeit, dass das BLOB das blockblob -Format verwendet, mit dem Sie große BLOBs effizient hochladen können. Wenn Sie z. b. eine CSV-Datei in den BLOB-Speicher hochladen, wird die Datei als blockblob gespeichert. Wenn Sie jedoch eine BLOB-Datei Programm gesteuert erstellen, können Sie möglicherweise einen anderen BLOB-Typ erzeugen, z. b. den Typ "appendblob", der nicht unterstützt wird.

Um dieses Problem zu umgehen, empfiehlt es sich, den blockblob -Typ zu verwenden.

Wichtig

Nachdem das BLOB erstellt wurde, kann der Typ nicht mehr geändert werden.

Weitere Informationen finden Sie Untergrund Legendes zu blockblobs, anfügeblobs und seitenblobs.

Nicht unterstützter Kontotyp: die Import-und Export Module können nur Daten aus Azure Storage-Konten lesen und schreiben, die mit dem klassischen Bereitstellungs Modell erstellt wurden. Anders ausgedrückt: der neue Azure BLOB Storage Kontotyp, der eine Speicherzugriffs Ebene für heiße und kalte Geräte bietet, wird noch nicht unterstützt. Im Allgemeinen sollten alle Azure-Speicher Konten, die Sie möglicherweise vor der Verfügbarkeit dieser Dienst Option erstellt haben, nicht betroffen sein.

Wenn Sie ein neues Konto für die Verwendung mit Azure Machine Learning erstellen müssen, wählen Sie klassisch als Bereitstellungs Modell aus, oder verwenden Sie Resource Manager , und wählen Sie für Kontoart die Option allgemeiner Zweck anstelle von BLOB Storage aus.

Wie kann ich vermeiden, dass die gleichen Daten unnötig erneut geladen werden?

Wenn sich die Quelldaten ändern, können Sie das DataSet aktualisieren und neue Daten hinzufügen, indem Sie Import Datenerneut ausführen. Wenn die Daten jedoch nicht bei jeder Ausführung des Experiments erneut aus der Quelle gelesen werden sollen, legen Sie die Option Use cached results (Zwischengespeicherte Ergebnisse verwenden) auf TRUE fest. Wenn diese Option auf true festgelegt ist, überprüft das Modul, ob das Experiment zuvor mit derselben Quelle und denselben Eingabeoptionen ausgeführt wurde. Wenn eine vorherige Testdatei gefunden wird, werden die Daten im Cache verwendet, anstatt die Daten aus der Quelle erneut zu laden.

Kann ich Daten filtern, während Sie aus der Quelle gelesen werden?

Das Import Data -Modul unterstützt das Filtern beim Lesen von Daten nicht.

Nachdem Sie die Daten in Azure Machine Learning Studio (klassisch) geladen haben, können Sie die Daten mit den folgenden Tools ändern:

  • Verwenden Sie ein benutzerdefiniertes R-Skript zum Filtern oder Transformieren von Daten.

  • Verwenden Sie das Modul Split Data mit einem relativen Ausdruck oder einem regulären Ausdruck, um die gewünschten Daten zu isolieren, und speichern Sie Sie dann als DataSet.

Wenn Sie feststellen, dass Sie mehr Daten geladen haben, als Sie benötigen, können Sie das DataSet überschreiben, indem Sie ein neues Dataset lesen und angeben, dass es mit demselben Namen wie die älteren, größeren Daten gespeichert werden soll.

Warum fügt der Import Vorgang eine zusätzliche Zeile am Ende meines Datasets hinzu, wenn eine nachfolgende neue Zeile gefunden wird?

Wenn das Import Data -Modul auf eine Zeile mit Daten stößt, auf die eine leere oder eine nachfolgende neue Zeile folgt, wird eine zusätzliche Zeile, die fehlende Werte enthält, am Ende der Tabelle hinzugefügt.

Der Grund für die Interpretation einer nachfolgenden neuen Zeile als neue Zeile besteht darin, dass Import Daten den Unterschied zwischen einer tatsächlichen leeren Zeile und einer leeren Zeile, die vom Benutzer erstellt wird, wenn Sie am Ende einer Datei drücken, nicht ermitteln können.

Da einige Machine Learning-Algorithmen fehlende Daten unterstützen und diese Zeile folglich als einen Fall behandeln würden (was sich wiederum auf die Ergebnisse auswirken könnte), sollten Sie die Option " fehlende Daten bereinigen " verwenden, um auf fehlende Werte zu prüfen und Sie nach Bedarf zu entfernen.

Vor der Überprüfung auf leere Zeilen sollten Sie auch die endgültige leere Zeile von anderen Zeilen mit partiellen fehlenden Werten trennen, die tatsächlich fehlende Werte in den Quelldaten darstellen könnten. Zu diesem Zweck können Sie das DataSet mithilfe von Split Dataaufteilen. Wählen Sie die Option Head N Rows auswählen aus, um alle Zeilen, aber die letzte Zeile zu lesen.

Was geschieht, wenn Sie Daten importieren, die aus verschiedenen geografischen Regionen geladen wurden?

Wenn sich das BLOB-oder Tabellen Speicherkonto in einer anderen Region als der für das Machine Learning-Experiment verwendete Computeknoten befindet, ist der Datenzugriff möglicherweise langsamer. Außerdem wird Ihnen der Eingang und Ausgang von Daten für das Abonnement in Rechnung gestellt.

Warum sind einige Zeichen in meiner Quelldatei in der Kopfzeile nicht richtig angezeigt?

Azure Machine Learning unterstützt in der Regel UTF-8-Codierung. Wenn die Quelldatei einen anderen Codierungstyp verwendet, werden die Zeichen möglicherweise nicht ordnungsgemäß importiert.

Wenn Sie die Daten nicht ordnungsgemäß laden können, versuchen Sie es mithilfe der Option CSV with encoding, und geben Sie Parameter für benutzerdefinierte Trennzeichen, die Codepage usw. an.

Gibt es zulässige Zeichen oder Zeichen, die während des Imports geändert werden?

Wenn Attributdaten Anführungszeichen oder Zeichenfolgen mit Escapezeichen enthalten, werden diese gemäß den Regeln für solche Zeichen in Microsoft Excel behandelt. Alle anderen Zeichen werden mithilfe der folgenden Spezifikationen als Richtlinie behandelt: RFC 4180.

Das Größenlimit für das direkte hochladen lokaler Datasets in Azure Machine Learning beträgt 1,98 GB. Bei sehr großen Dateien kann das Hinzufügen des Datasets zu Ihrem Experiment Konto einige Zeit in Anspruch nehmen.

  • Schätzen Sie mindestens 10 Minuten pro GB an Daten.
  • Verwenden Sie ein Speicherkonto in derselben Region wie der Azure ml-Dienst, um die Leistung zu optimieren.

Zum Hochladen größerer Dateien (bis zu 10 GB) gibt es mehrere Ansätze:

  • Verwenden Sie eine ZIP-Datei. Sie können Datasets im ZIP-Format in Azure ml Studio (klassisch) hochladen und dann das DataSet mit dem ZIP-Paket Datasets entpacken und speichern. Komprimierte Datasets können auch mit dem Modul Execute R Script entpackt werden, aber die Leistung ist möglicherweise eingeschränkt.

  • Verwenden Sie ein schnelles Azure-Hilfsprogramm wie azcopy. Stellen Sie die Daten mithilfe eines Hilfsprogramms wie azcopyauf Microsoft Azure BLOB Storage bereit. Verwenden Sie anschließend das Import Data -Modul, um Daten aus BLOB Storage in Studio (klassisch) zu importieren.

    Der folgende Code zeigt z. b. die azcopy-Syntax zum Schreiben in BLOB Storage.

    cd "C:\Program Files (x86)\Microsoft SDKs\Azure\AzCopy"
    .\AzCopy.exe /Source:C:\LocalFolder /Dest:https://mystorage.blob.core.windows.net/mycontainer /DestKey:MyStorageAccountKey /Pattern:myfile.csv
    

Ich habe eine CSV-Datei mit einer angegebenen Codierung importiert, aber der Text wird nicht ordnungsgemäß angezeigt, wenn ich die Option zur Visualisierung verwende. Warum?

Bei hochgeladenen Datasets unterstützt Azure Machine Learning in der Regel nur UTF-8. Das Import Data -Modul unterstützt jedoch zusätzliche Codierungs Formate. Nachdem Sie eine Datei mit einem dieser Formate importiert haben, werden Sie möglicherweise feststellen, dass die Zeichen nicht ordnungsgemäß angezeigt werden. Die Lösung besteht darin, die Codierung mithilfe einer der folgenden Methoden in UTF-8 zu konvertieren:

  • Speichern Sie die importierten Daten als DataSet. (Durch die Verwendung eines gespeicherten Datasets anstelle der CSV-Daten kann auch die Leistung verbessert werden.)

  • Wenn Sie das Dataset im Modul Execute R Script verwenden, können Sie die richtige Codierung mithilfe eines Skripts wie dem folgenden erzwingen:

    dataset <- maml.mapInputPort(1)
    Encoding(dataset$city) <- "UTF-8"
    maml.mapOutputPort("dataset")
    

    Sie können dann visualisieren in der Ausgabe des Moduls Execute R Script verwenden und überprüfen, ob die Zeichen richtig angezeigt werden.

Welche Optionen gibt es für den Import von Textdateien? Das CSV ist für meine Daten nicht geeignet.

Das verarbeiten und Bereinigen von unstrukturiertem Text, der in Spalten problemlos passt, ist immer eine Herausforderung Wenn Sie jedoch Spalten von Textdaten importieren müssen, stellt das TSV-Format häufig weniger Schwierigkeiten dar, aber Sie müssen im Voraus immer noch auf überflüssige Tabstopp Zeichen überprüfen.

Es wird empfohlen, die Text Klassifizierungs Vorlagein der Azure AI Galleryzu überprüfen, um ein Beispiel für die Text Erfassung und-Verarbeitung in Azure Machine Learning Studio (klassisch) anzuzeigen.

Benutzerdefinierte Codierung für CSV-Dateien

In den frühen Versionen des Import Data -Moduls wurden einige Arten gültiger CSV-Dateien nicht unterstützt. Beispielsweise enthielten aus Excel exportierte Daten manchmal Zeichen, die verhinderten, dass die Datei ordnungsgemäß analysiert wurde.

Um einen umfassenderen Bereich von Trennzeichen und Zeichenformaten zu unterstützen, unterstützt Import Data nun das Auswählen des Trenn Zeichens und des Codierungs Formats. Bei Verwendung der Option CSV with encoding stellt das Ergebnis eine robustere und effizientere Analyse der CSV-Datei dar.

Sie können die folgenden Zeichencodierungen verwenden:

Typ Codieren
Unicode Unicode (UTF-8)

Unicode

Unicode (UTF-32)

Unicode (UTF-7)
CJYK Chinesisch traditionell (Big5)

Chinesisch vereinfacht (GB2312)

Chinesisch vereinfacht (Mac)

Chinesisch vereinfacht (GB2312-80)

Chinesisch vereinfacht (ISO-2022)

Chinesisch vereinfacht (GB18030)

Japanisch (JIS)

Koreanisch (ISO)

Koreanisch (Mac)
Sonstiges Westeuropäisch (Windows)

Westeuropäisch (ISO)

Hebräisch (ISO-Visual)

US-ASCII

Tipp

Nachdem der CSV-Import Vorgang beendet wurde, empfiehlt es sich, importierte Dateien als DataSet zu speichern, um sicherzustellen, dass die importierten Daten die UTF-8-Codierung in Ihrem Experiment verwenden.

Datentyp Rückschluss in CSV-und TSV-Formaten

Wenn das Import Data -Modul Daten aus einer CSV-oder TSV-Datei in Azure BLOB Storage lädt, sucht ein Typ-Schätzer nach kategorischen oder numerischen Daten in der Quelldatei und stellt den ermittelten Typ in den Metadaten für das neue DataSet dar.

Sie können jedoch die Ergebnisse der typanzierer überschreiben, indem Sie die Spalten Attribute im Modul Edit Metadata bearbeiten, nachdem die Daten geladen wurden.

Modulparameter

Allgemeine Optionen

Name Range type Standard BESCHREIBUNG
Datenquelle List Datenquelle oder Senke Azure Blob Storage Die Datenquelle kann http, FTP, anonymes HTTPS oder FTPS, eine Datei in Azure BLOB Storage, eine Azure-Tabelle, eine Azure SQL-Datenbank, eine lokale SQL Server Datenbank, eine Hive-Tabelle oder ein odata-Endpunkt sein.
Authentifizierungstyp Publicorsas/Konto String Konto Geben Sie an, ob sich die Daten in einem öffentlichen Container befinden, auf den über die SAS-URL zugegriffen werden kann, oder ob Sie sich in einem privaten Speicherkonto befinden,
Verwenden von zwischengespeicherten Ergebnissen TRUE/FALSE Boolean FALSE Auswählen, um das Laden von Daten zwischen Läufen zu vermeiden

Öffentliche oder SAS-öffentliche Speicheroptionen

Name Range type Standard Beschreibung
URI any String Keine HDFS-Rest-Endpunkt
Dateiformat ArFF, CSV oder TSV String CSV Wählen Sie eines der unterstützten Formate aus.
Der URI hat eine Kopfzeile. Boolean TRUE/FALSE TRUE True, wenn die Datei eine Kopfzeile enthält. False gibt an, dass die erste Daten Zeile als Spaltenüberschriften verwendet wird.

Konto-private Speicheroptionen

Name Range type Standard BESCHREIBUNG
Kontoname any String Keine Geben Sie den Namen des Speicher Kontos ein.
Kontoschlüssel any SecureString Keine Einfügen des Kontoschlüssels
Path to container, directory or blob any String Geben Sie den Container-oder Verzeichnisnamen ein.
Blob-Dateiformat ArFF, CSV oder TSV String CSV Wählen Sie eines der unterstützten Formate aus.
Datei hat Kopfzeile any Zeichenfolge True Azure-Speicherkontoname

Ausgaben

Name Typ BESCHREIBUNG
Ergebnisdataset Datentabelle DataSet mit importierten Daten

Ausnahmen

Ausnahme Beschreibung
Fehler 0027 Eine Ausnahme tritt auf, wenn zwei Objekte gleich groß sein müssen, dies aber nicht der Fall ist.
Fehler 0003 Eine Ausnahme tritt auf, wenn mindestens eine Eingabe NULL oder leer ist.
Fehler 0029 Eine Ausnahme tritt auf, wenn ein ungültiger URI übergeben wird.
Fehler 0030 Eine Ausnahme tritt auf, wenn es nicht möglich ist, eine Datei herunterzuladen.
Fehler 0002 Eine Ausnahme tritt auf, wenn mindestens ein Parameter nicht analysiert oder nicht aus einem angegebenen Typ in den für die Zielmethode erforderlichen Typ konvertiert werden konnte.
Fehler 0009 Eine Ausnahme tritt auf, wenn der Azure-Speicherkontoname oder der Containername falsch angegeben ist.
Fehler 0048 Eine Ausnahme tritt auf, wenn es nicht möglich, eine Datei zu öffnen.
Fehler 0046 Eine Ausnahme tritt auf, wenn es nicht möglich ist, ein Verzeichnis im angegebenen Pfad zu erstellen.
Fehler 0049 Eine Ausnahme tritt auf, wenn es nicht möglich, eine Datei zu analysieren.

Eine Liste der Fehler, die für Studio-Module (klassisch) spezifisch sind, finden Sie unter Machine Learning Fehlercodes.

Eine Liste der API-Ausnahmen finden Sie unter Machine Learning Rest-API-Fehler Codes.

Weitere Informationen

Importieren von Daten
Daten exportieren
Aus Web-URL über HTTP importieren
Aus Hive-Abfrage importieren
Importieren aus Azure SQL-Datenbank
Aus Azure-Tabelle importieren
Importieren von Datenfeed-Anbietern
Importieren aus lokaler SQL Server-Datenbank