TabularDataset Klasse
Stellt ein tabellarisches Dataset dar, das in Azure Machine Learning verwendet werden soll.
Ein tabellarisches Dataset (TabularDataset) definiert eine Reihe von verzögert ausgewerteten, unveränderlichen Vorgängen, um Daten aus der Datenquelle in eine tabellarische Darstellung zu laden. Daten werden erst aus der Quelle geladen, wenn das TabularDataset zur Übermittlung von Daten aufgefordert wird.
Ein TabularDataset wird mit Methoden wie from_delimited_files aus der TabularDatasetFactory-Klasse erstellt.
Weitere Informationen finden Sie im Artikel Hinzufügen & Registrieren von Datasets. Informationen zu den ersten Schritten mit einem tabellarischen Dataset finden Sie unter https://aka.ms/tabulardataset-samplenotebook.
Initialisieren Sie ein TabularDataset-Objekt.
Dieser Konstruktor sollte nicht direkt aufgerufen werden. Das Dataset soll mithilfe der TabularDatasetFactory -Klasse erstellt werden.
- Vererbung
-
TabularDataset
Konstruktor
TabularDataset()
Hinweise
Ein TabularDataset kann mithilfe der from_*
-Methoden der TabularDatasetFactory-Klasse aus CSV-, TSV- und Parquet-Dateien oder aus SQL-Abfragen erstellt werden. Sie können für ein TabularDataset Vorgänge für untergeordnete Einstellungen ausführen, z. B. Aufteilen, Überspringen und Filtern von Datensätzen.
Eine untergeordnete Einstellung führt immer zu mindestens einem neuen TabularDataset-Objekt.
Sie können ein TabularDataset auch in andere Formate konvertieren – etwa in einen Pandas-DataFrame. Das tatsächliche Laden von Daten erfolgt, wenn das TabularDataset angewiesen wird, die Daten in einen anderen Speichermechanismus (z. B. einen Pandas-Datenrahmen oder eine CSV-Datei) zu übermitteln.
Ein TabularDataset kann als Eingabe für eine Experimentausführung verwendet werden. Es kann auch bei einem Arbeitsbereich mit einem angegebenen Namen registriert und später mit diesem Namen abgerufen werden.
Methoden
download |
Hinweis Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen. Herunterladen von Dateistreams, die vom Dataset definiert werden, an einen lokalen Pfad. |
drop_columns |
Löschen der angegebenen Spalten aus dem Dataset. Wenn eine Zeitreihenspalte gelöscht wird, werden die entsprechenden Funktionen auch für das zurückgegebene Dataset gelöscht. |
filter |
Hinweis Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen. Filtern der Daten, sodass nur die Datensätze zurückbleiben, die mit dem angegebenen Ausdruck übereinstimmen. |
get_profile |
Hinweis Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen. Abrufen des Datenprofils aus der letzten Profilausführung, die für dieses oder das gleiche Dataset im Arbeitsbereich übermittelt wurde. |
get_profile_runs |
Hinweis Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen. Zurückgeben vorheriger Profilausführungen, die diesem oder dem gleichen Dataset im Arbeitsbereich zugeordnet sind. |
keep_columns |
Beibehalten der angegebenen Spalten und Löschen aller anderen Spalten aus dem Dataset. Wenn eine Zeitreihenspalte gelöscht wird, werden die entsprechenden Funktionen auch für das zurückgegebene Dataset gelöscht. |
mount |
Hinweis Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen. Erstellen eines Kontext-Managers zum Einbinden von Dateistreams, die vom Dataset als lokale Dateien definiert werden. |
partition_by |
Partitionierte Daten werden kopiert und an das mit „target“ angegebene Ziel ausgegeben. Erstellen des Datasets aus dem ausgegebenen Datenpfad im Partitionsformat, Registrieren des Datasets, wenn „name“ angegeben ist, und Zurückgeben des Datasets für den neuen Datenpfad mit Partitionen.
|
random_split |
Aufteilen von Datensätzen im Dataset in zwei Teile nach dem Zufallsprinzip und ungefähr nach dem angegebenen Prozentsatz. Das erste Dataset enthält ungefähr |
skip |
Überspringen der angegebenen Anzahl von Datensätzen vom Anfang des Datasets. |
submit_profile_run |
Hinweis Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen. Übermitteln einer Experimentausführung, um das Datenprofil zu berechnen. Ein Datenprofil enthält nützliche Informationen zu den Daten (z. B. Spaltentyp, fehlende Werte usw.) und kann sehr hilfreich sein, um die Eingabedaten zu verstehen sowie Anomalien und fehlende Werte zu identifizieren. |
take |
Nehmen einer Stichprobe mit der angegebenen Anzahl von Datensätzen vom Anfang des Datasets. |
take_sample |
Nehmen einer zufälligen Stichprobe von Datensätzen im Dataset, ungefähr nach der angegebenen Wahrscheinlichkeit. |
time_after |
Filtern des TabularDataset mit Zeitstempelspalten nach einer angegebenen Startzeit. |
time_before |
Filtern des TabularDataset mit Zeitstempelspalten vor einer angegebenen Endzeit. |
time_between |
Filtern des TabularDataset zwischen einer angegebenen Start- und Endzeit. |
time_recent |
Filtern des TabularDataset, sodass es nur die angegebene Dauer (Menge) aktueller Daten enthält. |
to_csv_files |
Konvertieren des aktuellen Datasets in ein FileDataset mit CSV-Dateien. Das resultierende Dataset enthält mindestens eine CSV-Datei, die jeweils einer Partition von Daten aus dem aktuellen Dataset entspricht. Diese Dateien werden erst materialisiert, wenn sie heruntergeladen oder gelesen wurden. |
to_dask_dataframe |
Hinweis Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen. Zurückgeben eines Dask-Datenrahmens (DataFrame), der die Daten im Dataset verzögert lesen kann. |
to_pandas_dataframe |
Laden aller Datensätze aus dem Dataset in einen Pandas-DataFrame. |
to_parquet_files |
Konvertieren des aktuellen Datasets in ein FileDataset mit Parquet-Dateien. Das resultierende Dataset enthält mindestens eine Parquet-Datei, die jeweils einer Datenpartition aus dem aktuellen Dataset entspricht. Diese Dateien werden erst materialisiert, wenn sie heruntergeladen oder gelesen wurden. |
to_spark_dataframe |
Laden aller Datensätze aus dem Dataset in einen Spark-DataFrame. |
with_timestamp_columns |
Definieren von Zeitstempelspalten für das Dataset. |
download
Hinweis
Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen.
Herunterladen von Dateistreams, die vom Dataset definiert werden, an einen lokalen Pfad.
download(stream_column, target_path=None, overwrite=False, ignore_not_found=True)
Parameter
- target_path
- str
Das lokale Verzeichnis, in das die Dateien heruntergeladen werden sollen. Bei „None“ (Keine) werden die Daten in ein temporäres Verzeichnis heruntergeladen.
- overwrite
- bool
Gibt an, ob vorhandene Dateien überschrieben werden. Die Standardeinstellung lautet „false“. Vorhandene Dateien werden überschrieben, wenn „overwrite“ auf „True“ festgelegt ist. Andernfalls wird eine Ausnahme ausgelöst.
- ignore_not_found
- bool
Gibt an, ob der Download fehlschlägt, wenn einige Dateien, auf die vom Dataset verwiesen wird, nicht gefunden werden. Der Standardwert ist True. Ist „ignore_not_found“ auf „False“ festgelegt, ist der Download nicht erfolgreich, falls bei einem Dateidownload ein beliebiger Fehler auftritt. Andernfalls wird eine Warnung für Fehler vom Typ „Nicht gefunden“ protokolliert, und der Download ist erfolgreich, solange keine anderen Fehlertypen gefunden werden.
Gibt zurück
Gibt ein Array von Dateipfaden für jede heruntergeladene Datei zurück.
Rückgabetyp
drop_columns
Löschen der angegebenen Spalten aus dem Dataset.
Wenn eine Zeitreihenspalte gelöscht wird, werden die entsprechenden Funktionen auch für das zurückgegebene Dataset gelöscht.
drop_columns(columns)
Parameter
Der Name oder eine Liste der Namen für die zu löschenden Spalten.
Gibt zurück
Dient zum Zurückgeben eines neuen TabularDataset-Objekts, in dem die angegebenen Spalten gelöscht wurden.
Rückgabetyp
filter
Hinweis
Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen.
Filtern der Daten, sodass nur die Datensätze zurückbleiben, die mit dem angegebenen Ausdruck übereinstimmen.
filter(expression)
Parameter
Gibt zurück
Das geänderte Dataset (nicht registriert).
Rückgabetyp
Hinweise
Ausdrücke werden gestartet, indem das Dataset mit dem Namen einer Spalte indiziert wird. Sie unterstützen eine Vielzahl von Funktionen und Operatoren und können mithilfe von logischen Operatoren kombiniert werden. Der resultierende Ausdruck wird verzögert für jeden Datensatz ausgewertet, wenn ein Datenpullvorgang erfolgt, und nicht an der Stelle, an der er definiert ist.
dataset['myColumn'] > dataset['columnToCompareAgainst']
dataset['myColumn'].starts_with('prefix')
get_profile
Hinweis
Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen.
Abrufen des Datenprofils aus der letzten Profilausführung, die für dieses oder das gleiche Dataset im Arbeitsbereich übermittelt wurde.
get_profile(workspace=None)
Parameter
- workspace
- Workspace
Der Arbeitsbereich, an den die Profilausführung übermittelt wurde. Der Standardwert ist der Arbeitsbereich dieses Datasets. Ist erforderlich, wenn das Dataset keinem Arbeitsbereich zugeordnet ist. Weitere Informationen zu Arbeitsbereichen finden Sie unter https://docs.microsoft.com/en-us/python/api/azureml-core/azureml.core.workspace.workspace.
Gibt zurück
Profilergebnis der letzten Profilausführung vom Typ „DatasetProfile“.
Rückgabetyp
get_profile_runs
Hinweis
Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen.
Zurückgeben vorheriger Profilausführungen, die diesem oder dem gleichen Dataset im Arbeitsbereich zugeordnet sind.
get_profile_runs(workspace=None)
Parameter
- workspace
- Workspace
Der Arbeitsbereich, an den die Profilausführung übermittelt wurde. Der Standardwert ist der Arbeitsbereich dieses Datasets. Ist erforderlich, wenn das Dataset keinem Arbeitsbereich zugeordnet ist. Weitere Informationen zu Arbeitsbereichen finden Sie unter https://docs.microsoft.com/en-us/python/api/azureml-core/azureml.core.workspace.workspace.
Gibt zurück
Ein iterator-Objekt vom Typ „azureml.core.Run“.
Rückgabetyp
keep_columns
Beibehalten der angegebenen Spalten und Löschen aller anderen Spalten aus dem Dataset.
Wenn eine Zeitreihenspalte gelöscht wird, werden die entsprechenden Funktionen auch für das zurückgegebene Dataset gelöscht.
keep_columns(columns, validate=False)
Parameter
Der Name oder eine Liste der Namen für die Spalten, die beibehalten werden sollen.
- validate
- bool
Gibt an, ob überprüft werden soll, ob Daten aus dem zurückgegebenen Dataset geladen werden können. Die Standardeinstellung lautet „false“. Die Überprüfung erfordert, dass über die aktuelle Computeressource auf die Datenquelle zugegriffen werden kann.
Gibt zurück
Gibt ein neues TabularDataset-Objekt zurück, bei dem nur die angegebenen Spalten beibehalten werden.
Rückgabetyp
mount
Hinweis
Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen.
Erstellen eines Kontext-Managers zum Einbinden von Dateistreams, die vom Dataset als lokale Dateien definiert werden.
mount(stream_column, mount_point=None)
Parameter
- mount_point
- str
Das lokale Verzeichnis, in das die Dateien eingebunden werden sollen. Bei „None“ werden die Daten in ein temporäres Verzeichnis eingebunden, das Sie durch Aufrufen der Instanzmethode MountContext.mount_point ermitteln können.
Gibt zurück
Gibt einen Kontext-Manager zum Verwalten des Lebenszyklus der Einbindung zurück.
Rückgabetyp
partition_by
Partitionierte Daten werden kopiert und an das mit „target“ angegebene Ziel ausgegeben.
Erstellen des Datasets aus dem ausgegebenen Datenpfad im Partitionsformat, Registrieren des Datasets, wenn „name“ angegeben ist, und Zurückgeben des Datasets für den neuen Datenpfad mit Partitionen.
ds = Dataset.get_by_name('test') # indexed by country, state, partition_date
# #1: call partition_by locally
new_ds = ds.partition_by(name="repartitioned_ds", partition_keys=['country'],
target=DataPath(datastore, "repartition"))
partition_keys = newds.partition_keys # ['country']
# new_ds can be passed to PRS as input dataset
partition_by(partition_keys, target, name=None, show_progress=True, partition_as_file_dataset=False)
Parameter
Erforderlich. Der Datenspeicherpfad, in den die Parquet-Daten des Datenrahmens hochgeladen werden. Ein GUID-Ordner wird unter dem Zielpfad generiert, um Konflikte zu vermeiden.
- show_progress
- bool
Optional. Gibt an, ob der Fortschritt des Uploads in der Konsole angezeigt werden soll. Der Standardwert ist „True“.
- partition_as_file_dataset
Optional. Gibt an, ob ein Dateidataset (FileDataset) zurückgegeben wird. Der Standardwert ist „False“.
Gibt zurück
Das gespeicherte oder registrierte Dataset.
Rückgabetyp
random_split
Aufteilen von Datensätzen im Dataset in zwei Teile nach dem Zufallsprinzip und ungefähr nach dem angegebenen Prozentsatz.
Das erste Dataset enthält ungefähr percentage
der gesamten Datensätze und das zweite Dataset die verbleibenden Datensätze.
random_split(percentage, seed=None)
Parameter
- percentage
- float
Der ungefähre Prozentsatz, nach dem das Dataset aufgeteilt werden soll. Es muss eine Zahl zwischen 0,0 und 1,0 sein.
Gibt zurück
Gibt ein Tupel neuer TabularDataset-Objekte zurück, die die beiden Datasets nach der Teilung darstellen.
Rückgabetyp
skip
Überspringen der angegebenen Anzahl von Datensätzen vom Anfang des Datasets.
skip(count)
Parameter
Gibt zurück
Gibt ein neues TabularDataset-Objekt zurück, das ein Dataset mit übersprungenen Datensätzen darstellt.
Rückgabetyp
submit_profile_run
Hinweis
Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen.
Übermitteln einer Experimentausführung, um das Datenprofil zu berechnen.
Ein Datenprofil enthält nützliche Informationen zu den Daten (z. B. Spaltentyp, fehlende Werte usw.) und kann sehr hilfreich sein, um die Eingabedaten zu verstehen sowie Anomalien und fehlende Werte zu identifizieren.
submit_profile_run(compute_target, experiment, cache_datastore_name=None)
Parameter
- compute_target
- Union[str, ComputeTarget]
Das Computeziel, auf dem das Profilberechnungsexperiment ausgeführt werden soll. Geben Sie „local“ an, um das lokale Computeziel zu verwenden. Weitere Informationen zu Computezielen finden Sie unter https://docs.microsoft.com/en-us/python/api/azureml-core/azureml.core.computetarget.
- experiment
- Experiment
Das Experimentobjekt. Weitere Informationen zu Experimenten finden Sie unter https://docs.microsoft.com/en-us/python/api/azureml-core/azureml.core.experiment.experiment.
- cache_datastore_name
- str
Der Name des Datenspeichers zum Speichern des Profilcaches. Bei „None“ wird der Standarddatenspeicher verwendet.
Gibt zurück
Ein Objekt vom Typ „DatasetProfileRun-Klasse“.
Rückgabetyp
take
Nehmen einer Stichprobe mit der angegebenen Anzahl von Datensätzen vom Anfang des Datasets.
take(count)
Parameter
Gibt zurück
Gibt ein neues TabularDataset-Objekt zurück, das das Stichprobendataset darstellt.
Rückgabetyp
take_sample
Nehmen einer zufälligen Stichprobe von Datensätzen im Dataset, ungefähr nach der angegebenen Wahrscheinlichkeit.
take_sample(probability, seed=None)
Parameter
- probability
- float
Die Wahrscheinlichkeit, dass ein Datensatz in die Stichprobe aufgenommen wird.
Gibt zurück
Gibt ein neues TabularDataset-Objekt zurück, das das Stichprobendataset darstellt.
Rückgabetyp
time_after
Filtern des TabularDataset mit Zeitstempelspalten nach einer angegebenen Startzeit.
time_after(start_time, include_boundary=True, validate=True)
Parameter
- include_boundary
- bool
Gibt an, ob die der Begrenzungszeit (start_time
) zugeordnete Zeile eingeschlossen werden soll.
- validate
- bool
Gibt an, ob überprüft werden soll, ob angegebene Spalten im Dataset vorhanden sind. Der Standardwert ist True. Die Überprüfung erfordert, dass über die aktuelle Computeressource auf die Datenquelle zugegriffen werden kann.
Gibt zurück
Ein TabularDataset mit dem neuen gefilterten Dataset.
Rückgabetyp
time_before
Filtern des TabularDataset mit Zeitstempelspalten vor einer angegebenen Endzeit.
time_before(end_time, include_boundary=True, validate=True)
Parameter
- include_boundary
- bool
Gibt an, ob die der Begrenzungszeit (end_time
) zugeordnete Zeile eingeschlossen werden soll.
- validate
- bool
Gibt an, ob überprüft werden soll, ob angegebene Spalten im Dataset vorhanden sind. Der Standardwert ist True. Die Überprüfung erfordert, dass über die aktuelle Computeressource auf die Datenquelle zugegriffen werden kann.
Gibt zurück
Ein TabularDataset mit dem neuen gefilterten Dataset.
Rückgabetyp
time_between
Filtern des TabularDataset zwischen einer angegebenen Start- und Endzeit.
time_between(start_time, end_time, include_boundary=True, validate=True)
Parameter
- include_boundary
- bool
Gibt an, ob die der Begrenzungszeit (start_end
und end_time
) zugeordnete Zeile eingeschlossen werden soll.
- validate
- bool
Gibt an, ob überprüft werden soll, ob angegebene Spalten im Dataset vorhanden sind. Der Standardwert ist True. Die Überprüfung erfordert, dass über die aktuelle Computeressource auf die Datenquelle zugegriffen werden kann.
Gibt zurück
Ein TabularDataset mit dem neuen gefilterten Dataset.
Rückgabetyp
time_recent
Filtern des TabularDataset, sodass es nur die angegebene Dauer (Menge) aktueller Daten enthält.
time_recent(time_delta, include_boundary=True, validate=True)
Parameter
- include_boundary
- bool
Gibt an, ob die der Begrenzungszeit (time_delta
) zugeordnete Zeile eingeschlossen werden soll.
- validate
- bool
Gibt an, ob überprüft werden soll, ob angegebene Spalten im Dataset vorhanden sind. Der Standardwert ist True. Die Überprüfung erfordert, dass über die aktuelle Computeressource auf die Datenquelle zugegriffen werden kann.
Gibt zurück
Ein TabularDataset mit dem neuen gefilterten Dataset.
Rückgabetyp
to_csv_files
Konvertieren des aktuellen Datasets in ein FileDataset mit CSV-Dateien.
Das resultierende Dataset enthält mindestens eine CSV-Datei, die jeweils einer Partition von Daten aus dem aktuellen Dataset entspricht. Diese Dateien werden erst materialisiert, wenn sie heruntergeladen oder gelesen wurden.
to_csv_files(separator=',')
Parameter
- separator
- str
Das Trennzeichen, das zum Trennen von Werten in der resultierenden Datei verwendet werden soll.
Gibt zurück
Gibt ein neues FileDataset-Objekt mit einem Satz von CSV-Dateien zurück, die die Daten in diesem Dataset enthalten.
Rückgabetyp
to_dask_dataframe
Hinweis
Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen.
Zurückgeben eines Dask-Datenrahmens (DataFrame), der die Daten im Dataset verzögert lesen kann.
to_dask_dataframe(sample_size=10000, dtypes=None, on_error='null', out_of_range_datetime='null')
Parameter
- sample_size
Die Anzahl von Datensätzen, die zum Bestimmen des Schemas und der Typen gelesen werden sollen.
- dtypes
Ein optionales Wörterbuch, das die erwarteten Spalten und deren dtypes angibt. sample_size wird ignoriert, wenn dies angegeben ist.
- on_error
Angeben, wie Fehlerwerte im Dataset behandelt werden, z. B. Fehlerwerte, die durch einen Fehler beim Analysieren von Werten entstehen. Gültige Werte sind „null“ (Ersetzen durch NULL) und „fail“ (Auslösen einer Ausnahme).
- out_of_range_datetime
Angeben, wie Datums-/Uhrzeitwerte behandelt werden, die außerhalb des von Pandas unterstützten Bereichs liegen. Gültige Werte sind „null“ (Ersetzen durch NULL) und „fail“ (Auslösen einer Ausnahme).
Gibt zurück
dask.dataframe.core.DataFrame
to_pandas_dataframe
Laden aller Datensätze aus dem Dataset in einen Pandas-DataFrame.
to_pandas_dataframe(on_error='null', out_of_range_datetime='null')
Parameter
- on_error
Angeben, wie Fehlerwerte im Dataset behandelt werden, z. B. Fehlerwerte, die durch einen Fehler beim Analysieren von Werten entstehen. Gültige Werte sind „null“ (Ersetzen durch NULL) und „fail“ (Auslösen einer Ausnahme).
- out_of_range_datetime
Angeben, wie Datums-/Uhrzeitwerte behandelt werden, die außerhalb des von Pandas unterstützten Bereichs liegen. Gültige Werte sind „null“ (Ersetzen durch NULL) und „fail“ (Auslösen einer Ausnahme).
Gibt zurück
Gibt einen Pandas-Datenrahmen (DataFrame) zurück.
Rückgabetyp
to_parquet_files
Konvertieren des aktuellen Datasets in ein FileDataset mit Parquet-Dateien.
Das resultierende Dataset enthält mindestens eine Parquet-Datei, die jeweils einer Datenpartition aus dem aktuellen Dataset entspricht. Diese Dateien werden erst materialisiert, wenn sie heruntergeladen oder gelesen wurden.
to_parquet_files()
Gibt zurück
Gibt ein neues FileDataset-Objekt mit einer Reihe von Parquet-Dateien zurück, die die Daten in diesem Dataset enthalten.
Rückgabetyp
to_spark_dataframe
Laden aller Datensätze aus dem Dataset in einen Spark-DataFrame.
to_spark_dataframe()
Gibt zurück
Gibt einen Spark-Datenrahmen (DataFrame) zurück.
Rückgabetyp
with_timestamp_columns
Definieren von Zeitstempelspalten für das Dataset.
with_timestamp_columns(timestamp=None, partition_timestamp=None, validate=False, **kwargs)
Parameter
- timestamp
- str
Der Name der Spalte „timestamp“ (früher als „fine_grain_timestamp“ bezeichnet) (optional). Der Standardwert ist „None(clear)“.
- partition_timestamp
- str
Der Name der Spalte „partition_timestamp“ (früher als „coarse_grain_timestamp“ bezeichnet) (optional). Der Standardwert ist „None(clear)“.
- validate
- bool
Gibt an, ob überprüft werden soll, ob angegebene Spalten im Dataset vorhanden sind. Die Standardeinstellung lautet „false“. Die Überprüfung erfordert, dass über die aktuelle Computeressource auf die Datenquelle zugegriffen werden kann.
Gibt zurück
Gibt ein neues TabularDataset mit definierten Zeitstempelspalten zurück.
Rückgabetyp
Hinweise
Die Methode definiert Spalten, die als Zeitstempel verwendet werden sollen. Zeitstempelspalten in einem Dataset ermöglichen es, die Daten als Zeitreihendaten zu behandeln, und bieten zusätzliche Funktionen. Wenn für ein Dataset sowohl timestamp (used to be referred as fine_grain_timestamp)
als auch partition_timestamp (used to be referred as coarse grain timestamp)
angegeben sind, sollten die beiden Spalten die gleiche Zeitachse darstellen.
Attribute
timestamp_columns
Feedback
https://aka.ms/ContentUserFeedback.
Bald verfügbar: Im Laufe des Jahres 2024 werden wir GitHub-Issues stufenweise als Feedbackmechanismus für Inhalte abbauen und durch ein neues Feedbacksystem ersetzen. Weitere Informationen finden Sie unterFeedback senden und anzeigen für