Dataset Classe

Representa um recurso para explorar, transformar e gerir dados em Azure Machine Learning.

Um Conjunto de Dados é uma referência a dados em Datastore urls web ou por trás.

Para os métodos precotados nesta classe, verifique AbstractDataset a classe para as APIs melhoradas.

Os seguintes tipos de conjuntos de dados são suportados:

  • TabularDataset representa dados em formato tabular que são criados ao analisar o ficheiro ou a lista de ficheiros fornecidos.

  • FileDataset referencia ficheiros individuais ou múltiplos em arquivos de dados ou a partir de URLs públicos.

Para começar com conjuntos de dados, consulte o artigo Adicione & registar conjuntos de dados,ou ver os cadernos https://aka.ms/tabulardataset-samplenotebook e https://aka.ms/filedataset-samplenotebook .

Herança
builtins.object
Dataset

Construtor

Dataset(definition, workspace=None, name=None, id=None)

Observações

A classe Dataset expõe dois atributos de classe de conveniência File Tabular (e) que pode usar para criar um Conjunto de Dados sem trabalhar com os métodos de fábrica correspondentes. Por exemplo, criar um conjunto de dados utilizando estes atributos:

  • Dataset.Tabular.from_delimited_files()

  • Dataset.File.from_files()

Também pode criar um novo Separador ou Dados de Ficheiros, chamando diretamente os métodos de fábrica correspondentes da classe definida em TabularDatasetFactory e FileDatasetFactory .

O exemplo seguinte mostra como criar um TabularDataset que aponta para um caminho individual num arquivo de dados.


   from azureml.core import Dataset
   dataset = Dataset.Tabular.from_delimited_files(path = [(datastore, 'train-dataset/tabular/iris.csv')])

   # preview the first 3 rows of the dataset
   dataset.take(3).to_pandas_dataframe()

A amostra completa está disponível a partir de https://github.com/Azure/MachineLearningNotebooks/blob/master/how-to-use-azureml/work-with-data/datasets-tutorial/train-with-datasets/train-with-datasets.ipynb

Variáveis

azureml.core.Dataset.File

Um atributo de classe que fornece acesso aos métodos FileDatasetFactory para criar novos objetos FileDataset. Utilização: Dataset.File.from_files().

azureml.core.Dataset.Tabular

Um atributo de classe que fornece acesso aos métodos TabularDatasetFactory para a criação de novos objetos TabularDataset. Utilização: Dataset.Tabular.from_delimited_files().

Métodos

archive

Arquivar um conjunto de dados ativo ou precotado.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

auto_read_files

Analisa os ficheiros na via especificada e devolve um novo Conjunto de Dados.

Nota

Este método é precotado e deixará de ser apoiado.

Recomenda-se que utilize os métodos Dataset.Tabular.from_* para ler ficheiros. Para obter mais informações, veja https://aka.ms/dataset-deprecation.

compare_profiles

Compare o perfil do conjunto de dados atual com outro perfil de conjunto de dados.

Isto mostra as diferenças nas estatísticas sumárias entre dois conjuntos de dados. O parâmetro "rhs_dataset" significa "lado direito", e é simplesmente o segundo conjunto de dados. O primeiro conjunto de dados (o objeto de conjunto de dados atual) é considerado o "lado esquerdo".

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

create_snapshot

Crie uma imagem instantânea do Conjunto de Dados registado.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

delete_snapshot

Elimine a imagem do Conjunto de Dados pelo nome.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

deprecate

Depreciar um conjunto de dados ativo num espaço de trabalho por outro conjunto de dados.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

diff

Difundiu o conjunto de dados atual com rhs_dataset.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

from_binary_files

Crie um conjunto de dados não registado na memória a partir de ficheiros binários.

Nota

Este método é precotado e deixará de ser apoiado.

Recomenda-se a utilização Dataset.File.from_files. Para obter mais informações, veja https://aka.ms/dataset-deprecation.

from_delimited_files

Crie um conjunto de dados não registado na memória a partir de ficheiros delimitados.

Nota

Este método é precotado e deixará de ser apoiado.

Recomenda-se a utilização Dataset.Tabular.from_delimited_files. Para obter mais informações, veja https://aka.ms/dataset-deprecation.


   # Create a dataset from delimited files with header option as ALL_FILES_HAVE_SAME_HEADERS
   dataset = Dataset.Tabular.from_delimited_files(path=(datastore, 'data/crime-spring.csv'),
       header='ALL_FILES_HAVE_SAME_HEADERS')

   df = dataset.to_pandas_dataframe()
from_excel_files

Crie um conjunto de dados não registado e na memória a partir de ficheiros Excel.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

from_json_files

Crie um conjunto de dados não registado e na memória a partir de ficheiros JSON.

Nota

Este método é precotado e deixará de ser apoiado.

Recomenda-se que utilize Dataset.Tabular.from_json_lines_files em vez de ler a partir do ficheiro de linhas JSON. Para obter mais informações, veja https://aka.ms/dataset-deprecation.

from_pandas_dataframe

Crie um conjunto de dados não registado na memória a partir de um dataframe de pandas.

Nota

Este método é precotado e deixará de ser apoiado.

Recomenda-se a utilização Dataset.Tabular.register_pandas_dataframe. Para obter mais informações, veja https://aka.ms/dataset-deprecation.

from_parquet_files

Crie um conjunto de dados não registado e na memória a partir de ficheiros parquet.

Nota

Este método é precotado e deixará de ser apoiado.

Recomenda-se a utilização Dataset.Tabular.from_parquet_files. Para obter mais informações, veja https://aka.ms/dataset-deprecation.

from_sql_query

Crie um conjunto de dados não registado e na memória a partir de uma consulta SQL.

Nota

Este método é precotado e deixará de ser apoiado.

Recomenda-se a utilização Dataset.Tabular.from_sql_query. Para obter mais informações, veja https://aka.ms/dataset-deprecation.

generate_profile

Gere um novo perfil para o Conjunto de Dados.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

get

Obtenha um Conjunto de Dados que já exista no espaço de trabalho especificando o seu nome ou ID.

Nota

Este método é precotado e deixará de ser apoiado.

Recomendar a utilização get_by_name get_by_id e, em vez disso. Para obter mais informações, veja https://aka.ms/dataset-deprecation.

get_all

Obtenha todos os conjuntos de dados registados no espaço de trabalho.

get_all_snapshots

Obtenha todas as fotos do Conjunto de Dados.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

get_by_id

Obtenha um Conjunto de Dados que é guardado no espaço de trabalho.

get_by_name

Obtenha um Conjunto de Dados registado do espaço de trabalho pelo seu nome de registo.

get_definition

Obtenha uma definição específica do Conjunto de Dados.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

get_definitions

Obtenha todas as definições do Conjunto de Dados.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

get_profile

Obtenha estatísticas sumárias sobre o Conjunto de Dados calculados anteriormente.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

get_snapshot

Obtenha uma foto do Conjunto de Dados pelo nome.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

head

Retire o número especificado de registos especificados neste Conjunto de Dados e devolva-os como DataFrame.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

list

Listar todos os Conjuntos de Dados no espaço de trabalho, incluindo os que têm is_visible propriedade igual a Falso.

Nota

Este método é precotado e deixará de ser apoiado.

Recomenda-se a get_all utilização. Para obter mais informações, veja https://aka.ms/dataset-deprecation.

reactivate

Reativar um conjunto de dados arquivado ou precotado.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

register

Registe o Conjunto de Dados no espaço de trabalho, disponibilizando-o a outros utilizadores do espaço de trabalho.

Nota

Este método é precotado e deixará de ser apoiado.

Recomenda-se a register utilização. Para obter mais informações, veja https://aka.ms/dataset-deprecation.

sample

Gere uma nova amostra a partir do conjunto de dados de origem, utilizando a estratégia de amostragem e os parâmetros fornecidos.

Nota

Este método é precotado e deixará de ser apoiado.

Crie um TabularDataset chamando os métodos estáticos em Dataset.Tabular e use o take_sample método lá. Para obter mais informações, veja https://aka.ms/dataset-deprecation.

to_pandas_dataframe

Crie um dataframe pandas executando o pipeline de transformação definido por esta definição de Dataset.

Nota

Este método é precotado e deixará de ser apoiado.

Crie um TabularDataset chamando os métodos estáticos em Dataset.Tabular e use o to_pandas_dataframe método lá. Para obter mais informações, veja https://aka.ms/dataset-deprecation.

to_spark_dataframe

Crie um DataFrame de faísca que possa executar o pipeline de transformação definido por esta definição de Dataset.

Nota

Este método é precotado e deixará de ser apoiado.

Crie um TabularDataset chamando os métodos estáticos em Dataset.Tabular e use o to_spark_dataframe método lá. Para obter mais informações, veja https://aka.ms/dataset-deprecation.

update

Atualize os atributos mutáveis do Dataset no espaço de trabalho e devolva o Conjunto de Dados atualizado do espaço de trabalho.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

update_definition

Atualize a definição do Conjunto de Dados.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

archive

Arquivar um conjunto de dados ativo ou precotado.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

archive()

Devoluções

Nenhum.

Tipo de retorno

<xref:None>

Observações

Após o arquivo, qualquer tentativa de consumir o Conjunto de Dados resultará num erro. Se arquivado por acidente, reativá-lo-á.

auto_read_files

Analisa os ficheiros na via especificada e devolve um novo Conjunto de Dados.

Nota

Este método é precotado e deixará de ser apoiado.

Recomenda-se que utilize os métodos Dataset.Tabular.from_* para ler ficheiros. Para obter mais informações, veja https://aka.ms/dataset-deprecation.

auto_read_files(path, include_path=False, partition_format=None)

Parâmetros

path
DataReference ou <xref:str>

Um caminho de dados numa data-loja registada, num caminho local ou num URL HTTP(CSV/TSV).

include_path
<xref:bool>

Se incluir uma coluna contendo o caminho do ficheiro a partir do qual os dados foram lidos. Útil ao ler vários ficheiros, e quer saber de que ficheiro um determinado registo teve origem. Também útil se houver informações no caminho do ficheiro ou no nome que deseja numa coluna.

partition_format
<xref:str>

Especifique o formato de partição no caminho e crie colunas de cordas a partir do formato '{x}' e coluna de data a partir do formato '{x:yyyy/MM/dd/HH/mm/ss}', onde 'yyyy', 'MM', 'dd', 'HH', 'mm' e 's' são usados para extrat ano, mês, dia, hora e segundo para o tipo de data. O formato deve partir-se da posição da primeira chave de partição até ao fim do percurso do ficheiro. Por exemplo, dado um caminho de arquivo.. /Contas/2019/01/01/data.csv' onde os dados são divididos pelo nome e hora do departamento, podemos definir '/{Department}/{PartitionDate:yyyy/MM/dd}/data.csv' para criar colunas 'Department' do tipo de corda e 'PartitionDate' do tipo de data.

Devoluções

Objeto de conjunto de dados.

Tipo de retorno

Observações

Utilize este método quando tiver formatos de ficheiros e delimiters detetados automaticamente.

Depois de criar um Conjunto de Dados, deverá utilizar get_profile para listar tipos de colunas detetados e estatísticas sumárias para cada coluna.

O Conjunto de Dados devolvido não está registado no espaço de trabalho.

compare_profiles

Compare o perfil do conjunto de dados atual com outro perfil de conjunto de dados.

Isto mostra as diferenças nas estatísticas sumárias entre dois conjuntos de dados. O parâmetro "rhs_dataset" significa "lado direito", e é simplesmente o segundo conjunto de dados. O primeiro conjunto de dados (o objeto de conjunto de dados atual) é considerado o "lado esquerdo".

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

compare_profiles(rhs_dataset, profile_arguments={}, include_columns=None, exclude_columns=None, histogram_compare_method=<HistogramCompareMethod.WASSERSTEIN: 0>)

Parâmetros

rhs_dataset
Dataset

Um segundo conjunto de dados, também chamado de conjunto de dados "do lado direito" para a comparação.

profile_arguments
<xref:dict>

Argumentos para retrássiva perfil específico.

include_columns
list[<xref:str>]

Lista de nomes de colunas a incluir em comparação.

exclude_columns
list[<xref:str>]

Lista de nomes de colunas a excluir em comparação.

histogram_compare_method
HistogramCompareMethod

Enum descrevendo o método de comparação, ex: Wasserstein ou Energia

Devoluções

Diferença entre os dois perfis de conjunto de dados.

Tipo de retorno

<xref:azureml.dataprep.api.engineapi.typedefinitions.DataProfileDifference>

Observações

Isto é apenas para conjuntos de dados registados. Aumenta uma exceção se o perfil do conjunto de dados atual não existir. Para conjuntos de dados não registados, utilize o método.compare..

create_snapshot

Crie uma imagem instantânea do Conjunto de Dados registado.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

create_snapshot(snapshot_name, compute_target=None, create_data_snapshot=False, target_datastore=None)

Parâmetros

snapshot_name
<xref:str>

O nome do instantâneo. Os nomes instantâneos devem ser únicos dentro de um Conjunto de Dados.

compute_target
<xref:typing.Union>[ComputeTarget, <xref:str>]

Objetivo de computação opcional para realizar a criação de perfil instantâneo. Se omitido, o cálculo local é usado.

create_data_snapshot
<xref:bool>

Se for verdade, será criada uma cópia materializada dos dados.

target_datastore
<xref:typing.Union>[AbstractAzureStorageDatastore, <xref:str>]

Loja de dados de destino para guardar instantâneo. Se omitido, o instantâneo será criado no armazenamento predefinido do espaço de trabalho.

Devoluções

Objeto instantâneo do conjunto de dados.

Tipo de retorno

Observações

Os instantâneos captam ponto em estatísticas de resumo do tempo dos dados subjacentes e uma cópia opcional dos dados em si. Para saber mais sobre a criação de instantâneos, vá a https://aka.ms/azureml/howto/createsnapshots .

delete_snapshot

Elimine a imagem do Conjunto de Dados pelo nome.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

delete_snapshot(snapshot_name)

Parâmetros

snapshot_name
<xref:str>

O nome do instantâneo.

Devoluções

Nenhum.

Tipo de retorno

<xref:None>

Observações

Utilize isto para libertar o armazenamento consumido por dados guardados em instantâneos que já não necessita.

deprecate

Depreciar um conjunto de dados ativo num espaço de trabalho por outro conjunto de dados.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

deprecate(deprecate_by_dataset_id)

Parâmetros

deprecate_by_dataset_id
<xref:str>

O Dataset ID que é a substituição pretendida para este Conjunto de Dados.

Devoluções

Nenhum.

Tipo de retorno

<xref:None>

Observações

Os Conjuntos de Dados Precados registarão avisos quando são consumidos. Depreciar um conjunto de dados deprecia todas as suas definições.

Os Conjuntos de Dados Precados ainda podem ser consumidos. Para impedir completamente que um Conjunto de Dados seja consumido, arquive-o.

Se for depreciado por acidente, reativar-se-á.

diff

Difundiu o conjunto de dados atual com rhs_dataset.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

diff(rhs_dataset, compute_target=None, columns=None)

Parâmetros

rhs_dataset
Dataset

Outro conjunto de dados também chamado conjunto de dados do lado direito para a comparação

compute_target
<xref:typing.Union>[ComputeTarget, <xref:str>]

meta de cálculo para realizar o diff. Se omitido, o cálculo local é usado.

columns
list[<xref:str>]

Lista de nomes de colunas a incluir em diff.

Devoluções

Objeto de execução do conjunto de dados.

Tipo de retorno

from_binary_files

Crie um conjunto de dados não registado na memória a partir de ficheiros binários.

Nota

Este método é precotado e deixará de ser apoiado.

Recomenda-se a utilização Dataset.File.from_files. Para obter mais informações, veja https://aka.ms/dataset-deprecation.

from_binary_files(path)

Parâmetros

path
DataReference ou <xref:str>

Um caminho de dados numa datastore registada ou num caminho local.

Devoluções

O objeto dataset.

Tipo de retorno

Observações

Utilize este método para ler ficheiros como fluxos de dados binários. Devolve um objeto de fluxo de ficheiro por leitura de ficheiro. Utilize este método quando estiver a ler imagens, vídeos, áudio ou outros dados binários.

get_profile e create_snapshot não funcionará como esperado para um Conjunto de Dados criado por este método.

O Conjunto de Dados devolvido não está registado no espaço de trabalho.

from_delimited_files

Crie um conjunto de dados não registado na memória a partir de ficheiros delimitados.

Nota

Este método é precotado e deixará de ser apoiado.

Recomenda-se a utilização Dataset.Tabular.from_delimited_files. Para obter mais informações, veja https://aka.ms/dataset-deprecation.


   # Create a dataset from delimited files with header option as ALL_FILES_HAVE_SAME_HEADERS
   dataset = Dataset.Tabular.from_delimited_files(path=(datastore, 'data/crime-spring.csv'),
       header='ALL_FILES_HAVE_SAME_HEADERS')

   df = dataset.to_pandas_dataframe()
from_delimited_files(path, separator=',', header=<PromoteHeadersBehavior.ALL_FILES_HAVE_SAME_HEADERS: 3>, encoding=<FileEncoding.UTF8: 0>, quoting=False, infer_column_types=True, skip_rows=0, skip_mode=<SkipLinesBehavior.NO_ROWS: 0>, comment=None, include_path=False, archive_options=None, partition_format=None)

Parâmetros

path
DataReference ou <xref:str>

Um caminho de dados numa datastore registada, um caminho local ou um URL HTTP.

separator
<xref:str>

O separador costumava dividir colunas.

header
PromoteHeadersBehavior

Controla a forma como os cabeçalhos das colunas são promovidos ao ler em ficheiros.

encoding
FileEncoding

A codificação dos ficheiros que estão a ser lidos.

quoting
<xref:bool>

Especificar como lidar com os caracteres de novas linhas dentro de cotações. O padrão (Falso) é interpretar os caracteres da nova linha como iniciar novas linhas, independentemente de os caracteres da nova linha estarem ou não dentro de cotações. Se definido para True, os novos caracteres de linha dentro das cotações não resultarão em novas linhas, e a velocidade de leitura do ficheiro irá abrandar.

infer_column_types
<xref:bool>

Indica se os tipos de dados de colunas estão inferidos.

skip_rows
<xref:int>

Quantas linhas para saltar no(s) ficheiro(s) a ser lido.

skip_mode
SkipLinesBehavior

Controla a forma como as linhas são ignoradas ao ler ficheiros.

comment
<xref:str>

O carácter usado para indicar linhas de comentários nos ficheiros que estão a ser lidos. As linhas que começam com esta corda serão ignoradas.

include_path
<xref:bool>

Se incluir uma coluna contendo o caminho do ficheiro a partir do qual os dados foram lidos. Isto é útil quando está a ler vários ficheiros e quer saber de que ficheiro um determinado registo teve origem ou para manter informações úteis no caminho do ficheiro.

archive_options
<xref:azureml.dataprep.ArchiveOptions>

Opções para arquivo de arquivo, incluindo o tipo de arquivo e o padrão de glob de entrada. Só apoiamos zip como tipo de arquivo no momento. Por exemplo, especificar


   archive_options = ArchiveOptions(archive_type = ArchiveType.ZIP, entry_glob = '*10-20.csv')

lê todos os ficheiros com o nome terminando com "10-20.csv" em ZIP.

partition_format
<xref:str>

Especifique o formato de partição no caminho e crie colunas de cordas a partir do formato '{x}' e coluna de data a partir do formato '{x:yyyy/MM/dd/HH/mm/ss}', onde 'yyyy', 'MM', 'dd', 'HH', 'mm' e 's' são usados para extrat ano, mês, dia, hora e segundo para o tipo de data. O formato deve partir-se da posição da primeira chave de partição até ao fim do percurso do ficheiro. Por exemplo, dado um caminho de arquivo.. /Contas/2019/01/01/data.csv' onde os dados são divididos pelo nome e hora do departamento, podemos definir '/{Department}/{PartitionDate:yyyy/MM/dd}/data.csv' para criar colunas 'Department' do tipo de corda e 'PartitionDate' do tipo de data.

Devoluções

Objeto de conjunto de dados.

Tipo de retorno

Observações

Utilize este método para ler ficheiros de texto delimitados quando pretende controlar as opções utilizadas.

Depois de criar um Conjunto de Dados, deverá utilizar get_profile para listar tipos de colunas detetados e estatísticas sumárias para cada coluna.

O Conjunto de Dados devolvido não está registado no espaço de trabalho.

from_excel_files

Crie um conjunto de dados não registado e na memória a partir de ficheiros Excel.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

from_excel_files(path, sheet_name=None, use_column_headers=False, skip_rows=0, include_path=False, infer_column_types=True, partition_format=None)

Parâmetros

path
DataReference ou <xref:str>

Um caminho de dados numa datastore registada ou num caminho local.

sheet_name
<xref:str>

O nome da folha excel para carregar. Por predefinição, lemos a primeira folha de cada ficheiro Excel.

use_column_headers
<xref:bool>

Controla se utiliza a primeira linha como cabeçalhos de coluna.

skip_rows
<xref:int>

Quantas linhas para saltar no(s) ficheiro(s) a ser lido.

include_path
<xref:bool>

Se incluir uma coluna contendo o caminho do ficheiro a partir do qual os dados foram lidos. Isto é útil quando está a ler vários ficheiros e quer saber de que ficheiro um determinado registo teve origem ou para manter informações úteis no caminho do ficheiro.

infer_column_types
<xref:bool>

Se for verdade, os tipos de dados de coluna serão deduzidos.

partition_format
<xref:str>

Especifique o formato de partição no caminho e crie colunas de cordas a partir do formato '{x}' e coluna de data a partir do formato '{x:yyyy/MM/dd/HH/mm/ss}', onde 'yyyy', 'MM', 'dd', 'HH', 'mm' e 's' são usados para extrat ano, mês, dia, hora e segundo para o tipo de data. O formato deve partir-se da posição da primeira chave de partição até ao fim do percurso do ficheiro. Por exemplo, dado um caminho de arquivo.. /Contas/2019/01/01/data.xlsx' onde os dados são divididos pelo nome e hora do departamento, podemos definir '/{Department}/{PartitionDate:yyyy/MM/dd}/data.xlsx' para criar colunas 'Department' do tipo de corda e 'PartitionDate' do tipo de data.

Devoluções

Objeto de conjunto de dados.

Tipo de retorno

Observações

Utilize este método para ler ficheiros Excel em formato .xlsx. Os dados podem ser lidos a partir de uma folha em cada ficheiro Excel. Depois de criar um Conjunto de Dados, deverá utilizar get_profile para listar tipos de colunas detetados e estatísticas sumárias para cada coluna. O Conjunto de Dados devolvido não está registado no espaço de trabalho.

from_json_files

Crie um conjunto de dados não registado e na memória a partir de ficheiros JSON.

Nota

Este método é precotado e deixará de ser apoiado.

Recomenda-se que utilize Dataset.Tabular.from_json_lines_files em vez de ler a partir do ficheiro de linhas JSON. Para obter mais informações, veja https://aka.ms/dataset-deprecation.

from_json_files(path, encoding=<FileEncoding.UTF8: 0>, flatten_nested_arrays=False, include_path=False, partition_format=None)

Parâmetros

path
DataReference ou <xref:str>

O caminho para o(s) ficheiro(s) ou pasta(s) que pretende carregar e analisar. Pode ser um caminho local ou um url Azure Blob. Globbing é apoiado. Por exemplo, pode utilizar o caminho = "./data*" para ler todos os ficheiros com o nome a começar por "dados".

encoding
FileEncoding

A codificação dos ficheiros que estão a ser lidos.

flatten_nested_arrays
<xref:bool>

O programa de controlo de propriedades está a lidar com matrizes aninhadas. Se optar por aplainar matrizes JSON aninhadas, pode resultar num número muito maior de linhas.

include_path
<xref:bool>

Se incluir uma coluna contendo o caminho a partir do qual os dados foram lidos. Isto é útil quando está a ler vários ficheiros, e pode querer saber de que ficheiro um determinado registo teve origem ou para manter informações úteis no caminho do ficheiro.

partition_format
<xref:str>

Especifique o formato de partição no caminho e crie colunas de cordas a partir do formato '{x}' e coluna de data a partir do formato '{x:yyyy/MM/dd/HH/mm/ss}', onde 'yyyy', 'MM', 'dd', 'HH', 'mm' e 's' são usados para extrat ano, mês, dia, hora e segundo para o tipo de data. O formato deve partir-se da posição da primeira chave de partição até ao fim do percurso do ficheiro. Por exemplo, dado um caminho de arquivo.. /Contas/2019/01/01/data.js' e os dados são divididos pelo nome e hora do departamento, podemos definir '/{Department}/{PartitionDate:yyyy/MM/dd}/data.json' para criar colunas 'Department' do tipo de corda e 'PartitionDate' do tipo de data.

Devoluções

O objeto do conjunto de dados local.

Tipo de retorno

from_pandas_dataframe

Crie um conjunto de dados não registado na memória a partir de um dataframe de pandas.

Nota

Este método é precotado e deixará de ser apoiado.

Recomenda-se a utilização Dataset.Tabular.register_pandas_dataframe. Para obter mais informações, veja https://aka.ms/dataset-deprecation.

from_pandas_dataframe(dataframe, path=None, in_memory=False)

Parâmetros

dataframe
DataFrame

O DataFrame pandas.

path
<xref:typing.Union>[DataReference, <xref:str>]

Um caminho de dados na datastore registada ou no caminho da pasta local.

in_memory
<xref:bool>

Se ler o DataFrame a partir da memória em vez de persistir no disco.

Devoluções

Um objeto dataset.

Tipo de retorno

Observações

Utilize este método para converter um dataframe pandas num objeto dataset. Um Conjunto de Dados criado por este método não pode ser registado, uma vez que os dados são da memória.

Se in_memory for falso, o DataFrame pandas é convertido para um ficheiro CSV localmente. Se pat for do tipo DataReference, então a moldura pandas será carregada para a loja de dados, e o Conjunto de Dados será baseado na DataReference. Se '''path' for uma pasta local, o Conjunto de Dados será criado a partir do ficheiro local que não pode ser eliminado.

Aumenta uma exceção se a atual DataReference não for um caminho de pasta.

from_parquet_files

Crie um conjunto de dados não registado e na memória a partir de ficheiros parquet.

Nota

Este método é precotado e deixará de ser apoiado.

Recomenda-se a utilização Dataset.Tabular.from_parquet_files. Para obter mais informações, veja https://aka.ms/dataset-deprecation.

from_parquet_files(path, include_path=False, partition_format=None)

Parâmetros

path
DataReference ou <xref:str>

Um caminho de dados numa datastore registada ou num caminho local.

include_path
<xref:bool>

Se incluir uma coluna contendo o caminho do ficheiro a partir do qual os dados foram lidos. Isto é útil quando está a ler vários ficheiros e quer saber de que ficheiro um determinado registo teve origem ou para manter informações úteis no caminho do ficheiro.

partition_format
<xref:str>

Especifique o formato de partição no caminho e crie colunas de cordas a partir do formato '{x}' e coluna de data a partir do formato '{x:yyyy/MM/dd/HH/mm/ss}', onde 'yyyy', 'MM', 'dd', 'HH', 'mm' e 's' são usados para extrat ano, mês, dia, hora e segundo para o tipo de data. O formato deve partir-se da posição da primeira chave de partição até ao fim do percurso do ficheiro. Por exemplo, dado um caminho de arquivo.. /Contas/2019/01/01/data.parquet' onde os dados são divididos pelo nome e hora do departamento, podemos definir '/{Department}/{PartitionDate:yyyy/MM/dd}/data.parquet' para criar colunas 'Department' de tipo de corda e 'PartitionDate' do tipo de data.

Devoluções

Objeto de conjunto de dados.

Tipo de retorno

Observações

Utilize este método para ler ficheiros Parquet.

Depois de criar um Conjunto de Dados, deverá utilizar get_profile para listar tipos de colunas detetados e estatísticas sumárias para cada coluna.

O Conjunto de Dados devolvido não está registado no espaço de trabalho.

from_sql_query

Crie um conjunto de dados não registado e na memória a partir de uma consulta SQL.

Nota

Este método é precotado e deixará de ser apoiado.

Recomenda-se a utilização Dataset.Tabular.from_sql_query. Para obter mais informações, veja https://aka.ms/dataset-deprecation.

from_sql_query(data_source, query)

Parâmetros

data_source
AzureSqlDatabaseDatastore

Os detalhes da loja de dados Azure SQL.

query
<xref:str>

A consulta para executar para ler dados.

Devoluções

O objeto do conjunto de dados local.

Tipo de retorno

generate_profile

Gere um novo perfil para o Conjunto de Dados.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

generate_profile(compute_target=None, workspace=None, arguments=None)

Parâmetros

compute_target
<xref:typing.Union>[ComputeTarget, <xref:str>]

Um alvo de computação opcional para realizar a criação de perfil instantâneo. Se omitido, o cálculo local é usado.

workspace
Workspace

Espaço de trabalho, necessário para conjuntos de dados transitórios (não registados).

arguments
<xref:dict>[<xref:str>, <xref:object>]

Argumentos de perfil. Os argumentos válidos são:

  • 'include_stype_counts' do tipo bool. Verifique se os valores se parecem com alguns tipos semânticos bem conhecidos, tais como endereço de e-mail, endereço IP (V4/V6), número de telefone dos EUA, zipcode dos EUA, Latitude/Longitude. Permitir isto tem impacto no desempenho.

  • 'number_of_histogram_bins' de tipo int. Representa o número de caixas de histograma para usar para dados numéricos. O valor predefinido é 10.

Devoluções

Objeto de execução do conjunto de dados.

Tipo de retorno

Observações

Chamada sincronizada, bloqueará até completar. Ligue get_result para obter o resultado da ação.

get

Obtenha um Conjunto de Dados que já exista no espaço de trabalho especificando o seu nome ou ID.

Nota

Este método é precotado e deixará de ser apoiado.

Recomendar a utilização get_by_name get_by_id e, em vez disso. Para obter mais informações, veja https://aka.ms/dataset-deprecation.

get(workspace, name=None, id=None)

Parâmetros

workspace
Workspace

O espaço de trabalho AzureML existente no qual o Dataset foi criado.

name
<xref:str>

O nome do Conjunto de Dados a ser recuperado.

id
<xref:str>

Um identificador único do Dataset no espaço de trabalho.

Devoluções

O Conjunto de Dados com o nome especificado ou ID.

Tipo de retorno

Observações

Pode providenciar name id ou. Uma exceção é levantada se:

  • ambos name e id são especificados, mas não correspondem.

  • o Conjunto de Dados com o especificado name ou não pode ser encontrado no espaço de id trabalho.

get_all

Obtenha todos os conjuntos de dados registados no espaço de trabalho.

get_all(workspace)

Parâmetros

workspace
Workspace

O espaço de trabalho AzureML existente no qual os Datasets foram registados.

Devoluções

Um dicionário de objetos TabularDataset e FileDataset com o seu nome de registo.

Tipo de retorno

<xref:dict>[<xref:str>, <xref:typing.Union>[TabularDataset, FileDataset]]

get_all_snapshots

Obtenha todas as fotos do Conjunto de Dados.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

get_all_snapshots()

Devoluções

Lista de instantâneos do Dataset.

Tipo de retorno

get_by_id

Obtenha um Conjunto de Dados que é guardado no espaço de trabalho.

get_by_id(workspace, id)

Parâmetros

workspace
Workspace

O espaço de trabalho AzureML existente no qual o Conjunto de Dados é guardado.

id
<xref:str>

O id do conjunto de dados.

Devoluções

O objeto do conjunto de dados. Se o conjunto de dados estiver registado, o seu nome de registo e versão também serão devolvidos.

Tipo de retorno

<xref:typing.Union>[TabularDataset, FileDataset]

get_by_name

Obtenha um Conjunto de Dados registado do espaço de trabalho pelo seu nome de registo.

get_by_name(workspace, name, version='latest')

Parâmetros

workspace
Workspace

O espaço de trabalho AzureML existente no qual o Dataset foi registado.

name
<xref:str>

O nome de registo.

version
<xref:int>

A versão de registo. Predefinições para 'o mais recente'.

Devoluções

O objeto de conjunto de dados registado.

Tipo de retorno

<xref:typing.Union>[TabularDataset, FileDataset]

get_definition

Obtenha uma definição específica do Conjunto de Dados.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

get_definition(version_id=None)

Parâmetros

version_id
<xref:str>

O ID da versão da definição dataset

Devoluções

A definição do Conjunto de Dados.

Tipo de retorno

Observações

Se version_id for fornecida, então a Azure Machine Learning tenta obter a definição correspondente a essa versão. Se esta versão não existir, é lançada uma exceção. Se version_id for omitida, a versão mais recente é recuperada.

get_definitions

Obtenha todas as definições do Conjunto de Dados.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

get_definitions()

Devoluções

Um dicionário de definições de Dataset.

Tipo de retorno

<xref:dict>[<xref:str>, DatasetDefinition]

Observações

Um Conjunto de Dados registado num espaço de trabalho AzureML pode ter múltiplas definições, cada uma criada por chamada update_definition . Cada definição tem um identificador único. A definição atual é a mais recente criada.

Para conjuntos de dados não registados, existe apenas uma definição.

get_profile

Obtenha estatísticas sumárias sobre o Conjunto de Dados calculados anteriormente.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

get_profile(arguments=None, generate_if_not_exist=True, workspace=None, compute_target=None)

Parâmetros

arguments
<xref:dict>[<xref:str>, <xref:object>]

Argumentos de perfil.

generate_if_not_exist
<xref:bool>

Indica se deve gerar um perfil se não existir.

workspace
Workspace

Espaço de trabalho, necessário para conjuntos de dados transitórios (não registados).

compute_target
<xref:typing.Union>[ComputeTarget, <xref:str>]

Um alvo de cálculo para executar a ação de perfil.

Devoluções

DataProfile do Conjunto de Dados.

Tipo de retorno

Observações

Para um Conjunto de Dados registado com um espaço de trabalho Azure Machine Learning, este método recupera um perfil existente que foi criado anteriormente, ligando get_profile se ainda é válido. Os perfis são invalidados quando os dados alterados são detetados no Conjunto de Dados ou os argumentos get_profile para serem diferentes dos utilizados quando o perfil foi gerado. Se o perfil não estiver presente ou invalidado, generate_if_not_exist determinará se um novo perfil é gerado.

Para um Conjunto de Dados que não esteja registado num espaço de trabalho Azure Machine Learning, este método corre sempre generate_profile e devolve o resultado.

get_snapshot

Obtenha uma foto do Conjunto de Dados pelo nome.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

get_snapshot(snapshot_name)

Parâmetros

snapshot_name
<xref:str>

O nome do instantâneo.

Devoluções

Objeto instantâneo do conjunto de dados.

Tipo de retorno

head

Retire o número especificado de registos especificados neste Conjunto de Dados e devolva-os como DataFrame.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

head(count)

Parâmetros

count
<xref:int>

O número de registos a puxar.

Devoluções

Um DataFrame pandas.

Tipo de retorno

list

Listar todos os Conjuntos de Dados no espaço de trabalho, incluindo os que têm is_visible propriedade igual a Falso.

Nota

Este método é precotado e deixará de ser apoiado.

Recomenda-se a get_all utilização. Para obter mais informações, veja https://aka.ms/dataset-deprecation.

list(workspace)

Parâmetros

workspace
Workspace

O espaço de trabalho para o qual pretende recuperar a lista de Conjuntos de Dados.

Devoluções

Uma lista de objetos do Dataset.

Tipo de retorno

reactivate

Reativar um conjunto de dados arquivado ou precotado.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

reactivate()

Devoluções

Nenhum.

Tipo de retorno

<xref:None>

register

Registe o Conjunto de Dados no espaço de trabalho, disponibilizando-o a outros utilizadores do espaço de trabalho.

Nota

Este método é precotado e deixará de ser apoiado.

Recomenda-se a register utilização. Para obter mais informações, veja https://aka.ms/dataset-deprecation.

register(workspace, name, description=None, tags=None, visible=True, exist_ok=False, update_if_exist=False)

Parâmetros

workspace
Workspace

O espaço de trabalho AzureML no qual o Dataset deve ser registado.

name
<xref:str>

O nome do Dataset no espaço de trabalho.

description
<xref:str>

Uma descrição do Conjunto de Dados.

tags
<xref:dict>[<xref:str>, <xref:str>]

Etiquetas para associar ao Conjunto de Dados.

visible
<xref:bool>

Indica se o Conjunto de Dados é visível na UI. Se for falso, então o Conjunto de Dados está escondido na UI e disponível via SDK.

exist_ok
<xref:bool>

Se For verdade, o método devolve o Conjunto de Dados se já existe no espaço de trabalho, caso contrário, erro.

update_if_exist
<xref:bool>

Se exist_ok for verdadeiro e update_if_exist verdadeiro, este método atualizará a definição e devolverá o Conjunto de Dados atualizado.

Devoluções

Um objeto dataset registado no espaço de trabalho.

Tipo de retorno

sample

Gere uma nova amostra a partir do conjunto de dados de origem, utilizando a estratégia de amostragem e os parâmetros fornecidos.

Nota

Este método é precotado e deixará de ser apoiado.

Crie um TabularDataset chamando os métodos estáticos em Dataset.Tabular e use o take_sample método lá. Para obter mais informações, veja https://aka.ms/dataset-deprecation.

sample(sample_strategy, arguments)

Parâmetros

sample_strategy
<xref:str>

Estratégia de amostra para usar. Os valores aceites são "top_n", "simple_random", ou "estratificado".

arguments
<xref:dict>[<xref:str>, <xref:object>]

Um dicionário com teclas do "argumento opcional" na lista acima mostrada, e valores da coluna "Tipo" tye. Só podem ser utilizados argumentos do método de amostragem correspondente. Por exemplo, para um tipo de amostra "simple_random", só é possível especificar um dicionário com teclas de "probabilidade" e "semente".

Devoluções

Objeto de conjunto de dados como uma amostra do conjunto de dados original.

Tipo de retorno

Observações

As amostras são geradas executando o pipeline de transformação definido por este Conjunto de Dados e, em seguida, aplicando a estratégia de amostragem e parâmetros aos dados de saída. Cada método de amostragem suporta os seguintes argumentos opcionais:

  • top_n

    • Argumentos opcionais

      • n, tipo inteiro. Selecione as linhas N superiores como a sua amostra.
  • simple_random

    • Argumentos opcionais

      • probabilidade, tipo flutuar. Amostragem aleatória simples onde cada linha tem a mesma probabilidade de ser selecionada. Probabilidade deve ser um número entre 0 e 1.

      • semente, tipo flutuar. Usado por gerador de números aleatórios. Utilize para a repetibilidade.

  • estratificada

    • Argumentos opcionais

      • colunas, lista de tipo[str]. Lista de colunas de estratos nos dados.

      • semente, tipo flutuar. Usado por gerador de números aleatórios. Utilize para a repetibilidade.

      • frações, tipo dict[tuple, flutuar]. Tuple: valores de coluna que definem um estrato, devem estar na mesma ordem que os nomes das colunas. Boia: peso ligado a um estrato durante a amostragem.

Os seguintes fragmentos de código são padrões de design de exemplo para diferentes métodos de amostra.


   # sample_strategy "top_n"
   top_n_sample_dataset = dataset.sample('top_n', {'n': 5})

   # sample_strategy "simple_random"
   simple_random_sample_dataset = dataset.sample('simple_random', {'probability': 0.3, 'seed': 10.2})

   # sample_strategy "stratified"
   fractions = {}
   fractions[('THEFT',)] = 0.5
   fractions[('DECEPTIVE PRACTICE',)] = 0.2

   # take 50% of records with "Primary Type" as THEFT and 20% of records with "Primary Type" as
   # DECEPTIVE PRACTICE into sample Dataset
   sample_dataset = dataset.sample('stratified', {'columns': ['Primary Type'], 'fractions': fractions})

to_pandas_dataframe

Crie um dataframe pandas executando o pipeline de transformação definido por esta definição de Dataset.

Nota

Este método é precotado e deixará de ser apoiado.

Crie um TabularDataset chamando os métodos estáticos em Dataset.Tabular e use o to_pandas_dataframe método lá. Para obter mais informações, veja https://aka.ms/dataset-deprecation.

to_pandas_dataframe()

Devoluções

Um DataFrame pandas.

Tipo de retorno

Observações

Devolva um DataFrame pandas totalmente materializado na memória.

to_spark_dataframe

Crie um DataFrame de faísca que possa executar o pipeline de transformação definido por esta definição de Dataset.

Nota

Este método é precotado e deixará de ser apoiado.

Crie um TabularDataset chamando os métodos estáticos em Dataset.Tabular e use o to_spark_dataframe método lá. Para obter mais informações, veja https://aka.ms/dataset-deprecation.

to_spark_dataframe()

Devoluções

Um DataFrame de Faísca.

Tipo de retorno

Observações

O Dataframe Spark devolvido é apenas um plano de execução e não contém realmente quaisquer dados, uma vez que os Dataframes de Faísca são avaliados preguiçosamente.

update

Atualize os atributos mutáveis do Dataset no espaço de trabalho e devolva o Conjunto de Dados atualizado do espaço de trabalho.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

update(name=None, description=None, tags=None, visible=None)

Parâmetros

name
<xref:str>

O nome do Dataset no espaço de trabalho.

description
<xref:str>

Uma descrição dos dados.

tags
<xref:dict>[<xref:str>, <xref:str>]

Etiquetas para associar o Dataset com.

visible
<xref:bool>

Indica se o Conjunto de Dados é visível na UI.

Devoluções

Um objeto dataset atualizado do espaço de trabalho.

Tipo de retorno

update_definition

Atualize a definição do Conjunto de Dados.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

update_definition(definition, definition_update_message)

Parâmetros

definition
DatasetDefinition

A nova definição deste Conjunto de Dados.

definition_update_message
<xref:str>

A mensagem de atualização de definição.

Devoluções

Um objeto dataset atualizado do espaço de trabalho.

Tipo de retorno

Observações

Para consumir o Conjunto de Dados atualizado, utilize o objeto devolvido por este método.

Atributos

definition

Devolva a definição atual do Conjunto de Dados.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

Devoluções

A definição do Conjunto de Dados.

Tipo de retorno

Observações

Uma definição de Dataset é uma série de passos que especificam como ler e transformar dados.

Um Conjunto de Dados registado num espaço de trabalho AzureML pode ter múltiplas definições, cada uma criada por chamada update_definition . Cada definição tem um identificador único. Ter múltiplas definições permite-lhe fazer alterações nos Conjuntos de Dados existentes sem quebrar modelos e oleodutos que dependem da definição mais antiga.

Para conjuntos de dados não registados, existe apenas uma definição.

definition_version

Devolva a versão da definição atual do Conjunto de Dados.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

Devoluções

A versão de definição dataset.

Tipo de retorno

<xref:str>

Observações

Uma definição de Dataset é uma série de passos que especificam como ler e transformar dados.

Um Conjunto de Dados registado num espaço de trabalho AzureML pode ter múltiplas definições, cada uma criada por chamada update_definition . Cada definição tem um identificador único. A definição atual é a mais recente criada, cujo ID é devolvido por este.

Para conjuntos de dados não registados, existe apenas uma definição.

description

Devolva a descrição do Conjunto de Dados.

Devoluções

A descrição do Dataset.

Tipo de retorno

<xref:str>

Observações

Especificar uma descrição dos dados no Conjunto de Dados permite que os utilizadores do espaço de trabalho compreendam o que os dados representam e como podem utilizá-lo.

id

Se o Conjunto de Dados foi registado num espaço de trabalho, devolva o ID do Conjunto de Dados. Caso contrário, devolva Nenhum.

Devoluções

O conjunto de dados.

Tipo de retorno

<xref:str>

is_visible

Controle a visibilidade de um Conjunto de Dados registado na UI do espaço de trabalho Azure ML.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

Devoluções

A visibilidade do Dataset.

Tipo de retorno

<xref:bool>

Observações

Valores devolvidos:

  • Verdade: O conjunto de dados é visível na UI do espaço de trabalho. Predefinição.

  • Falso: O conjunto de dados está escondido na UI do espaço de trabalho.

Não tem qualquer efeito nos conjuntos de dados não registados.

name

Devolva o nome dataset.

Devoluções

O nome Dataset.

Tipo de retorno

<xref:str>

state

Devolva o estado do Conjunto de Dados.

Nota

Este método é precotado e deixará de ser apoiado.

Para obter mais informações, veja https://aka.ms/dataset-deprecation.

Devoluções

O estado do Dataset.

Tipo de retorno

<xref:str>

Observações

O significado e o efeito dos Estados são os seguintes:

  • Ativo. Definições ativas são exatamente o que parecem, todas as ações podem ser realizadas em definições ativas.

  • Preterido. a definição precotada pode ser usada, mas resultará em um aviso sendo registado nos registos sempre que os dados subjacentes são acedidos.

  • Arquivado. Uma definição arquivada não pode ser usada para realizar qualquer ação. Para realizar ações numa definição arquivada, deve ser reativada.

tags

Devolva as etiquetas associadas ao Conjunto de Dados.

Devoluções

Etiquetas de conjunto de dados.

Tipo de retorno

<xref:dict>[<xref:str>, <xref:str>]

workspace

Se o Dataset foi registado num espaço de trabalho, devolva-o. Caso contrário, devolva Nenhum.

Devoluções

O espaço de trabalho.

Tipo de retorno