Importar os dados de treinamento para o Azure Machine Learning Studio de diferentes fontes de dadosImport your training data into Azure Machine Learning Studio from various data sources

Para usar seus próprios dados no Machine Learning Studio para desenvolver e treinar uma solução de análise preditiva, você pode usar dados de:To use your own data in Machine Learning Studio to develop and train a predictive analytics solution, you can use data from:

  • Arquivo local – carregue dados locais antecipadamente do disco rígido para criar um módulo de conjunto de dados em seu workspaceLocal file - Load local data ahead of time from your hard drive to create a dataset module in your workspace
  • Fontes de dados online – use o módulo Importar Dados para acessar dados de uma das várias fontes online durante a execução do experimentoOnline data sources - Use the Import Data module to access data from one of several online sources while your experiment is running
  • Experimento do Machine Learning Studio – use os dados que foram salvos como um conjunto de dados no Machine Learning StudioMachine Learning Studio experiment - Use data that was saved as a dataset in Machine Learning Studio
  • Banco de dados do SQL Server local - Use dados de um banco de dados do SQL Server local sem ter que copiar dados manualmenteOn-premises SQL Server database - Use data from an on-premises SQL Server database without having to copy data manually

Observação

Há diversos conjuntos de dados de exemplo disponíveis no Machine Learning Studio que você pode usar para treinamento de dados.There are a number of sample datasets available in Machine Learning Studio that you can use for training data. Para obter informações sobre eles, confira Usar os conjuntos de dados de exemplo no Azure Machine Learning Studio.For information on these, see Use the sample datasets in Azure Machine Learning Studio.

Preparar dadosPrepare data

O Machine Learning Studio foi criado para trabalhar com dados tabulares ou retangulares, como dados de texto delimitados ou dados estruturados de um banco de dados, embora em algumas circunstâncias seja possível usar dados não retangulares.Machine Learning Studio is designed to work with rectangular or tabular data, such as text data that's delimited or structured data from a database, though in some circumstances non-rectangular data may be used.

Será melhor se os dados estiverem relativamente limpos antes de serem importados para o Studio.It's best if your data is relatively clean before you import it into Studio. Por exemplo, você desejará resolver problemas como cadeias de caracteres sem aspas.For example, you'll want to take care of issues such as unquoted strings.

No entanto, há módulos disponíveis no Studio que permitem fazer alguma manipulação de dados no experimento após a importação dos dados.However, there are modules available in Studio that enable some manipulation of data within your experiment after you import your data. Dependendo dos algoritmos de aprendizado de máquina que for usar, talvez seja necessário decidir como você lidará com problemas estruturais dos dados, como valores ausentes e dados esparsos, e há módulos que podem ajudar com isso.Depending on the machine learning algorithms you'll be using, you may need to decide how you'll handle data structural issues such as missing values and sparse data, and there are modules that can help with that. Veja a seção Transformação de Dados da paleta de módulos para ver os módulos que executam essas funções.Look in the Data Transformation section of the module palette for modules that perform these functions.

A qualquer altura do experimento, você poderá exibir ou baixar os dados produzidos por um módulo clicando na porta de saída.At any point in your experiment, you can view or download the data that's produced by a module by clicking the output port. Dependendo do módulo, poderá haver opções de download diferentes disponíveis ou a possibilidade de visualizar os dados no navegador da Web no Studio.Depending on the module, there may be different download options available, or you may be able to visualize the data within your web browser in Studio.

Formatos e tipos de dados compatíveisSupported data formats and data types

Você pode importar vários tipos de dados para seu experimento, dependendo de qual mecanismo usar para importar os dados e de onde eles estão vindo:You can import a number of data types into your experiment, depending on what mechanism you use to import data and where it's coming from:

  • Texto sem formatação (.txt)Plain text (.txt)
  • Valores separados por vírgulas (CSV) com cabeçalho (.csv) ou sem (.nh.csv)Comma-separated values (CSV) with a header (.csv) or without (.nh.csv)
  • Valores separados por tabulação (TSV) com cabeçalho (.tsv) ou sem (.nh.tsv)Tab-separated values (TSV) with a header (.tsv) or without (.nh.tsv)
  • Arquivo do ExcelExcel file
  • Tabela do AzureAzure table
  • Tabela do HiveHive table
  • Tabela de Banco de Dados SQLSQL database table
  • Valores de ODataOData values
  • Dados SVMLight (.svmlight) (consulte a definição de SVMLight para obter informações sobre o formato)SVMLight data (.svmlight) (see the SVMLight definition for format information)
  • Attribute Relation File Format (ARFF) (.arff) (consulte a definição de ARFF para obter informações sobre o formato)Attribute Relation File Format (ARFF) data (.arff) (see the ARFF definition for format information)
  • Arquivo zip (.zip)Zip file (.zip)
  • Arquivo de workspace ou objeto R (.RData)R object or workspace file (.RData)

Se você importar os dados em um formato como ARFF, que inclui metadados, o Studio usará esses metadados para definir o cabeçalho e o tipo de dados de cada coluna.If you import data in a format such as ARFF that includes metadata, Studio uses this metadata to define the heading and data type of each column.

Se você importar os dados em um formato como TSV ou CSV, que não incluem esses metadados, o Studio inferirá o tipo de dados de cada coluna por amostragem dos dados.If you import data such as TSV or CSV format that doesn't include this metadata, Studio infers the data type for each column by sampling the data. Se os dados também não tiverem títulos de coluna, o Studio fornecerá nomes padrão.If the data also doesn't have column headings, Studio provides default names.

Você pode especificar explicitamente ou alterar os cabeçalhos e tipos de dados das colunas usando o módulo Editar Metadados.You can explicitly specify or change the headings and data types for columns using the Edit Metadata module.

Os seguintes tipos de dados são reconhecidos pelo Studio:The following data types are recognized by Studio:

  • Cadeia de caracteresString
  • Número inteiroInteger
  • DoubleDouble
  • BooleanBoolean
  • DateTimeDateTime
  • TimeSpanTimeSpan

O Studio usa um tipo de dados interno chamado tabela de dados para passar dados entre módulos.Studio uses an internal data type called data table to pass data between modules. Você pode converter explicitamente os dados no formato de tabela de dados usando o módulo Converter em Conjunto de Dados.You can explicitly convert your data into data table format using the Convert to Dataset module.

Qualquer módulo que aceite formatos que não sejam a tabela de dados converterá os dados para a tabela de dados silenciosamente antes de passá-los para o próximo módulo.Any module that accepts formats other than data table will convert the data to data table silently before passing it to the next module.

Se necessário, você poderá converter o formato de tabela de dados novamente no formato CSV, TSV, ARFF ou SVMLight usando outros módulos de conversão.If necessary, you can convert data table format back into CSV, TSV, ARFF, or SVMLight format using other conversion modules. Veja a seção Conversões de Formato de Dados da paleta de módulos para ver os módulos que executam essas funções.Look in the Data Format Conversions section of the module palette for modules that perform these functions.

Capacidades de dadosData capacities

Os módulos do Machine Learning Studio dão suporte a conjuntos de dados com até 10 GB de dados numéricos densos para casos de uso comuns.Modules in Machine Learning Studio support datasets of up to 10 GB of dense numerical data for common use cases. Se um módulo receber mais de uma entrada, o valor de 10 GB será o total dos tamanhos das entradas.If a module takes more than one input, the 10 GB value is the total of all input sizes. Você pode conjuntos de dados de exemplo maiores usando consultas do Hive ou de Banco de Dados SQL do Azure ou pode usar o Learning por meio contagens de pré-processamento antes de importar os dados.You can sample larger datasets by using queries from Hive or Azure SQL Database, or you can use Learning by Counts preprocessing before you import the data.

Os seguintes tipos de dados podem ser expandidos para conjuntos de dados maiores durante a normalização de recursos e são limitados a menos de 10 GB:The following types of data can expand to larger datasets during feature normalization and are limited to less than 10 GB:

  • EsparsosSparse
  • CategóricosCategorical
  • Cadeias de caracteresStrings
  • Dados bináriosBinary data

Os seguintes módulos são limitados a conjuntos de dados com menos de 10 GB:The following modules are limited to datasets less than 10 GB:

  • Módulos de recomendaçãoRecommender modules
  • Módulo SMOTE (Técnica de Sobreamostragem Minoritária Sintética)Synthetic Minority Oversampling Technique (SMOTE) module
  • Módulos de script: R, Python, SQLScripting modules: R, Python, SQL
  • Módulos em que o tamanho dos dados de saída pode ser maior que o tamanho dos dados de entrada, como Join ou Feature HashingModules where the output data size can be larger than input data size, such as Join or Feature Hashing
  • Validação cruzada, Hiperparâmetros de Modelo de Ajuste, Regressão Ordinal e Classes Múltiplas, um versos todos, quando o número de iterações é muito grandeCross-validation, Tune Model Hyperparameters, Ordinal Regression, and One-vs-All Multiclass, when the number of iterations is very large

Para conjuntos de dados com mais do que alguns GB, carregue os dados no Armazenamento do Azure ou no Banco de Dados SQL do Azure ou use o Azure HDInsight, em vez de carregar diretamente de um arquivo local.For datasets that are larger than a couple GBs, upload the data to Azure Storage or Azure SQL Database, or use Azure HDInsight, rather than uploading directly from a local file.

Você pode encontrar informações sobre dados de imagem na referência de módulo Importar imagens.You can find information about image data in the Import Images module reference.

Importação de um arquivo localImport from a local file

Carregue um arquivo de dados do disco rígido para usá-lo como dados de treinamento no Studio.You can upload a data file from your hard drive to use as training data in Studio. Ao importar um arquivo de dados, você cria um módulo de conjunto de dados pronto para uso nos experimentos em seu workspace.When you import a data file, you create a dataset module ready for use in experiments in your workspace.

Para importar dados de um disco rígido local, faça o seguinte:To import data from a local hard drive, do the following:

  1. Clique em +NOVO na parte inferior da janela do Studio.Click +NEW at the bottom of the Studio window.
  2. Selecione CONJUNTO DE DADOS e DO ARQUIVO LOCAL.Select DATASET and FROM LOCAL FILE.
  3. Na caixa de diálogo Carregar um novo conjunto de dados, procure o arquivo que deseja carregar.In the Upload a new dataset dialog, browse to the file you want to upload.
  4. Digite um nome, identifique o tipo de dados e, opcionalmente, insira uma descrição.Enter a name, identify the data type, and optionally enter a description. Uma descrição é recomendada – ela permite registrar características sobre os dados que você deseja lembrar ao usar os dados no futuro.A description is recommended - it allows you to record any characteristics about the data that you want to remember when using the data in the future.
  5. A caixa de seleção Esta é a nova versão de um conjunto de dados existente permite que você atualize um conjunto de dados existente com novos dados.The checkbox This is the new version of an existing dataset allows you to update an existing dataset with new data. Para fazer isso, clique nessa caixa de seleção e insira o nome de um conjunto de dados existente.To do so, click this checkbox and then enter the name of an existing dataset.

Carregar um novo conjunto de dados

O tempo de upload depende do tamanho dos dados e da velocidade da conexão com o serviço.Upload time depends on the size of your data and the speed of your connection to the service. Se você souber que o arquivo levará muito tempo para ser carregado, você poderá realizar outras tarefas no Studio enquanto aguarda.If you know the file will take a long time, you can do other things inside Studio while you wait. No entanto, o fechamento do navegador antes da conclusão do upload de dados causará uma falha no upload.However, closing the browser before the data upload is complete causes the upload to fail.

Uma vez carregados, seus dados são armazenados em um módulo de conjunto de dados e ficam disponíveis para qualquer experimento em seu workspace.Once your data is uploaded, it's stored in a dataset module and is available to any experiment in your workspace.

Quando estiver editando um experimento, você poderá encontrar os conjuntos de dados carregados na lista Meus Conjuntos de Dados da lista Conjuntos de Dados Salvos na paleta de módulos.When you're editing an experiment, you can find the datasets you've uploaded in the My Datasets list under the Saved Datasets list in the module palette. É possível arrastar e soltar o conjunto de dados na tela de teste quando você desejar usá-lo para outras análises e aprendizado de máquina.You can drag and drop the dataset onto the experiment canvas when you want to use the dataset for further analytics and machine learning.

Importação de fontes de dados onlineImport from online data sources

Usando o módulo Importar Dados módulo, o experimento poderá importar dados de várias fontes de dados online durante a execução.Using the Import Data module, your experiment can import data from various online data sources while the experiment running.

Observação

Este artigo fornece informações gerais sobre o módulo Importar Dados.This article provides general information about the Import Data module. Para obter informações mais detalhadas sobre os tipos de dados que você pode acessar, formatos, parâmetros e respostas a perguntas comuns, consulte o tópico de referência do módulo Importar Dados.For more detailed information about the types of data you can access, formats, parameters, and answers to common questions, see the module reference topic for the Import Data module.

Usando o módulo Importar Dados, você poderá acessar dados de uma das várias fontes de dados online durante a execução do experimento:By using the Import Data module, you can access data from one of several online data sources while your experiment is running:

  • Uma URL da Web usando HTTPA Web URL using HTTP
  • Hadoop usando HiveQLHadoop using HiveQL
  • Armazenamento do blob do AzureAzure blob storage
  • Tabela do AzureAzure table
  • Banco de dados SQL do Azure ou SQL Server na VM do AzureAzure SQL database or SQL Server on Azure VM
  • Banco de dados local do SQL ServerOn-premises SQL Server database
  • Um provedor de feed de dados, atualmente ODataA data feed provider, OData currently
  • Azure Cosmos DBAzure Cosmos DB

Como esses dados de treinamento são acessados durante a execução do experimento, eles só ficam disponíveis nesse experimento.Because this training data is accessed while your experiment is running, it's only available in that experiment. Por comparação, os dados que foram armazenados em um módulo do conjunto de dados ficam disponíveis para todos os experimentos em seu workspace.By comparison, data that has been stored in a dataset module is available to any experiment in your workspace.

Para acessar fontes de dados online no experimento do Studio, adicione o módulo Importar Dados ao experimento.To access online data sources in your Studio experiment, add the Import Data module to your experiment. Em seguida, selecione Iniciar Assistente para Importação de Dados em Propriedades para obter instruções guiadas passo a passo para selecionar e configurar a fonte de dados.Then select Launch Import Data Wizard under Properties for step-by-step guided instructions to select and configure the data source. Como alternativa, você pode selecionar Fonte de dados manualmente em Propriedades e fornecer os parâmetros necessários para acessar os dados.Alternatively, you can manually select Data source under Properties and supply the parameters needed to access the data.

As fontes de dados online com suporte são detalhadas na tabela a seguir.The online data sources that are supported are itemized in the table below. Esta tabela também resume os formatos de arquivo e os parâmetros com suporte usados para acessar os dados.This table also summarizes the file formats that are supported and parameters that are used to access the data.

Importante

Atualmente, os módulos Importar Dados e Exportar Dados podem ler e gravar dados somente no armazenamento do Azure criado usando o modelo de implantação Clássico.Currently, the Import Data and Export Data modules can read and write data only from Azure storage created using the Classic deployment model. Em outras palavras, o novo tipo de conta de Armazenamento de Blobs do Azure que oferece uma camada de acesso de armazenamento dinâmica ou uma camada de acesso de armazenamento estática ainda não é compatível.In other words, the new Azure Blob Storage account type that offers a hot storage access tier or cool storage access tier is not yet supported.

De modo geral, as contas de armazenamento do Azure que você possa ter criado antes de essa opção se tornar disponível não deverão ser afetadas.Generally, any Azure storage accounts that you might have created before this service option became available should not be affected. Se precisar criar uma nova conta, escolha Clássico para o modelo de Implantação, ou use o Gerenciador de Recursos e selecione Objetivo Geral, em vez de Armazenamento de Blobs, para Tipo de conta.If you need to create a new account, select Classic for the Deployment model, or use Resource manager and select General purpose rather than Blob storage for Account kind.

Para obter mais informações, confira Armazenamento de Blobs do Azure: camadas de armazenamento frequente e esporádico.For more information, see Azure Blob Storage: Hot and Cool Storage Tiers.

Fontes de dados online com suporteSupported online data sources

O módulo Importar Dados do Azure Machine Learning Studio é compatível com as seguintes fontes de dados:Azure Machine Learning Studio Import Data module supports the following data sources:

Fonte de dadosData Source DESCRIÇÃODescription parâmetrosParameters
URL da Web via HTTPWeb URL via HTTP Lê dados nos formatos de valores separados por vírgula (CSV), de valores separados por tabulação (TSV), de arquivo de relação de atributo (ARFF) e de Máquinas de Vetores de Suporte (SVM-light), de qualquer URL da Web que use HTTPReads data in comma-separated values (CSV), tab-separated values (TSV), attribute-relation file format (ARFF), and Support Vector Machines (SVM-light) formats, from any web URL that uses HTTP URL: especifica o nome completo do arquivo, incluindo a URL do site e o nome do arquivo com qualquer extensão.URL: Specifies the full name of the file, including the site URL and the file name, with any extension.

Formato de dados: especifica um dos formatos de dados compatíveis: CSV, TSV, ARFF ou SVM-light.Data format: Specifies one of the supported data formats: CSV, TSV, ARFF, or SVM-light. Se os dados tiverem uma linha de cabeçalho, serão usados para atribuir nomes de coluna.If the data has a header row, it is used to assign column names.
Hadoop/HDFSHadoop/HDFS Lê dados do armazenamento distribuído no Hadoop.Reads data from distributed storage in Hadoop. Você especifica os dados desejados usando o HiveQL, uma linguagem de consulta do tipo SQL.You specify the data you want by using HiveQL, a SQL-like query language. O HiveQL também pode ser usado para agregar dados e executar a filtragem deles antes de serem adicionados ao Studio.HiveQL can also be used to aggregate data and perform data filtering before you add the data to Studio. Consulta do banco de dados Hive: especifica a consulta do Hive usada para gerar os dados.Hive database query: Specifies the Hive query used to generate the data.

URI do servidor HCatalog: especifica o nome do cluster usando o formato <nome do seu cluster>.azurehdinsight.net.HCatalog server URI : Specified the name of your cluster using the format <your cluster name>.azurehdinsight.net.

Nome da conta de usuário do Hadoop: especifica o nome da conta de usuário do Hadoop usada para provisionar o cluster.Hadoop user account name: Specifies the Hadoop user account name used to provision the cluster.

Senha da conta de usuário do Hadoop: especifica as credenciais usadas para provisionar o cluster.Hadoop user account password : Specifies the credentials used when provisioning the cluster. Para obter mais informações, veja Criar clusters Hadoop no HDInsight.For more information, see Create Hadoop clusters in HDInsight.

Local dos dados de saída: especifica se os dados são armazenados em um HDFS (Sistema de Arquivos Distribuído Hadoop) ou no Azure.Location of output data: Specifies whether the data is stored in a Hadoop distributed file system (HDFS) or in Azure.
    Se você armazenar dados de saída no HDFS, especifique o URI do servidor HDFS.If you store output data in HDFS, specify the HDFS server URI. (Use o nome do cluster HDInsight sem o prefixo HTTPS://).(Be sure to use the HDInsight cluster name without the HTTPS:// prefix).

    Se você armazenar os dados de saída no Azure, deverá especificar o nome da conta de armazenamento do Azure, a chave de acesso de Armazenamento e o nome do contêiner do Armazenamento.If you store your output data in Azure, you must specify the Azure storage account name, Storage access key and Storage container name.
Banco de dados SQLSQL database Lê os dados armazenados em um banco de dados SQL do Azure ou em um banco de dados do SQL Server em execução em uma máquina virtual do Azure.Reads data that is stored in an Azure SQL database or in a SQL Server database running on an Azure virtual machine. Nome do servidor de banco de dados: especifica o nome do servidor no qual o banco de dados está em execução.Database server name: Specifies the name of the server on which the database is running.
    No caso do Banco de Dados SQL do Azure, insira o nome do servidor gerado.In case of Azure SQL Database enter the server name that is generated. Geralmente, tem o formato <identificador_gerado>.database.windows.net.Typically it has the form <generated_identifier>.database.windows.net.

    No caso de um SQL server hospedado em uma máquina Virtual do Azure, insira tcp:<nome da máquina Virtual DNS>, 1433In case of a SQL server hosted on an Azure Virtual machine enter tcp:<Virtual Machine DNS Name>, 1433

Nome do banco de dados: especifica o nome do banco de dados no servidor.Database name : Specifies the name of the database on the server.

Nome de conta de usuário do servidor: especifica um nome de usuário para uma conta que tenha permissões de acesso para o banco de dados.Server user account name: Specifies a user name for an account that has access permissions for the database.

Senha da conta de usuário do servidor: especifica a senha da conta de usuário.Server user account password: Specifies the password for the user account.

Consulta de banco de dados: insira uma instrução SQL que descreve os dados que você deseja ler.Database query:Enter a SQL statement that describes the data you want to read.
Banco de dados SQL localOn-premises SQL database Lê dados armazenados em um banco de dados SQL local.Reads data that is stored in an on-premises SQL database. Gateway de dados: especifica o nome do gateway de gerenciamento de dados instalado em um computador em que ele possa acessar seu banco de dados do SQL Server.Data gateway: Specifies the name of the Data Management Gateway installed on a computer where it can access your SQL Server database. Para saber mais sobre como configurar o gateway, confira Executar análises avançadas com o Azure Machine Learning Studio usando os dados de um SQL server local.For information about setting up the gateway, see Perform advanced analytics with Azure Machine Learning Studio using data from an on-premises SQL server.

Nome do servidor de banco de dados: especifica o nome do servidor no qual o banco de dados está em execução.Database server name: Specifies the name of the server on which the database is running.

Nome do banco de dados: especifica o nome do banco de dados no servidor.Database name : Specifies the name of the database on the server.

Nome de conta de usuário do servidor: especifica um nome de usuário para uma conta que tenha permissões de acesso para o banco de dados.Server user account name: Specifies a user name for an account that has access permissions for the database.

Nome de usuário e senha: Clique em Inserir valores para inserir suas credenciais de banco de dados.User name and password: Click Enter values to enter your database credentials. Você pode usar a Autenticação Integrada do Windows ou Autenticação do SQL Server dependendo de como o SQL Server local está configurado.You can use Windows Integrated Authentication or SQL Server Authentication depending upon how your on-premises SQL Server is configured.

Consulta de banco de dados: insira uma instrução SQL que descreve os dados que você deseja ler.Database query:Enter a SQL statement that describes the data you want to read.
tabela do AzureAzure Table Lê os dados do serviço Tabela no Armazenamento do Azure.Reads data from the Table service in Azure Storage.

Caso você leia grandes quantidades de dados com pouca frequência, use o serviço Tabela do Azure.If you read large amounts of data infrequently, use the Azure Table Service. Ele fornece uma solução de armazenamento flexível, não relacional (NoSQL), massivamente escalonável, barata e de alta disponibilidade.It provides a flexible, non-relational (NoSQL), massively scalable, inexpensive, and highly available storage solution.
As opções em Importar Dados variam de acordo com o que você está acessando: informações públicas ou uma conta de armazenamento privada que exija credenciais de logon.The options in the Import Data change depending on whether you are accessing public information or a private storage account that requires login credentials. Isso é determinado pelo Tipo de Autenticação, que pode ter um valor "PublicOrSAS" ou "Account", cada um deles com seu próprio conjunto de parâmetros.This is determined by the Authentication Type which can have value of "PublicOrSAS" or "Account", each of which has its own set of parameters.

URI pública ou de SAS (Assinatura de Acesso Compartilhado): Os parâmetros são:Public or Shared Access Signature (SAS) URI: The parameters are:

    URI da tabela: especifica a URL de SAS ou pública da tabela.Table URI: Specifies the Public or SAS URL for the table.

    Especifica as linhas a serem examinadas quanto a nomes de propriedades: os valores são TopN para verificar o número especificado de linhas ou ScanAll para obter todas as linhas na tabela.Specifies the rows to scan for property names: The values are TopN to scan the specified number of rows, or ScanAll to get all rows in the table.

    Se os dados forem homogêneos e previsíveis, é recomendável que você selecione TopN e insira um número para N. No caso de tabelas grandes, isso pode resultar em tempos de leitura mais rápidos.If the data is homogeneous and predictable, it is recommended that you select TopN and enter a number for N. For large tables, this can result in quicker reading times.

    Se os dados são estruturados com conjuntos de propriedades que variam de acordo com a profundidade e a posição na tabela, escolha a opção ScanAll para verificar todas as linhas.If the data is structured with sets of properties that vary based on the depth and position of the table, choose the ScanAll option to scan all rows. Isso garante a integridade da propriedade resultante e da conversão dos metadados.This ensures the integrity of your resulting property and metadata conversion.

Conta de armazenamento privada: Os parâmetros são:Private Storage Account: The parameters are:

    Nome da conta: especifica o nome da conta que contém a tabela a ser lida.Account name: Specifies the name of the account that contains the table to read.

    Chave de conta: especifica a chave de armazenamento associada à conta.Account key: Specifies the storage key associated with the account.

    Nome da tabela: especifica o nome da tabela que contém os dados a serem lidos.Table name : Specifies the name of the table that contains the data to read.

    Linhas a serem examinadas quanto a nomes de propriedades: os valores são TopN para verificar o número especificado de linhas ou ScanAll para obter todas as linhas na tabela.Rows to scan for property names: The values are TopN to scan the specified number of rows, or ScanAll to get all rows in the table.

    Se os dados forem homogêneos e previsíveis, recomendamos que você selecione TopN e insira um número para N. No caso de tabelas grandes, isso pode resultar em tempos de leitura mais rápidos.If the data is homogeneous and predictable, we recommend that you select TopN and enter a number for N. For large tables, this can result in quicker reading times.

    Se os dados são estruturados com conjuntos de propriedades que variam de acordo com a profundidade e a posição na tabela, escolha a opção ScanAll para verificar todas as linhas.If the data is structured with sets of properties that vary based on the depth and position of the table, choose the ScanAll option to scan all rows. Isso garante a integridade da propriedade resultante e da conversão dos metadados.This ensures the integrity of your resulting property and metadata conversion.

Armazenamento do Blobs do AzureAzure Blob Storage Lê os dados armazenados no serviço Blob no Armazenamento do Azure, incluindo imagens, texto não estruturado ou dados binários.Reads data stored in the Blob service in Azure Storage, including images, unstructured text, or binary data.

Você pode usar o serviço Blob para expor dados publicamente ou para armazenar dados de aplicativo de forma privada.You can use the Blob service to publicly expose data, or to privately store application data. Você pode acessar seus dados de qualquer lugar usando as conexões HTTP ou HTTPS.You can access your data from anywhere by using HTTP or HTTPS connections.
As opções no módulo Import Data (Importar Dados) variam de acordo com o que você está acessando: informações públicas ou uma conta de armazenamento privada que exija credenciais de logon.The options in the Import Data module change depending on whether you are accessing public information or a private storage account that requires login credentials. Isso é determinado pelo Tipo de Autenticação, que pode ter um valor "PublicOrSAS" ou "Conta".This is determined by the Authentication Type which can have a value either of "PublicOrSAS" or of "Account".

URI pública ou de SAS (Assinatura de Acesso Compartilhado): Os parâmetros são:Public or Shared Access Signature (SAS) URI: The parameters are:

    URI: especifica a URL de SAS ou Pública do blob de armazenamento.URI: Specifies the Public or SAS URL for the storage blob.

    Formato de arquivo: especifica o formato dos dados no serviço Blob.File Format: Specifies the format of the data in the Blob service. Os formatos com suporte são CSV, TSV e ARFF.The supported formats are CSV, TSV, and ARFF.

Conta de armazenamento privada: Os parâmetros são:Private Storage Account: The parameters are:

    Nome da conta: especifica o nome da conta que contém o blob que você deseja ler.Account name: Specifies the name of the account that contains the blob you want to read.

    Chave de conta: especifica a chave de armazenamento associada à conta.Account key: Specifies the storage key associated with the account.

    Caminho para o contêiner, diretório ou blob: especifica o nome do blob que contém os dados a serem lidos.Path to container, directory, or blob : Specifies the name of the blob that contains the data to read.

    Formato de arquivo do Blob: especifica o formato dos dados no serviço Blob.Blob file format: Specifies the format of the data in the blob service. Os formatos de dados com suporte são CSV, TSV, ARFF, CSV com uma codificação especificada e o Excel.The supported data formats are CSV, TSV, ARFF, CSV with a specified encoding, and Excel.

      Se o formato for CSV ou TSV, não deixe de indicar se o arquivo contém uma linha de cabeçalho.If the format is CSV or TSV, be sure to indicate whether the file contains a header row.

      Você pode usar a opção do Excel para ler dados de pastas de trabalho do Excel.You can use the Excel option to read data from Excel workbooks. Na opção formato de dados do Excel, indique se os dados estão em um intervalo de planilha do Excel ou em uma tabela do Excel.In the Excel data format option, indicate whether the data is in an Excel worksheet range, or in an Excel table. Na opção planilha do Excel ou tabela inserida, especifique o nome da planilha ou da tabela que você deseja ler.In the Excel sheet or embedded table option, specify the name of the sheet or table that you want to read from.

Provedor de feed de dadosData Feed Provider Lê dados de um provedor de feeds com suporte.Reads data from a supported feed provider. Atualmente, somente o formato OData (Open Data Protocol) tem suporte.Currently only the Open Data Protocol (OData) format is supported. Tipo de conteúdo de dados: especifica o formato OData.Data content type: Specifies the OData format.

URL de origem: especifica a URL completa dos feed de dados.Source URL: Specifies the full URL for the data feed.
Por exemplo, a URL a seguir lê a partir do banco de dados de exemplo Northwind: https://services.odata.org/northwind/northwind.svc/For example, the following URL reads from the Northwind sample database: https://services.odata.org/northwind/northwind.svc/

Importação de outro experimentoImport from another experiment

Haverá momentos em que você desejará usar o resultado intermediário de um teste como parte de outro teste.There will be times when you'll want to take an intermediate result from one experiment and use it as part of another experiment. Para fazer isso, salve o módulo como um conjunto de dados:To do this, you save the module as a dataset:

  1. Clique na saída do módulo que você deseja salvar como um conjunto de dados.Click the output of the module that you want to save as a dataset.
  2. Clique em Salvar como Conjunto de Dados.Click Save as Dataset.
  3. Quando solicitado, insira um nome e uma descrição que permitiriam identificar o conjunto de dados facilmente.When prompted, enter a name and a description that would allow you to identify the dataset easily.
  4. Clique na marca de seleção OK .Click the OK checkmark.

Quando o salvamento for concluído, o conjunto de dados ficará disponível para uso em qualquer experimento do seu workspace.When the save finishes, the dataset will be available for use within any experiment in your workspace. Você pode encontrá-lo na lista Conjuntos de Dados Salvos na paleta de módulos.You can find it in the Saved Datasets list in the module palette.

Próximas etapasNext steps

Implantando os serviços Web do Azure Machine Learning Studio que usam os módulos Importar Dados e Exportar DadosDeploying Azure Machine Learning studio web services that use Data Import and Data Export modules