さまざまなデータ ソースから Azure Machine Learning Studio (クラシック) にトレーニング データをインポートするImport your training data into Azure Machine Learning Studio (classic) from various data sources

Machine Learning Studio (クラシック) で独自のデータを使用して予測分析ソリューションを開発し、トレーニングする場合、次の場所のデータを使用できます。To use your own data in Machine Learning Studio (classic) to develop and train a predictive analytics solution, you can use data from:

  • ローカル ファイル - 事前にハード ドライブからローカル データを読み込み、ワークスペースにデータセット モジュールを作成しますLocal file - Load local data ahead of time from your hard drive to create a dataset module in your workspace
  • オンライン データ ソース - データのインポート モジュールを使用して、実験を実行している間に、いずれかのオンライン ソースのデータにアクセスしますOnline data sources - Use the Import Data module to access data from one of several online sources while your experiment is running
  • Machine Learning Studio (クラシック) の実験 - クラシック バージョンの Machine Learning Studio にデータセットとして保存されたデータを使用しますMachine Learning Studio (classic) experiment - Use data that was saved as a dataset in the classic version of Machine Learning Studio
  • オンプレミスの SQL Server データベース - 手動でデータをコピーする必要なく、オンプレミスの SQL Server データベースのデータを使用しますOn-premises SQL Server database - Use data from an on-premises SQL Server database without having to copy data manually

注意

クラシック バージョンの Machine Learning Studio には、トレーニング データで使用できるさまざまなサンプル データセットが用意されています。There are a number of sample datasets available in the classic version of Machine Learning Studio that you can use for training data. 詳細については、「Azure Machine Learning Studio (クラシック) におけるサンプル データセットの使用」を参照してください。For information on these, see Use the sample datasets in Azure Machine Learning Studio (classic).

データを準備するPrepare data

クラシック バージョンの Machine Learning Studio は、区切られたテキスト データやデータベースからの構造化されたデータなど、四角形のデータや表形式のデータで作業するように設計されています。場合によっては、四角形以外のデータが使用されることもあります。The classic version of Machine Learning Studio is designed to work with rectangular or tabular data, such as text data that's delimited or structured data from a database, though in some circumstances non-rectangular data may be used.

クラシック バージョンの Studio にインポートする前に、比較的クリーンなデータを用意することをお勧めします。It's best if your data is relatively clean before you import it into the classic version of Studio. たとえば、引用符で囲まれていない文字列などの問題に対処します。For example, you'll want to take care of issues such as unquoted strings.

ただし、クラシック バージョンの Studio には、データをインポートした後に実験内でデータを操作できるモジュールが用意されています。However, there are modules available in the classic version of Studio that enable some manipulation of data within your experiment after you import your data. 使用する機械学習アルゴリズムに応じて、値の欠落やスパース データなどのデータ構造上の問題を処理する際に、その対処方法を決定する必要があります。そのような場合に、これらのモジュールが役に立ちます。Depending on the machine learning algorithms you'll be using, you may need to decide how you'll handle data structural issues such as missing values and sparse data, and there are modules that can help with that. これらの関数を実行するモジュールは、モジュール パレットの [Data Transformation] セクションで確認します。Look in the Data Transformation section of the module palette for modules that perform these functions.

実験中は、出力ポートをクリックすることで、モジュールで生成されたデータをいつでも表示またはダウンロードできます。At any point in your experiment, you can view or download the data that's produced by a module by clicking the output port. モジュールによっては、使用可能なダウンロードのオプションが異なる場合があります。また、Web ブラウザーのデータをクラシック バージョンの Studio で視覚化できる場合もあります。Depending on the module, there may be different download options available, or you may be able to visualize the data within your web browser in the classic version of Studio.

サポートされるデータ形式とデータ型Supported data formats and data types

データのインポートに使用するメカニズムや、データの送信元に応じて、さまざまなデータ型を実験にインポートできます。You can import a number of data types into your experiment, depending on what mechanism you use to import data and where it's coming from:

  • プレーン テキスト (.txt)Plain text (.txt)
  • コンマ区切り値 (CSV) - ヘッダー付き (.csv) またはヘッダーなし (.nh.csv)Comma-separated values (CSV) with a header (.csv) or without (.nh.csv)
  • タブ区切り値 (TSV) - ヘッダー付き (.tsv) またはヘッダーなし (.nh.tsv)Tab-separated values (TSV) with a header (.tsv) or without (.nh.tsv)
  • Excel ファイルExcel file
  • Azure テーブルAzure table
  • Hive テーブルHive table
  • SQL データベース テーブルSQL database table
  • OData 値OData values
  • SVMLight データ (.svmlight) (形式の詳細については、「 SVMLight の定義 」をご覧ください)。SVMLight data (.svmlight) (see the SVMLight definition for format information)
  • 属性関係ファイル形式 (ARFF) データ (.arff) (「 ARFF の定義 」をご覧ください)。Attribute Relation File Format (ARFF) data (.arff) (see the ARFF definition for format information)
  • Zip ファイル (.zip)Zip file (.zip)
  • R オブジェクトまたはワークスペース ファイル (.RData)R object or workspace file (.RData)

メタデータを含む ARFF などの形式でデータをインポートする場合、クラシック バージョンの Studio はこのメタデータを使用して各列の見出しとデータ型を定義します。If you import data in a format such as ARFF that includes metadata, the classic version of Studio uses this metadata to define the heading and data type of each column.

このメタデータが含まれていない TSV や CSV 形式などのデータをインポートする場合、クラシック バージョンの Studio は、データをサンプリングすることによって、各列のデータ型を推論します。If you import data such as TSV or CSV format that doesn't include this metadata, the classic version of Studio infers the data type for each column by sampling the data. また、データに列見出しがない場合、クラシック バージョンの Studio は既定の名前を提供します。If the data also doesn't have column headings, the classic version of Studio provides default names.

メタデータの編集 モジュールを使用して、列の見出しやデータ型を明示的に指定または変更できます。You can explicitly specify or change the headings and data types for columns using the Edit Metadata module.

次のデータ型は、クラシック バージョンの Studio によって認識されます。The following data types are recognized by the classic version of Studio:

  • stringString
  • 整数Integer
  • DoubleDouble
  • BooleanBoolean
  • DateTimeDateTime
  • TimeSpanTimeSpan

Studio はデータ テーブルと呼ばれる内部データ型を使用し、モジュール間でデータを渡します。Studio uses an internal data type called data table to pass data between modules. データセットへの変換モジュールを使用して、データ テーブル形式にデータを明示的に変換できます。You can explicitly convert your data into data table format using the Convert to Dataset module.

データ テーブル以外の形式を受け取るどのモジュールでも、次のモジュールに渡す前に、サイレント モードでデータをデータ テーブルに変換します。Any module that accepts formats other than data table will convert the data to data table silently before passing it to the next module.

必要に応じて、その他の変換モジュールを使用して CSV、TSV、ARFF、SVMLight 形式にデータ テーブル形式をもう一度変換できます。If necessary, you can convert data table format back into CSV, TSV, ARFF, or SVMLight format using other conversion modules. これらの関数を実行するモジュールについては、モジュール パレットの [Data Format Conversions] セクションを確認してください。Look in the Data Format Conversions section of the module palette for modules that perform these functions.

データ容量Data capacities

クラシック バージョンの Machine Learning Studio のモジュールは、一般的に、最大 10 GB の高密度数値データのデータセットをサポートしています。Modules in the classic version of Machine Learning Studio support datasets of up to 10 GB of dense numerical data for common use cases. モジュールが 1 つ以上の入力を受け取る場合、10 GB という値はすべての入力サイズの合計です。If a module takes more than one input, the 10 GB value is the total of all input sizes. Hive または Azure SQL Database のクエリを使用して、さらに大きなデータセットをサンプリングしたり、データをインポートする前に、前処理としてカウントによる学習を使用したりできます。You can sample larger datasets by using queries from Hive or Azure SQL Database, or you can use Learning by Counts preprocessing before you import the data.

次の種類のデータは、特徴の正規化の際に、より大きなデータセットに展開できますが、10 GB 未満に制限されています。The following types of data can expand to larger datasets during feature normalization and are limited to less than 10 GB:

  • スパースSparse
  • CategoricalCategorical
  • 文字列Strings
  • バイナリ データBinary data

次のモジュールは、10 GB 未満のデータセットに制限されています。The following modules are limited to datasets less than 10 GB:

  • 推奨モジュールRecommender modules
  • Synthetic Minority Oversampling Technique (SMOTE) モジュールSynthetic Minority Oversampling Technique (SMOTE) module
  • スクリプト モジュール:R、Python、SQLScripting modules: R, Python, SQL
  • 出力データ サイズが入力データ サイズを超えるモジュール ("結合"、"特徴ハッシュ" など)Modules where the output data size can be larger than input data size, such as Join or Feature Hashing
  • イテレーションの数が非常に大きい場合のクロス検証、調整モデル ハイパーパラメーター、順序回帰、一対全多クラスCross-validation, Tune Model Hyperparameters, Ordinal Regression, and One-vs-All Multiclass, when the number of iterations is very large

数 GB を超えるデータセットの場合は、ローカル ファイルから直接アップロードするのではなく、Azure Storage または Azure SQL Database にデータをアップロードするか、Azure HDInsight を使用する必要があります。For datasets that are larger than a couple GBs, upload the data to Azure Storage or Azure SQL Database, or use Azure HDInsight, rather than uploading directly from a local file.

画像インポート モジュールのリファレンスで、画像データに関する情報を見つけることができます。You can find information about image data in the Import Images module reference.

ローカル ファイルからインポートするImport from a local file

ハード ドライブからデータ ファイルをアップロードして、クラシック バージョンの Studio でトレーニング データとして使用することができます。You can upload a data file from your hard drive to use as training data in the classic version of Studio. データ ファイルをインポートするときは、ワークスペースでの実験に使用する準備のできたデータセット モジュールを作成します。When you import a data file, you create a dataset module ready for use in experiments in your workspace.

ローカル ハード ドライブからデータをインポートするには、次の手順を実行します。To import data from a local hard drive, do the following:

  1. Studio (クラシック) ウィンドウの下部にある [+新規] をクリックします。Click +NEW at the bottom of the Studio (classic) window.
  2. [データセット][FROM LOCAL FILE] を選択します。Select DATASET and FROM LOCAL FILE.
  3. [Upload a new dataset](新しいデータセットのアップロード) ダイアログ ボックスで、アップロードするファイルを参照します。In the Upload a new dataset dialog, browse to the file you want to upload.
  4. 名前を入力し、データ型を指定したら、必要に応じて説明を入力します。Enter a name, identify the data type, and optionally enter a description. データの特徴を記録しておくと、後でデータを使用する際に参照できるため、説明を入力しておくことをお勧めします。A description is recommended - it allows you to record any characteristics about the data that you want to remember when using the data in the future.
  5. チェックボックス [This is the new version of an existing dataset] をオンにしておくことにより、新しいデータで既存のデータセットを更新できます。The checkbox This is the new version of an existing dataset allows you to update an existing dataset with new data. そのためには、このチェック ボックスをクリックし、既存のデータセット名を入力します。To do so, click this checkbox and then enter the name of an existing dataset.

新しいデータセットのアップロード

アップロード時間は、データのサイズと、サービスへの接続速度に依存します。Upload time depends on the size of your data and the speed of your connection to the service. ファイルのアップロードに時間がかかる場合、待機している間にクラシック バージョンの Studio で他の作業も実行できます。If you know the file will take a long time, you can do other things inside the classic version of Studio while you wait. ただし、データのアップロードが完了する前にブラウザーを閉じるとアップロードは失敗します。However, closing the browser before the data upload is complete causes the upload to fail.

データがアップロードされると、データセット モジュールに格納され、ワークスペース内のすべての実験で使用できるようになります。Once your data is uploaded, it's stored in a dataset module and is available to any experiment in your workspace.

実験を編集するときは、モジュール パレットの [保存されたデータセット] 一覧の [マイ データセット] 一覧に、アップロード済みのデータセットが表示されます。When you're editing an experiment, you can find the datasets you've uploaded in the My Datasets list under the Saved Datasets list in the module palette. データセットを別の分析と機械学習に使用する場合は、データセットを実験キャンバスにドラッグ アンド ドロップします。You can drag and drop the dataset onto the experiment canvas when you want to use the dataset for further analytics and machine learning.

オンライン データ ソースからインポートするImport from online data sources

実験を実行している間に、データのインポート モジュールを使用して、さまざまなオンライン データ ソースから実験にデータをインポートできます。Using the Import Data module, your experiment can import data from various online data sources while the experiment running.

注意

この記事では、データのインポート モジュールに関する一般的な情報を提供します。This article provides general information about the Import Data module. アクセスできるデータの種類、形式、パラメーターの詳細や、よく寄せられる質問への回答については、データのインポート モジュールのリファレンス トピックをご覧ください。For more detailed information about the types of data you can access, formats, parameters, and answers to common questions, see the module reference topic for the Import Data module.

実験を実行している間に、データのインポート モジュールを使用して、次のいずれかのオンライン データ ソースのデータにアクセスできます。By using the Import Data module, you can access data from one of several online data sources while your experiment is running:

  • HTTP を使用した Web URLA Web URL using HTTP
  • HiveQL を使用した HadoopHadoop using HiveQL
  • Azure BLOB ストレージAzure blob storage
  • Azure テーブルAzure table
  • Azure SQL データベースまたは Azure VM の SQL ServerAzure SQL database or SQL Server on Azure VM
  • オンプレミス SQL Server データベースOn-premises SQL Server database
  • データ フィード プロバイダー (現在は OData)A data feed provider, OData currently
  • Azure Cosmos DBAzure Cosmos DB

このトレーニング データは実験中にアクセスされるため、利用できるのは、その実験が行われている間だけです。Because this training data is accessed while your experiment is running, it's only available in that experiment. 一方、データセット モジュールに保存されているデータには、ワークスペース内の任意の実験からアクセスできます。By comparison, data that has been stored in a dataset module is available to any experiment in your workspace.

Studio (クラシック) の実験でオンライン データ ソースにアクセスするには、データのインポート モジュールを実験に追加します。To access online data sources in your Studio (classic) experiment, add the Import Data module to your experiment. 次に、 [プロパティ] の下にある [Launch Import Data Wizard](データ インポート ウィザードの起動) を選択し、ステップ形式の指示に従ってデータ ソースを選択および構成します。Then select Launch Import Data Wizard under Properties for step-by-step guided instructions to select and configure the data source. または、 [プロパティ] の下にある [データ ソース] を手動で選択し、データへのアクセスに必要なパラメーターを指定することができます。Alternatively, you can manually select Data source under Properties and supply the parameters needed to access the data.

サポートされているオンライン データ ソースは、以下の表にまとめました。The online data sources that are supported are itemized in the table below. サポートされているファイル形式と、データにアクセスするためのパラメーターも記載されています。This table also summarizes the file formats that are supported and parameters that are used to access the data.

重要

現在、データのインポート モジュールと データのエクスポート モジュールでは、クラシック デプロイ モデルを使用して作成された Azure Storage からのみ、データの読み取りと書き込みを行うことができます。Currently, the Import Data and Export Data modules can read and write data only from Azure storage created using the Classic deployment model. つまり、ホット ストレージ アクセス層またはクール ストレージアクセス層を利用できる新しい Azure BLOB ストレージ アカウントの種類は、まだサポートされていません。In other words, the new Azure Blob Storage account type that offers a hot storage access tier or cool storage access tier is not yet supported.

一般的に、このサービス オプションが利用可能になる前に作成された可能性のある Azure ストレージ アカウントに、影響が及ぶことはありません。Generally, any Azure storage accounts that you might have created before this service option became available should not be affected. 新しいアカウントを作成する必要がある場合は、デプロイメント モデルとして [クラシック] を選択するか、Resource Manager を使用して、 [アカウントの種類][Blob ストレージ] ではなく [General (汎用)] を選択します。If you need to create a new account, select Classic for the Deployment model, or use Resource manager and select General purpose rather than Blob storage for Account kind.

詳細については、Azure Blob Storage のホット ストレージ層とクール ストレージ層に関するページを参照してください。For more information, see Azure Blob Storage: Hot and Cool Storage Tiers.

サポートされるオンライン データ ソースSupported online data sources

クラシック バージョンの Azure Machine Learning Studio のデータのインポート モジュールでは、以下のデータ ソースがサポートされています。The classic version of Azure Machine Learning Studio Import Data module supports the following data sources:

データ ソースData Source 説明Description parametersParameters
HTTP を使用する Web URLWeb URL via HTTP コンマ区切り (CSV)、タブ区切り (TSV)、ARFF (Attribute-Relation File Format)、サポート ベクター マシン (SVM-Light) の各形式のデータを HTTP を使用する任意の Web URL から読み取ります。Reads data in comma-separated values (CSV), tab-separated values (TSV), attribute-relation file format (ARFF), and Support Vector Machines (SVM-light) formats, from any web URL that uses HTTP URL: サイトの URL とファイル名、拡張子を含むファイルの完全名を指定します。URL: Specifies the full name of the file, including the site URL and the file name, with any extension.

データ形式: サポートされているデータ形式: CSV、TSV、ARFF、または SVM-light のいずれかを指定します。Data format: Specifies one of the supported data formats: CSV, TSV, ARFF, or SVM-light. データにヘッダー行がある場合、その行が列名の割り当てに使用されます。If the data has a header row, it is used to assign column names.
Hadoop/HDFSHadoop/HDFS Hadoop の分散ストレージからデータを読み取ります。Reads data from distributed storage in Hadoop. 必要なデータは、HiveQL という SQL に似たクエリ言語で指定します。You specify the data you want by using HiveQL, a SQL-like query language. クラシック バージョンの Studio にデータを追加する前に、HiveQL を使用してデータを集計したり、データのフィルタリングを実行したりすることもできます。HiveQL can also be used to aggregate data and perform data filtering before you add the data to the classic version of Studio. Hive データベース クエリ: データを生成するために使用する Hive クエリを指定します。Hive database query: Specifies the Hive query used to generate the data.

HCatalog サーバー URI: <your cluster name>.azurehdinsight.net 形式でクラスターの名前を指定します。HCatalog server URI : Specified the name of your cluster using the format <your cluster name>.azurehdinsight.net.

Hadoop ユーザー アカウント名: クラスターをプロビジョニングするために使用する Hadoop ユーザー アカウント名を指定します。Hadoop user account name: Specifies the Hadoop user account name used to provision the cluster.

Hadoop ユーザー アカウントのパスワード: クラスターをプロビジョニングするために使用する資格情報を指定します。Hadoop user account password : Specifies the credentials used when provisioning the cluster. 詳細については、HDInsight での Hadoop クラスターの作成に関する記事をご覧ください。For more information, see Create Hadoop clusters in HDInsight.

出力データの場所: データを Hadoop 分散ファイル システム (HDFS) に保存するか、Azure に保存するかを指定します。Location of output data: Specifies whether the data is stored in a Hadoop distributed file system (HDFS) or in Azure.
    出力データを HDFS に保存する場合、HDFS サーバーの URI を指定しますIf you store output data in HDFS, specify the HDFS server URI. (必ず、HTTPS:// プレフィックスなしの HDInsight クラスター名を使用してください)。(Be sure to use the HDInsight cluster name without the HTTPS:// prefix).

    出力データを Azure に保存する場合は、Azure ストレージ アカウント名、ストレージ アクセス キー、ストレージ コンテナー名を指定する必要があります。If you store your output data in Azure, you must specify the Azure storage account name, Storage access key and Storage container name.
SQL データベースSQL database Azure 仮想マシン上で動作する SQL Server データベースに保存されているデータまたは Azure SQL データベースに保存されているデータを読み取ります。Reads data that is stored in an Azure SQL database or in a SQL Server database running on an Azure virtual machine. データベース サーバー名: データベースが実行されているサーバーの名前を指定します。Database server name: Specifies the name of the server on which the database is running.
    Azure SQL Database の場合は、生成されたサーバー名を入力してください。In case of Azure SQL Database enter the server name that is generated. 通常、 <generated_identifier>.database.windows.net. 形式となります。Typically it has the form <generated_identifier>.database.windows.net.

    Azure 仮想マシン上でホストされる SQL Server の場合は、tcp:<Virtual Machine DNS Name>, 1433 という形式で入力します。In case of a SQL server hosted on an Azure Virtual machine enter tcp:<Virtual Machine DNS Name>, 1433

データベース名: サーバー上のデータベースの名前を指定します。Database name : Specifies the name of the database on the server.

サーバー ユーザー アカウント名: データベースへのアクセス権限を持つアカウントのユーザー名を指定します。Server user account name: Specifies a user name for an account that has access permissions for the database.

Server ユーザー アカウントのパスワード: ユーザー アカウントのパスワードを指定します。Server user account password: Specifies the password for the user account.

データベース クエリ: 読み取るデータを記述した SQL ステートメントを入力します。Database query:Enter a SQL statement that describes the data you want to read.
オンプレミス SQL データベースOn-premises SQL database オンプレミス SQL データベースに格納されているデータを読み取ります。Reads data that is stored in an on-premises SQL database. データ ゲートウェイ: SQL Server データベースにアクセスできるコンピューターにインストールされている Data Management Gateway の名前を指定します。Data gateway: Specifies the name of the Data Management Gateway installed on a computer where it can access your SQL Server database. ゲートウェイの設定については、オンプレミス SQL Server のデータを使用したクラシック バージョンの Azure Machine Learning Studio での高度な分析の実行に関する記事をご覧ください。For information about setting up the gateway, see Perform advanced analytics with the classic version of Azure Machine Learning Studio using data from an on-premises SQL server.

データベース サーバー名: データベースが実行されているサーバーの名前を指定します。Database server name: Specifies the name of the server on which the database is running.

データベース名: サーバー上のデータベースの名前を指定します。Database name : Specifies the name of the database on the server.

サーバー ユーザー アカウント名: データベースへのアクセス権限を持つアカウントのユーザー名を指定します。Server user account name: Specifies a user name for an account that has access permissions for the database.

ユーザー名とパスワード: [Enter values](値の入力) をクリックして、データベース資格情報を入力します。User name and password: Click Enter values to enter your database credentials. オンプレミス SQL Server の構成方法に応じて、Windows 統合認証または SQL Server 認証を使用することができます。You can use Windows Integrated Authentication or SQL Server Authentication depending upon how your on-premises SQL Server is configured.

データベース クエリ: 読み取るデータを記述した SQL ステートメントを入力します。Database query:Enter a SQL statement that describes the data you want to read.
Azure テーブルAzure Table Azure Storage の Table service からデータを読み取ります。Reads data from the Table service in Azure Storage.

大量のデータを低頻度で読み取る場合、Azure Table service を使用してください。If you read large amounts of data infrequently, use the Azure Table Service. 高い柔軟性、非リレーショナル (NoSQL)、圧倒的なスケーラビリティ、低コスト、高い可用性を特徴とするストレージ ソリューションです。It provides a flexible, non-relational (NoSQL), massively scalable, inexpensive, and highly available storage solution.
アクセスの対象がパブリックな情報であるか、ログイン資格情報を必要とするプライベートなストレージ アカウントであるかによってデータのインポートのオプションは変化します。The options in the Import Data change depending on whether you are accessing public information or a private storage account that requires login credentials. その点を決めるのが、認証の種類です。"PublicOrSAS" と "Account" のいずれかの値になります。その値によって、一連のパラメーターが異なります。This is determined by the Authentication Type which can have value of "PublicOrSAS" or "Account", each of which has its own set of parameters.

パブリックな URI または Shared Access Signature (SAS) の URI: パラメーターは、次のとおりです。Public or Shared Access Signature (SAS) URI: The parameters are:

    テーブルの URI: テーブルのパブリック URL または SAS URL を指定します。Table URI: Specifies the Public or SAS URL for the table.

    プロパティ名のスキャン対象となる行を指定します: 指定した行数をスキャンする場合は TopN を、テーブル内のすべての行を取得する場合は ScanAll を値として指定します。Specifies the rows to scan for property names: The values are TopN to scan the specified number of rows, or ScanAll to get all rows in the table.

    データが均一で予測可能である場合は、TopN を選択し、N の値を入力することをお勧めします。大きなテーブルでは、その方が読み取り時間が短くなります。If the data is homogeneous and predictable, it is recommended that you select TopN and enter a number for N. For large tables, this can result in quicker reading times.

    データを構成する一連のプロパティが、テーブルの深さと位置によって異なる場合は、ScanAll オプションを選択してすべての行をスキャンしてください。If the data is structured with sets of properties that vary based on the depth and position of the table, choose the ScanAll option to scan all rows. これによって、プロパティとメタデータの変換結果に整合性を確保することができます。This ensures the integrity of your resulting property and metadata conversion.

プライベート ストレージ アカウント: パラメーターは、次のとおりです。Private Storage Account: The parameters are:

    アカウント名: 読み取るテーブルを含んだアカウントの名前を指定します。Account name: Specifies the name of the account that contains the table to read.

    アカウント キー: アカウントに関連付けられているストレージ キーを指定します。Account key: Specifies the storage key associated with the account.

    テーブル名: 読み取るデータを含んだテーブルの名前を指定します。Table name : Specifies the name of the table that contains the data to read.

    プロパティ名のスキャン対象となる行: 指定した行数をスキャンする場合は TopN を、テーブル内のすべての行を取得する場合は ScanAll を値として指定します。Rows to scan for property names: The values are TopN to scan the specified number of rows, or ScanAll to get all rows in the table.

    データが均一で予測可能である場合は、TopN を選択し、N の値を入力することをお勧めします。大きなテーブルでは、その方が読み取り時間が短くなります。If the data is homogeneous and predictable, we recommend that you select TopN and enter a number for N. For large tables, this can result in quicker reading times.

    データを構成する一連のプロパティが、テーブルの深さと位置によって異なる場合は、ScanAll オプションを選択してすべての行をスキャンしてください。If the data is structured with sets of properties that vary based on the depth and position of the table, choose the ScanAll option to scan all rows. これによって、プロパティとメタデータの変換結果に整合性を確保することができます。This ensures the integrity of your resulting property and metadata conversion.

Azure BLOB ストレージAzure Blob Storage 画像、非構造化テキスト、バイナリ データなど、Azure Storage の Blob service に保存されているデータを読み取ります。Reads data stored in the Blob service in Azure Storage, including images, unstructured text, or binary data.

Blob service を使用して、データをパブリックに公開したり、アプリケーション データをプライベートに保存したりすることができます。You can use the Blob service to publicly expose data, or to privately store application data. HTTP または HTTPS 接続を使用してどこからでもデータにアクセスできます。You can access your data from anywhere by using HTTP or HTTPS connections.
アクセスの対象がパブリックな情報であるか、ログイン資格情報を必要とするプライベートなストレージ アカウントであるかによってデータのインポート モジュールのオプションは変化します。The options in the Import Data module change depending on whether you are accessing public information or a private storage account that requires login credentials. その点を決めるのが認証の種類です。"PublicOrSAS" と "Account" のいずれかの値になります。This is determined by the Authentication Type which can have a value either of "PublicOrSAS" or of "Account".

パブリックな URI または Shared Access Signature (SAS) の URI: パラメーターは、次のとおりです。Public or Shared Access Signature (SAS) URI: The parameters are:

    URI: Storage BLOB のパブリック URL または SAS URL を指定します。URI: Specifies the Public or SAS URL for the storage blob.

    ファイル形式: BLOB サービスのデータの形式を指定します。File Format: Specifies the format of the data in the Blob service. サポートされている形式は、CSV、TSV、ARFF です。The supported formats are CSV, TSV, and ARFF.

プライベート ストレージ アカウント: パラメーターは、次のとおりです。Private Storage Account: The parameters are:

    アカウント名: 読み取る BLOB を含んだアカウントの名前を指定します。Account name: Specifies the name of the account that contains the blob you want to read.

    アカウント キー: アカウントに関連付けられているストレージ キーを指定します。Account key: Specifies the storage key associated with the account.

    コンテナー、ディレクトリ、BLOB のパス: 読み取るデータを含んだ BLOB の名前を指定します。Path to container, directory, or blob : Specifies the name of the blob that contains the data to read.

    BLOB ファイル形式: BLOB サービスのデータの形式を指定します。Blob file format: Specifies the format of the data in the blob service. サポートされているデータ形式は CSV、TSV、ARFF、CSV (エンコーディング指定付き)、Excel です。The supported data formats are CSV, TSV, ARFF, CSV with a specified encoding, and Excel.

      形式が CSV または TSV である場合は、ファイルにヘッダー行が含まれているかどうかを必ず指定してください。If the format is CSV or TSV, be sure to indicate whether the file contains a header row.

      Excel を選択すると、Excel ブックからデータを読み取ることができます。You can use the Excel option to read data from Excel workbooks. [Excel データ形式] オプションで、データの保存先が Excel ワークシートの範囲か Excel テーブルかを指定してください。In the Excel data format option, indicate whether the data is in an Excel worksheet range, or in an Excel table. [Excel sheet or embedded table (Excel シートまたは埋め込みテーブル)] オプションで、読み取りの対象となるシートまたはテーブルの名前を指定します。In the Excel sheet or embedded table option, specify the name of the sheet or table that you want to read from.

データ フィード プロバイダーData Feed Provider サポートされているフィード プロバイダーからデータを読み取ります。Reads data from a supported feed provider. 現在サポートされているのは Open Data Protocol (OData) 形式だけです。Currently only the Open Data Protocol (OData) format is supported. データ コンテンツの種類: OData 形式を指定します。Data content type: Specifies the OData format.

ソース URL: データ フィードに使用する完全 URL を指定します。Source URL: Specifies the full URL for the data feed.
たとえば、 https://services.odata.org/northwind/northwind.svc/ という URL の場合、Northwind のサンプル データベースから読み取ります。For example, the following URL reads from the Northwind sample database: https://services.odata.org/northwind/northwind.svc/

別の実験からインポートするImport from another experiment

ある実験の中間結果を別の実験の一部として使用することが必要になる場合があります。There will be times when you'll want to take an intermediate result from one experiment and use it as part of another experiment. この場合は、モジュールをデータセットとして保存します。To do this, you save the module as a dataset:

  1. データセットとして保存するモジュールの出力をクリックします。Click the output of the module that you want to save as a dataset.
  2. [データセットとして保存] をクリックします。Click Save as Dataset.
  3. メッセージが表示されたら、名前と、データセットを簡単に識別できるような説明を入力します。When prompted, enter a name and a description that would allow you to identify the dataset easily.
  4. [OK] チェックマークをクリックします。Click the OK checkmark.

保存が完了すると、ワークスペースのどの実験でもデータセットを使用できるようになります。When the save finishes, the dataset will be available for use within any experiment in your workspace. データセットは、モジュール パレットの [保存されたデータセット] リストから検索できます。You can find it in the Saved Datasets list in the module palette.

次の手順Next steps

データのインポート モジュールとエクスポート モジュールを使用する Azure Machine Learning Studio Web サービスをデプロイするDeploying Azure Machine Learning Studio web services that use Data Import and Data Export modules