Azure Blob Storage에서 가져오기

이 항목에서는 Machine Learning 실험에서 데이터를 사용할 수 있도록 Azure Machine Learning Studio (클래식)의 데이터 가져오기 모듈을 사용 하 여 Azure Blob Storage 데이터를 읽는 방법을 설명 합니다.

참고

적용 대상: Machine Learning Studio (클래식)

이 콘텐츠는 Studio (클래식)에만 해당 됩니다. Azure Machine Learning 디자이너에는 비슷한 끌어서 놓기 모듈이 추가 되었습니다. 이 문서에서는 두 가지 버전을 비교 하는방법에 대해 자세히 알아보세요.

Azure Blob Service는 이진 데이터를 포함 하 여 대량의 데이터를 저장 하는 데 사용할 수 있습니다. Azure blob는 HTTP 또는 HTTPS를 사용 하 여 어디에서 나 액세스할 수 있습니다. Blob 저장소의 유형에 따라 인증이 필요할 수 있습니다.

  • 공용 blob은 모든 사용자가 또는 SAS URL을 가진 사용자가 액세스할 수 있습니다.
  • 개인 blob에는 로그인 및 자격 증명이 필요 합니다.

Blob 저장소에서 가져오려면 데이터를 블록 blob 형식을 사용 하는 blob에 저장 해야 합니다. Blob에 저장 된 파일은 쉼표로 구분 된 (CSV) 또는 탭으로 구분 된 (TSV) 형식을 사용 해야 합니다. 파일을 읽으면 레코드 및 해당 하는 모든 특성 머리글이 메모리의 행으로 데이터 집합으로 로드 됩니다.

참고

데이터 가져오기 모듈은 "보안 전송 필요" 옵션을 사용 하는 경우 Azure Blob Storage 계정에 연결 하는 기능을 지원 하지 않습니다.

Azure Machine Learning에서 사용 하도록 지원 되는 blob 저장소 유형에 대 한 기타 제한은 기술 참고 사항 섹션을 참조 하세요.

지원 되지 않는 형식으로 데이터를 가져와야 하나요? Python 또는 R을 사용할 수 있습니다. Azure AI Gallery: 에서 텍스트가 아닌 파일 로드 에서이 샘플을 참조 하세요 Azure Blob Storage

Azure blob에서 데이터를 가져오는 방법

스키마가 예상 대로 작동 하려면 가져오기 전에 데이터를 프로 파일링 하는 것이 좋습니다. 가져오기 프로세스에서 일부 헤드 행을 검색 하 여 스키마를 확인 하지만, 이후 행에는 추가 열 또는 오류를 발생 시키는 데이터가 포함 될 수 있습니다.

데이터 가져오기 마법사 사용

이 모듈에는 저장소 옵션을 선택 하 고, 기존 구독과 계정 중에서 선택 하 고, 모든 옵션을 신속 하 게 구성 하는 데 도움이 되는 새로운 마법사 기능이 있습니다.

  1. 데이터 가져오기 모듈을 실험에 추가 합니다. 데이터 입력 및 출력 범주의 Studio (클래식)에서 모듈을 찾을 수 있습니다.

  2. 데이터 가져오기 마법사 시작 을 클릭 하 고 프롬프트를 따릅니다.

  3. 구성이 완료 되 면 실제로 데이터를 실험으로 복사 하려면 모듈을 마우스 오른쪽 단추로 클릭 하 고 선택 된 실행 을 선택 합니다.

기존 데이터 연결을 편집 해야 하는 경우 마법사는 처음부터 다시 시작할 필요가 없도록 이전의 모든 구성 세부 정보를 로드 합니다.

데이터 가져오기 모듈에서 수동으로 속성 설정

다음 단계에서는 가져오기 원본을 수동으로 구성 하는 방법을 설명 합니다.

  1. 데이터 가져오기 모듈을 실험에 추가 합니다. 데이터 입력 및 출력 범주의 Studio (클래식)에서이 모듈을 찾을 수 있습니다.

  2. 데이터 원본 에 대해 Azure Blob Storage 를 선택 합니다.

  3. 인증 유형 으로 정보가 공개 데이터 원본으로 제공 된 것을 알고 있는 경우 공용 (SAS URL) 을 선택 합니다. SAS URL은 Azure storage 유틸리티를 사용 하 여 생성할 수 있는 공용 액세스에 대 한 시간 범위 URL입니다.

    그렇지 않으면 계정 을 선택 합니다.

  4. SAS URL을 사용 하 여 액세스할 수 있는 공용 blob에 데이터가 있는 경우 URL 문자열에 다운로드 및 인증에 필요한 모든 정보가 포함 되어 있으므로 추가 자격 증명이 필요 하지 않습니다.

    Uri 필드에 계정 및 공용 blob을 정의 하는 전체 uri를 입력 하거나 붙여 넣습니다.

    참고

    SAS URL을 통해 액세스할 수 있는 페이지에서 데이터는 CSV, TSV 및 ARFF 형식만 사용 하 여 저장할 수 있습니다.

  5. 데이터가 개인 계정에 있는 경우 계정 이름 및 키를 포함 한 자격 증명을 제공 해야 합니다.

    • 계정 이름 에 액세스 하려는 blob이 포함 된 계정의 이름을 입력 하거나 붙여 넣습니다.

      예를 들어 저장소 계정의 전체 URL이 인 경우 https://myshared.blob.core.windows.net 을 입력 myshared 합니다.

    • 계정 키 에 계정에 연결 된 저장소 액세스 키를 붙여넣습니다.

      액세스 키를 모르는 경우이 문서의 "Azure storage 계정 관리" 섹션 ( Azure Storage 계정 정보)을 참조 하세요.

  6. 컨테이너, 디렉터리 또는 blob에 대 한 경로에 검색 하려는 특정 blob의 이름을 입력 합니다.

    예를 들어 이름이 trainingdatadata01.csv 파일을 mymldata 라는 계정에 있는 컨테이너에 업로드 한 경우 파일의 전체 URL은 https://mymldata.blob.core.windows.net/trainingdata/data01.txt 입니다.

    따라서 컨테이너, 디렉터리 또는 blob에 대 한 필드 경로에서 다음을 입력 합니다. trainingdata/data01.csv

    여러 파일을 가져오려면 와일드 카드 문자 * (별표) 또는 ? (물음표)를 사용할 수 있습니다.

    예를 들어 컨테이너에 trainingdata 호환 되는 형식의 파일이 여러 개 있는 경우 다음 사양을 사용 하 여로 시작 하는 모든 파일을 읽고 data 단일 데이터 집합에 연결할 수 있습니다.

    trainingdata/data*.csv

    컨테이너 이름에는 와일드 카드를 사용할 수 없습니다. 여러 컨테이너에서 파일을 가져와야 하는 경우에는 각 컨테이너에 대해 데이터 가져오기 모듈의 별도 인스턴스를 사용 하 고 행 추가 모듈을 사용 하 여 데이터 집합을 병합 합니다.

    참고

    캐시 된 결과를 사용 하는 옵션을 선택한 경우에는 컨테이너의 파일을 변경한 내용이 실험에서 데이터의 새로 고침을 트리거하지 않습니다.

  7. Blob 파일 형식 에서 Azure Machine Learning 데이터를 적절 하 게 처리할 수 있도록 blob에 저장 된 데이터의 형식을 나타내는 옵션을 선택 합니다. 다음 형식이 지원됩니다.

    • Csv: csv (쉼표로 구분 된 값)는 Azure Machine Learning에서 파일을 내보내고 가져오는 데 사용할 수 있는 기본 저장소 형식입니다. 데이터에 머리글 행이 이미 포함 되어 있는 경우 파일에 머리글 행이 있거나 머리글이 데이터 행으로 처리 되는 옵션을 선택 해야 합니다.

      Azure Machine Learning에서 사용 되는 CSV 형식에 대 한 자세한 내용은 [CSV로 변환] (csv.md)을 참조 하세요.

    • TSV: 탭으로 구분 된 값 (TSV)은 많은 기계 학습 도구에서 사용 하는 형식입니다. 데이터에 머리글 행이 이미 포함 되어 있는 경우 파일에 머리글 행이 있거나 머리글이 데이터 행으로 처리 되는 옵션을 선택 해야 합니다.

      Azure Machine Learning에서 사용 되는 TSV 형식에 대 한 자세한 내용은 TSV로 변환을 참조 하세요.

    • Arff:이 형식은 weka 도구 집합에서 사용 하는 형식으로 파일을 가져올 수 있도록 지원 합니다. 자세한 내용은 ARFF로 변환을 참조 하세요.

    • 지정 된 인코딩을 사용 하는 csv: 다른 필드 구분 기호를 사용 하 여 준비 된 csv 파일에 대해이 옵션을 사용 하거나, 원본에서 u t f-8과 다른 문자 인코딩을 사용 했을 수 있습니다. SAS URL에 저장 된 파일에 대해서는이 형식이 지원 되지 않습니다.

    • Excel: Azure Blob Storage에 저장 된 excel 통합 문서에서 데이터를 읽으려면이 옵션을 사용 합니다. SAS URL에 저장 된 파일에 대해서는 Excel 형식이 지원 되지 않습니다.

  8. 특수 인코딩이 포함 된 CSV 파일의 경우 다음과 같은 추가 옵션을 설정 하 여 문자의 적절 한 가져오기를 제어 합니다.

    • 쉼표 구분 기호 형식: 쉼표 , 탭 문자 및 세미콜론을 포함 하 여 필드 구분 기호로 사용 되는 일반 문자 목록에서 선택 ; 합니다.

    • 인코딩 형식: 읽으려는 파일에서 사용 하는 문자 인코딩을 선택 합니다. 지원 되는 인코딩 목록은 기술 참고 사항 섹션을 참조 하세요.

    • 파일에 머리글 행 있음: 데이터에 머리글 행이 이미 포함 되어 있는 경우이 옵션을 선택 합니다. 그렇지 않으면 데이터 행으로 헤더를 가져옵니다.

  9. Excel 파일의 경우 excel 파일이 저장 되는 계정 및 컨테이너를 지정한 후 다음 옵션을 사용 하 여 Excel 형식 및 범위 또는 테이블 이름을 지정 해야 합니다.

    • Excel 데이터 형식: 데이터가 excel 워크시트 범위에 있는지 아니면 excel 테이블에 있는지를 나타냅니다.

    • Excel 시트 또는 포함 된 테이블: excel 시트 옵션을 선택 하는 경우 워크시트의 이름 (탭 이름) 또는 통합 문서에 포함 된 테이블을 지정 합니다. 시트의 모든 데이터를 읽습니다. 셀 범위는 지정할 수 없습니다. Excel 테이블 옵션을 선택 하는 경우 시트에 테이블이 하나 뿐 이더라도 시트 이름이 아니라 테이블 이름을 가져와야 합니다. 테이블 이름을 보려면 테이블 내부를 클릭 한 다음 테이블 도구 탭에서 테이블 이름 속성을 봅니다.

  10. 실험을 실행합니다.

예제

기계 학습 실험에서 Azure Blob Storage의 데이터를 사용 하는 방법을 알아보려면 Azure 갤러리를 참조 하세요.

  • 뉴스 분류 샘플: Azure Blob Storage에서 여러 데이터 집합을 로드 한 다음 결합 합니다.

  • 학생 성과 샘플: AZURE BLOB STORAGE에서 TSV 형식으로 저장 된 데이터를 읽습니다.

기술 참고 사항

이 섹션에는 구현 세부 정보, 팁 및 질문과 대답 (faq)이 포함 되어 있습니다.

일반적인 질문

데이터 가져오기를 자동화 하는 방법이 있나요?

새 데이터를 가져오고 실험을 정기적으로 업데이트 하는 데 사용 하는 다양 한 방법이 있습니다. 원본 데이터가 시작 되는 위치와 데이터 이동에 사용할 도구에 따라 크게 달라 집니다. 몇 가지 아이디어는 다음 문서를 참조 하세요.

실험 실행을 자동화 하려면 일반적으로 웹 서비스를 만들어야 합니다 .이 서비스는 작업 스케줄러, PowerShell 또는 기타 사용자 지정 코드에 의해 트리거될 수 있습니다.

기존 blob에서 입력 데이터를 읽으려고 할 때 오류가 발생 하는 이유는 무엇 인가요?

다음과 같은 몇 가지 문제가 있을 수 있습니다.

  • Blob에서 지원 되지 않는 형식을 사용 합니다.
  • Azure Machine Learning에서 아직 지원 하지 않는 옵션을 사용 하 여 계정 자체를 만들었습니다.

지원 되지 않는 형식: Azure Blob Storage에서 읽는 경우 현재 Azure Machine Learning blob에서 블록 blob 형식을 사용 해야 하므로 blob을 효율적으로 업로드할 수 있습니다. 예를 들어 CSV 파일을 blob 저장소에 업로드 하는 경우 파일은 블록 blob으로 저장 됩니다. 그러나 blob 파일을 프로그래밍 방식으로 만들 경우에는 지원 되지 않는 AppendBlob 유형과 같은 다른 유형의 blob을 생성할 수 있습니다.

이 문제를 해결 하려면 블록 blob 유형을 사용 하는 것이 좋습니다.

중요

Blob을 만든 후에는 형식을 변경할 수 없습니다.

자세한 내용은 블록 Blob, 추가 Blob 및 페이지 Blob 이해를 참조하세요.

지원 되지 않는 계정 유형: 가져오기 및 내보내기 모듈은 클래식 배포 모델을 사용 하 여 만든 Azure storage 계정 에서만 데이터를 읽고 쓸 수 있습니다. 즉, 핫 및 쿨 저장소 액세스 계층을 제공 하는 새로운 Azure Blob Storage 계정 유형이 아직 지원 되지 않습니다. 일반적으로이 서비스 옵션을 사용할 수 있게 되기 전에 만든 모든 Azure storage 계정은 영향을 받지 않습니다.

Azure Machine Learning 사용 하기 위해 새 계정을 만들어야 하는 경우 배포 모델 에 대해 클래식 을 선택 하거나 Resource Manager 를 사용 하 고 계정 종류 에는 Blob storage 대신 범용 을 선택 합니다.

동일한 데이터를 불필요 하 게 다시 로드 하지 않도록 방지 하려면 어떻게 해야 하나요?

원본 데이터가 변경 되 면 데이터 집합을 새로 고치고 데이터 가져오기를 다시 실행 하 여 새 데이터를 추가할 수 있습니다. 그러나 실험을 실행할 때마다 원본에서 다시 읽지 않으려는 경우 캐시 된 결과 사용 옵션을 TRUE로 선택 합니다. 이 옵션을 TRUE로 설정 하면 모듈이 이전에 동일한 원본 및 동일한 입력 옵션을 사용 하 여 실험을 실행 했는지 확인 하 고 이전 실행을 찾은 경우 원본에서 데이터를 다시 로드 하는 대신 캐시에 있는 데이터가 사용 됩니다.

원본에서 읽을 때 데이터를 필터링 할 수 있나요?

데이터 가져오기 모듈은 데이터를 읽는 동안 필터링을 지원 하지 않습니다.

Azure Machine Learning Studio (클래식)에 데이터를 로드 한 후에는 다음 도구를 사용 하 여 데이터를 수정할 수 있습니다.

  • 사용자 지정 R 스크립트를 사용 하 여 데이터를 필터링 하거나 변환 합니다.

  • 상대 식 또는 정규식과 함께 데이터 분할 모듈을 사용 하 여 원하는 데이터를 격리 한 다음 데이터 집합으로 저장 합니다.

필요한 것 보다 더 많은 데이터를 로드 한 경우 새 데이터 집합을 읽어 데이터 집합을 덮어쓰고 이전의 큰 데이터와 동일한 이름으로 저장 하도록 지정할 수 있습니다.

가져오기 프로세스가 후행 새 줄을 찾으면 데이터 집합의 끝에 행을 추가 하는 이유는 무엇 인가요?

데이터 가져오기 모듈이 빈 줄 이나 후행 줄 바꿈 문자 뒤에 오는 데이터 행을 발견 하는 경우 누락 된 값을 포함 하는 추가 행이 테이블의 끝에 추가 됩니다.

후행 새 줄을 새로운 행으로 해석 하는 이유는 데이터 가져오기 로 인해 실제 빈 줄과 사용자가 파일 끝에서 enter 키를 눌러 만든 빈 줄 간의 차이를 확인할 수 없기 때문입니다.

일부 기계 학습 알고리즘은 누락 된 데이터를 지원 하 고이 줄을 대/소문자 (결과에 영향을 줄 수 있음)로 처리 하기 때문에 누락 된 데이터 정리 를 사용 하 여 누락 된 값을 확인 하 고 필요에 따라 제거 해야 합니다.

빈 행을 확인 하기 전에 일부 누락 된 값이 있는 다른 행의 마지막 빈 행을 분리 하 여 원본 데이터의 실제 누락 값을 나타낼 수도 있습니다. 이렇게 하려면 데이터 분할을 사용 하 여 데이터 집합을 나눌 수 있습니다. Head N Rows 선택 옵션을 선택 하 여 마지막 행을 제외한 모든 행을 읽습니다.

여러 지리적 지역에서 로드 된 데이터를 가져오는 경우 어떻게 되나요?

Blob 또는 table storage 계정이 machine learning 실험에 사용 되는 계산 노드와 다른 지역에 있는 경우 데이터 액세스 속도가 느려질 수 있습니다. 또한 구독에 대 한 데이터 수신 및 송신에 대 한 요금이 청구 됩니다.

원본 파일의 일부 문자가 헤더에 올바르게 표시되지 않는 이유

Azure Machine Learning는 일반적으로 UTF-8 인코딩을 지원 합니다. 원본 파일에서 다른 유형의 인코딩을 사용 하는 경우에는 문자를 제대로 가져올 수 없습니다.

데이터를 올바르게 로드하는 데 문제가 있는 경우 인코딩을 포함하는 CSV 옵션을 사용하고 사용자 지정 구분 기호, 코드 페이지 등의 매개 변수를 지정하세요.

가져오는 동안 변경 된 금지 된 문자 또는 문자가 있나요?

특성 데이터에 포함된 따옴표 또는 이스케이프 문자 시퀀스는 Microsoft Excel에서 해당 문자에 적용되는 규칙을 사용하여 처리됩니다. 다른 모든 문자는 다음 사양을 지침으로 사용 하 여 처리 됩니다. RFC 4180.

로컬 데이터 집합을 Azure Machine Learning에 직접 업로드 하는 크기 제한은 1.98 GB입니다. 매우 큰 파일을 사용 하는 경우 실험 계정에 데이터 집합을 추가 하는 데 시간이 오래 걸릴 수 있습니다.

  • 10 분 또는 GB 당 데이터를 예상 합니다.
  • 성능을 최적화 하려면 Azure ML 서비스에서 사용 하는 것과 동일한 지역에서 저장소 계정을 사용 합니다.

최대 10gb의 큰 파일을 업로드 하기 위해 몇 가지 방법이 있습니다.

  • 압축 된 파일을 사용 합니다. Azure ML Studio (클래식)에 데이터 집합을 압축 된 형식으로 업로드 한 다음 압축 풀기 데이터 집합 모듈을 사용 하 여 데이터 집합의 압축을 풀고 저장할 수 있습니다. 압축 된 데이터 집합은 R 스크립트 실행 모듈을 사용 하 여 압축을 풀 수도 있지만 성능이 제한 될 수도 있습니다.

  • AzCopy와 같은 빠른 Azure 유틸리티를 사용 합니다. AzCopy와 같은 유틸리티를 사용 하 여 Microsoft Azure Blob Storage 데이터를 준비 합니다. 그런 다음 데이터 가져오기 모듈을 사용 하 여 blob Storage에서 Studio (클래식)로 데이터를 가져옵니다.

    예를 들어 다음 코드는 blob 저장소에 쓰기 위한 AzCopy 구문을 보여 줍니다.

    cd "C:\Program Files (x86)\Microsoft SDKs\Azure\AzCopy"
    .\AzCopy.exe /Source:C:\LocalFolder /Dest:https://mystorage.blob.core.windows.net/mycontainer /DestKey:MyStorageAccountKey /Pattern:myfile.csv
    

지정 된 인코딩을 사용 하 여 CSV 파일을 가져왔지만 시각화 옵션을 사용 하는 경우 텍스트가 제대로 표시 되지 않습니다. 그 이유는

업로드 된 데이터 집합의 경우 Azure Machine Learning는 일반적으로 u t f-8만 지원 합니다. 그러나 데이터 가져오기 모듈은 추가 인코딩 형식을 지원 합니다. 따라서 이러한 형식 중 하나를 사용 하 여 파일을 가져온 후에는 해당 문자가 올바르게 표시 되지 않는 것을 알 수 있습니다. 이 솔루션은 다음 방법 중 하나를 사용 하 여 인코딩을 u t f-8로 변환 하는 것입니다.

  • 가져온 데이터를 데이터 집합으로 저장 합니다. CSV 데이터 대신 저장 된 데이터 집합을 사용 하면 성능이 향상 될 수도 있습니다.

  • R 스크립트 실행 모듈에서 데이터 집합을 사용 하는 경우 다음과 같은 스크립트를 사용 하 여 올바른 코딩을 적용할 수 있습니다.

    dataset <- maml.mapInputPort(1)
    Encoding(dataset$city) <- "UTF-8"
    maml.mapOutputPort("dataset")
    

    그런 다음 R 스크립트 실행 모듈의 출력에서 시각화 를 사용 하 여 문자가 제대로 표시 되는지 확인할 수 있습니다.

텍스트 파일을 가져오기 위해 어떤 옵션을 사용할 수 있나요? CSV는 내 데이터에 적합 하지 않습니다.

구조화 되지 않은 텍스트를 처리 하 고 정리 하 여 열에 깔끔하게 정리 하는 것은 항상 챌린지입니다. 그러나 텍스트 데이터의 열을 가져와야 하는 경우에는 TSV 형식으로 인해 불필요 한 탭 문자를 미리 확인 해야 하는 경우에도 문제가 줄어듭니다.

Azure AI Gallery에서 텍스트 분류 템플릿을검토 하 여 Azure Machine Learning Studio (클래식)에서 텍스트 수집 및 처리의 예를 확인 하는 것이 좋습니다.

CSV 파일에 대 한 사용자 지정 인코딩

초기 버전의 데이터 가져오기 모듈은 일부 종류의 유효한 CSV 파일을 지원 하지 않았습니다. 예를 들어, Excel에서 내보낸 데이터에 포함된 문자로 인해 파일을 올바르게 구문 분석하지 못하는 경우가 있습니다.

더 광범위 한 구분 기호 및 문자 형식을 지원 하기 위해 이제 데이터 가져오기 에서는 구분 기호 및 인코딩 형식을 선택할 수 있습니다. 인코딩 포함 CSV 옵션을 사용하면, 결과적으로 CSV 파일을 더욱 강력하고 효율적으로 구문 분석할 수 있습니다.

다음 문자 인코딩을 사용할 수 있습니다.

Type Encoding
유니코드(Unicode) 유니코드(UTF-8)

유니코드(Unicode)

유니코드 (UTF-32)

유니코드 (UTF-7)
CJYK 중국어 번체(Big5)

중국어 간체(GB2312)

중국어 간체(Mac)

중국어 간체(GB2312-80)

중국어 간체(ISO-2022)

중국어 간체(GB18030)

일본어(JIS)

한국어(ISO)

한국어(Mac)
기타 서유럽어(Windows)

서유럽어(ISO)

히브리어(ISO-Visual)

US ASCII

CSV 가져오기가 완료 된 후에는 가져온 파일을 데이터 집합으로 저장 하 여 데이터를 실험에서 UTF-8 인코딩을 사용 하도록 하는 것이 좋습니다.

CSV 및 TSV 형식의 데이터 형식 유추

데이터 가져오기 모듈이 AZURE BLOB STORAGE의 CSV 또는 TSV 파일에서 데이터를 로드 하는 경우 guesser 형식은 원본 파일에서 범주 또는 숫자 데이터를 검색 하 고 새 데이터 집합에 대 한 메타 데이터에서 검색 된 형식을 나타냅니다.

그러나 데이터를 로드 한 후 메타 데이터 편집 모듈에서 열 특성을 편집 하 여 guesser 유형의 결과를 재정의할 수 있습니다.

모듈 매개 변수

일반 옵션

Name 범위 Type 기본값 설명
데이터 원본 목록 데이터 원본 또는 싱크 Azure Blob Storage 데이터 원본에는 HTTP, FTP, 익명 HTTPS 또는 FTPS, Azure BLOB 저장소의 파일, Azure 테이블, Azure SQL Database, 온-프레미스 SQL Server 데이터베이스, Hive 테이블 또는 OData 끝점이 있을 수 있습니다.
인증 유형 PublicOrSas/계정 String 계정 데이터가 SAS URL을 통해 액세스할 수 있는 공용 컨테이너에 있는지 또는 액세스에 대 한 인증이 필요한 개인 저장소 계정에 있는지를 지정 합니다.
캐시 된 결과 사용 TRUE/FALSE 부울 FALSE 실행 간에 데이터를 로드 하지 않으려면 선택 합니다.

공용 또는 SAS-공용 저장소 옵션

Name 범위 Type 기본값 설명
URI any String 없음 HDFS rest 끝점
파일 형식 ARFF, CSV 또는 TSV String CSV 지원 되는 형식 중 하나를 선택 합니다.
URI에 머리글 행 있음 부울 TRUE/FALSE TRUE 파일에 머리글 행이 포함 되어 있으면 True이 고, False 이면 첫 번째 데이터 행이 열 머리글로 사용 됩니다.

계정-개인 저장소 옵션

Name 범위 Type 기본값 설명
계정 이름 any String 없음 저장소 계정의 이름을 입력 합니다.
계정 키 any SecureString 없음 계정 키 붙여넣기
컨테이너, 디렉터리 또는 blob의 경로 any String 해당 없음 컨테이너 또는 디렉터리 이름을 입력 합니다.
Blob 파일 형식 ARFF, CSV 또는 TSV String CSV 지원 되는 형식 중 하나를 선택 합니다.
파일에 헤더 행이 있음 any 문자열 True Azure Storage 계정 이름

출력

Name Type 설명
결과 데이터 집합 데이터 테이블 가져온 데이터를 포함 하는 데이터 집합

예외

예외 설명
오류 0027 두 개체의 크기가 같아야 하지만 다른 경우 예외가 발생합니다.
오류 0003 입력 중 하나 이상이 null이거나 비어 있으면 예외가 발생합니다.
오류 0029 잘못된 URI가 전달되면 예외가 발생합니다.
오류 0030 파일을 다운로드할 수 없으면 예외가 발생합니다.
오류 0002 하나 이상의 매개 변수를 구문 분석할 수 없거나 지정된 형식을 대상 방법에 필요한 형식으로 변환할 수 없으면 예외가 발생합니다.
오류 0009 Azure 저장소 계정 이름 또는 컨테이너 이름을 잘못 지정하는 경우 예외가 발생합니다.
오류 0048 파일을 열 수 없으면 예외가 발생합니다.
오류 0046 지정한 경로에 디렉터리를 만들 수 없으면 예외가 발생합니다.
오류 0049 파일을 구문 분석할 수 없으면 예외가 발생합니다.

스튜디오 (클래식) 모듈과 관련 된 오류 목록은 Machine Learning 오류 코드를 참조 하세요.

API 예외 목록은 Machine Learning REST API 오류 코드를 참조 하세요.

참고 항목

데이터 가져오기
데이터 내보내기
HTTP를 통해 웹 URL에서 가져오기
Hive 쿼리에서 가져오기
Azure SQL Database에서 가져오기
Azure 테이블에서 가져오기
데이터 피드 공급자에서 가져오기
온-프레미스 SQL Server 데이터베이스에서 가져오기