Azure Blob Storage에서 가져오기

중요

Machine Learning Studio(클래식)에 대한 지원은 2024년 8월 31일에 종료됩니다. 해당 날짜까지 Azure Machine Learning으로 전환하는 것이 좋습니다.

2021년 12월 1일부터 새로운 Machine Learning Studio(클래식) 리소스를 만들 수 없습니다. 2024년 8월 31일까지는 기존 Machine Learning Studio(클래식) 리소스를 계속 사용할 수 있습니다.

ML Studio(클래식) 설명서는 사용 중지되며 나중에 업데이트되지 않을 수 있습니다.

이 항목에서는 기계 학습 실험에서 데이터를 사용할 수 있도록 Machine Learning Studio(클래식)에서 데이터 가져오기 모듈을 사용하여 Azure Blob Storage 데이터를 읽는 방법을 설명합니다.

참고

적용 대상: Machine Learning Studio(클래식) 전용

유사한 끌어서 놓기 모듈은 Azure Machine Learning 디자이너에서 사용할 수 있습니다.

Azure Blob Service는 이진 데이터를 포함하여 많은 양의 데이터를 저장하기 위한 것입니다. AZURE Blob은 HTTP 또는 HTTPS를 사용하여 어디서나 액세스할 수 있습니다. Blob Storage 유형에 따라 인증이 필요할 수 있습니다.

  • 공용 Blob은 누구나 또는 SAS URL이 있는 사용자가 액세스할 수 있습니다.
  • 프라이빗 Blob에는 로그인 및 자격 증명이 필요합니다.

Blob Storage에서 가져오려면 블록 Blob 형식을 사용하는 Blob에 데이터를 저장해야 합니다. Blob에 저장된 파일은 쉼표로 구분된(CSV) 또는 탭으로 구분된(TSV) 형식을 사용해야 합니다. 파일을 읽으면 레코드 및 해당 특성 제목이 데이터 세트로 메모리에 행으로 로드됩니다.

참고

데이터 가져오기 모듈은 "보안 전송 필요" 옵션을 사용하는 경우 Azure Blob Storage 계정에 대한 연결을 지원하지 않습니다.

Machine Learning 사용할 수 있는 Blob Storage 유형에 대한 다른 제한 사항은 기술 정보 섹션을 참조하세요.

지원되지 않는 형식으로 데이터를 가져와야 합니까? Python 또는 R을 사용할 수 있습니다. Azure AI 갤러리에서 이 샘플을 참조하세요. Azure Blob Storage 텍스트가 아닌 파일 로드

Azure Blob에서 데이터를 가져오는 방법

스키마가 예상대로 작동하는지 확인하려면 가져오기 전에 데이터를 프로파일링하는 것이 좋습니다. 가져오기 프로세스는 몇 개의 헤드 행을 검사하여 스키마를 확인하지만 이후 행에는 추가 열 또는 오류를 일으키는 데이터가 포함될 수 있습니다.

데이터 가져오기 마법사 사용

이 모듈에는 스토리지 옵션을 선택하고, 기존 구독 및 계정 중에서 선택하고, 모든 옵션을 신속하게 구성하는 데 도움이 되는 새 마법사가 있습니다.

  1. 데이터 가져오기 모듈을 실험에 추가합니다. 데이터 입력 및 출력 범주의 Studio(클래식)에서 모듈을 찾을 수 있습니다.

  2. 데이터 가져오기 마법사 시작을 클릭하고 프롬프트를 따릅니다.

  3. 구성이 완료되면 실제로 데이터를 실험에 복사하려면 모듈을 마우스 오른쪽 단추로 클릭하고 [선택됨 실행]을 선택합니다.

기존 데이터 연결을 편집해야 하는 경우 마법사는 처음부터 다시 시작할 필요가 없도록 모든 이전 구성 세부 정보를 로드합니다.

데이터 가져오기 모듈에서 수동으로 속성 설정

다음 단계에서는 가져오기 원본을 수동으로 구성하는 방법을 설명합니다.

  1. 데이터 가져오기 모듈을 실험에 추가합니다. 이 모듈은 Studio(클래식)의 데이터 입력 및 출력 범주에서 찾을 수 있습니다.

  2. 데이터 원본의 경우 Azure Blob Storage 선택합니다.

  3. 인증 유형의 경우 정보가 공용 데이터 원본으로 제공된 것을 알고 있는 경우 공용(SAS URL)을 선택합니다. SAS URL은 Azure Storage 유틸리티를 사용하여 생성할 수 있는 공용 액세스에 대한 시간 바인딩 URL입니다.

    그렇지 않으면 계정을 선택합니다.

  4. 데이터가 SAS URL을 사용하여 액세스할 수 있는 공용 Blob에 있는 경우 URL 문자열에 다운로드 및 인증에 필요한 모든 정보가 포함되어 있으므로 추가 자격 증명이 필요하지 않습니다.

    URI 필드에 계정 및 공용 Blob을 정의하는 전체 URI를 입력하거나 붙여넣습니다.

    참고

    SAS URL을 통해 액세스할 수 있는 페이지에서 CSV, TSV 및 ARFF 형식만 사용하여 데이터를 저장할 수 있습니다.

  5. 데이터가 개인 계정에 있는 경우 계정 이름 및 키를 포함한 자격 증명을 제공해야 합니다.

    • 계정 이름의 경우 액세스하려는 Blob이 포함된 계정의 이름을 입력하거나 붙여넣습니다.

      예를 들어 스토리지 계정의 전체 URL이 https://myshared.blob.core.windows.net면 입력 myshared합니다.

    • 계정 키의 경우 계정과 연결된 스토리지 액세스 키를 붙여넣습니다.

      액세스 키를 모르는 경우 이 문서의 "Azure Storage 계정 관리" 섹션을 참조하세요. Azure Storage 계정 정보.

  6. 컨테이너, 디렉터리 또는 Blob 경로의 경우 검색할 특정 Blob의 이름을 입력합니다.

    예를 들어 mymldata라는 계정의 컨테이너 trainingdatadata01.csv 파일을 업로드한 경우 파일의 전체 URL은 다음과 https://mymldata.blob.core.windows.net/trainingdata/data01.txt같습니다.

    따라서 컨테이너, 디렉터리 또는 Blob에 대한 경로 필드에 다음을 입력합니다. trainingdata/data01.csv

    여러 파일을 가져오려면 와일드카드 문자 * (별표) 또는 ? (물음표)를 사용할 수 있습니다.

    예를 들어 컨테이너 trainingdata 에 호환되는 형식의 여러 파일이 포함되어 있다고 가정하면 다음 사양을 사용하여 모든 파일을 읽고 data단일 데이터 세트로 연결할 수 있습니다.

    trainingdata/data*.csv

    컨테이너 이름에는 와일드카드를 사용할 수 없습니다. 여러 컨테이너에서 파일을 가져와야 하는 경우 각 컨테이너에 대해 데이터 가져오기 모듈의 별도 인스턴스를 사용한 다음 행 추가 모듈을 사용하여 데이터 세트를 병합합니다.

    참고

    캐시된 결과를 사용하는 옵션을 선택한 경우 컨테이너의 파일에 대한 변경 내용이 실험의 데이터 새로 고침을 트리거하지 않습니다.

  7. Blob 파일 형식의 경우 Machine Learning 데이터를 적절하게 처리할 수 있도록 Blob에 저장된 데이터의 형식을 나타내는 옵션을 선택합니다. 다음 형식이 지원됩니다.

    • CSV: CSV(쉼표로 구분된 값)는 Machine Learning 파일을 내보내고 가져오기 위한 기본 스토리지 형식입니다. 데이터에 이미 머리글 행이 포함되어 있는 경우 옵션을 선택해야 합니다. 파일에 머리글 행이 있거나 헤더가 데이터 행으로 처리됩니다.

      Machine Learning 사용되는 CSV 형식에 대한 자세한 내용은 [CSV로 변환](convert-to-csv.md

    • TSV: TSV(탭으로 구분된 값)는 많은 기계 학습 도구에서 사용하는 형식입니다. 데이터에 이미 머리글 행이 포함되어 있는 경우 옵션을 선택해야 합니다. 파일에 머리글 행이 있거나 헤더가 데이터 행으로 처리됩니다.

      Machine Learning 사용되는 TSV 형식에 대한 자세한 내용은 TSV로 변환을 참조하세요.

    • ARFF: 이 형식은 Weka 도구 집합에서 사용하는 형식의 파일 가져오기를 지원합니다. 자세한 내용은 ARFF로 변환을 참조하세요.

    • 지정된 인코딩이 있는 CSV: 다른 필드 구분 기호를 사용하여 준비되었을 수 있는 CSV 파일 또는 원본에서 UTF-8과 다른 문자 인코딩을 사용했을 수 있는 경우 이 옵션을 사용합니다. SAS URL에 저장된 파일에는 이 형식이 지원되지 않습니다.

    • Excel: 이 옵션을 사용하여 Azure Blob Storage 저장된 Excel 통합 문서에서 데이터를 읽습니다. SAS URL에 저장된 파일에는 Excel 형식이 지원되지 않습니다.

  8. 특수 인코딩이 있는 CSV 파일의 경우 다음 추가 옵션을 설정하여 문자의 적절한 가져오기를 제어합니다.

    • 쉼표 구분 기호 형식: 쉼 , 표 탭 문자 및 세미콜론 ;을 포함하여 필드 구분 기호로 사용되는 일반 문자 목록에서 선택합니다.

    • 인코딩 형식: 읽을 파일에 사용되는 문자 인코딩을 선택합니다. 지원되는 인코딩 목록은 기술 정보 섹션을 참조하세요.

    • 파일에 머리글 행이 있습니다. 데이터에 머리글 행이 이미 있는 경우 이 옵션을 선택합니다. 그렇지 않으면 헤더를 데이터 행으로 가져옵니다.

  9. Excel 파일의 경우 Excel 파일이 저장되는 계정 및 컨테이너를 지정한 후 다음 옵션을 사용하여 Excel 형식과 범위 또는 테이블 이름을 지정해야 합니다.

    • Excel 데이터 형식: 데이터가 Excel 워크시트 범위에 있는지 또는 Excel 테이블에 있는지 여부를 나타냅니다.

    • Excel 시트 또는 포함된 테이블: Excel 시트 옵션을 선택하는 경우 워크시트 이름(탭 이름) 또는 통합 문서에 포함된 테이블을 지정합니다. 시트의 모든 데이터를 읽습니다. 셀 범위를 지정할 수 없습니다. Excel 테이블 옵션을 선택하는 경우 시트에 테이블이 하나만 있는 경우에도 시트 이름이 아닌 테이블 이름을 가져와야 합니다. 테이블 이름을 보려면 테이블 내부를 클릭한 다음 테이블 도구 탭에서 테이블 이름 속성을 봅니다.

  10. 실험을 실행합니다.

기계 학습 실험에서 Azure Blob Storage 데이터를 사용하는 방법을 알아보려면 Azure 갤러리를 참조하세요.

기술 정보

이 섹션에는 구현 세부 정보, 팁, 자주 묻는 질문에 대한 답변이 포함되어 있습니다.

일반적인 질문

데이터 가져오기를 자동화하는 방법이 있나요?

새 데이터를 가져와서 정기적으로 실험을 업데이트하는 데 사용하는 다양한 방법이 있습니다. 원본 데이터의 출처와 데이터 이동에 선호하는 도구에 따라 많은 것이 달라집니다. 몇 가지 아이디어를 보려면 다음 문서를 참조하세요.

실험 실행을 자동화하려면 일반적으로 웹 서비스를 생성해야 합니다. 그러면 작업 스케줄러, PowerShell 또는 기타 사용자 지정 코드에 의해 트리거될 수 있습니다.

기존 Blob에서 입력 데이터를 읽으려고 할 때 오류가 발생한 이유는 무엇인가요?

다음과 같은 몇 가지 가능한 문제가 있습니다.

  • Blob은 지원되지 않는 형식을 사용합니다.
  • 계정 자체는 Machine Learning 아직 지원되지 않는 옵션을 사용하여 만들어졌습니다.

지원되지 않는 형식: Azure Blob Storage 읽을 때 현재 Machine Learning Blob에서 블록 Blob 형식을 사용해야 하므로 큰 Blob을 효율적으로 업로드할 수 있습니다. 예를 들어 CSV 파일을 Blob Storage에 업로드하는 경우 파일은 블록 Blob으로 저장됩니다. 그러나 프로그래밍 방식으로 Blob 파일을 만들 때 지원되지 않는 AppendBlob 형식과 같은 다른 유형의 Blob을 생성할 수 있습니다.

해결 방법으로 블록 Blob 형식을 사용하는 것이 좋습니다.

중요

Blob을 만든 후에는 형식을 변경할 수 없습니다.

자세한 내용은 블록 Blob, 추가 Blob 및 페이지 Blob 이해(Understanding)를 참조하세요.

지원되지 않는 계정 유형: 가져오기 및 내보내기 모듈은 클래식 배포 모델을 사용하여 만든 Azure Storage 계정에서만 데이터를 읽고 쓸 수 있습니다. 즉, 핫 및 쿨 스토리지 액세스 계층을 제공하는 새로운 Azure Blob Storage 계정 유형은 아직 지원되지 않습니다. 일반적으로 이 서비스 옵션을 사용할 수 있게 되기 전에 만든 Azure Storage 계정은 영향을 받지 않아야 합니다.

Machine Learning 사용할 새 계정을 만들어야 하는 경우 배포 모델에클래식을 선택하거나 리소스 관리자계정 종류에 대해 Blob Storage 대신 범용을 선택합니다.

동일한 데이터를 불필요하게 다시 로드하지 않도록 하시겠습니까?

원본 데이터가 변경되면 데이터 가져오기를 다시 실행하여 데이터 세트를 새로 고치고 새 데이터를 추가할 수 있습니다. 그러나 실험을 실행할 때마다 원본에서 다시 읽지 않으려면 캐시된 결과 사용 옵션을 TRUE로 선택합니다. 이 옵션을 TRUE로 설정하면 모듈은 동일한 원본 및 동일한 입력 옵션을 사용하여 실험이 이전에 실행되었는지 여부를 확인하고, 이전 실행이 발견되면 원본에서 데이터를 다시 로드하는 대신 캐시의 데이터가 사용됩니다.

원본에서 읽는 데이터를 필터링할 수 있나요?

데이터 가져오기 모듈은 데이터를 읽는 동안 필터링을 지원하지 않습니다.

Machine Learning Studio(클래식)에 데이터를 로드한 후 다음 도구를 사용하여 데이터를 수정할 수 있습니다.

  • 사용자 지정 R 스크립트를 사용하여 데이터를 필터링하거나 변환합니다.

  • 상대 식 또는 정규식과 함께 데이터 분할 모듈을 사용하여 원하는 데이터를 격리한 다음 데이터 세트로 저장합니다.

필요한 것보다 많은 데이터를 로드한 경우 새 데이터 세트를 읽어 데이터 세트를 덮어쓰고 이전의 더 큰 데이터와 동일한 이름으로 저장되도록 지정할 수 있습니다.

내 데이터 세트 끝에 후행 새 줄이 발견되면 가져오기 프로세스에서 추가 행을 추가하는 이유는 무엇인가요?

데이터 가져오기 모듈에서 빈 줄이나 후행 새 줄 문자 뒤에 있는 데이터 행이 발견되면 테이블 끝에 누락된 값이 포함된 추가 행이 추가됩니다.

후행 새 줄을 새 행으로 해석하는 이유는 데이터 가져오기 에서 실제 빈 줄과 사용자가 파일 끝에서 Enter 키를 눌러 만든 빈 줄 간의 차이를 확인할 수 없기 때문입니다.

일부 기계 학습 알고리즘은 누락된 데이터를 지원하므로 이 줄을 사례로 처리하므로(결과에 영향을 줄 수 있음) 누락된 데이터 정리 를 사용하여 누락된 값을 확인하고 필요에 따라 제거해야 합니다.

빈 행을 확인하기 전에 원본 데이터의 실제 누락 값을 나타낼 수 있는 부분 누락 값이 있는 다른 행과 최종 빈 행을 구분할 수도 있습니다. 이렇게 하려면 데이터 분할을 사용하여 데이터 세트를 나눌 수 있습니다. 머리 N 행 선택 옵션을 선택하여 마지막 행을 제외한 모든 행을 읽습니다.

다른 지리적 지역에서 로드된 데이터를 가져오면 어떻게 되나요?

Blob 또는 Table Storage 계정이 기계 학습 실험에 사용되는 컴퓨팅 노드와 다른 지역에 있는 경우 데이터 액세스 속도가 느려질 수 있습니다. 또한 구독의 데이터 수신 및 송신에 대한 요금이 청구됩니다.

원본 파일의 일부 문자가 헤더에 올바르게 표시되지 않는 이유

Machine Learning 일반적으로 UTF-8 인코딩을 지원합니다. 원본 파일에서 다른 유형의 인코딩을 사용하는 경우 문자를 올바르게 가져오지 못할 수 있습니다.

데이터를 올바르게 로드하는 데 문제가 있는 경우 인코딩을 포함하는 CSV 옵션을 사용하고 사용자 지정 구분 기호, 코드 페이지 등의 매개 변수를 지정하세요.

가져오기 중에 변경된 금지된 문자 또는 문자가 있나요?

특성 데이터에 포함된 따옴표 또는 이스케이프 문자 시퀀스는 Microsoft Excel에서 해당 문자에 적용되는 규칙을 사용하여 처리됩니다. 다른 모든 문자는 다음 사양을 지침으로 사용하여 처리됩니다. RFC 4180.

로컬 데이터 세트를 Machine Learning 직접 업로드하는 크기 제한은 1.98GB입니다. 매우 큰 파일을 사용하면 실험 계정에 데이터 세트를 추가하는 데 시간이 오래 걸릴 수 있습니다.

  • 데이터 GB당 10분 이상을 예상합니다.
  • 성능을 최적화하려면 Azure ML 서비스에서 사용하는 동일한 지역의 스토리지 계정을 사용합니다.

최대 10GB의 더 큰 파일을 업로드하려면 다음과 같은 몇 가지 방법이 있습니다.

  • 압축된 파일을 사용합니다. 압축된 형식으로 Azure ML Studio(클래식)에 데이터 세트를 업로드한 다음 압축 해제 데이터 세트 모듈을 사용하여 데이터 세트의 압축을 풀고 저장할 수 있습니다. 압축된 데이터 세트는 R 스크립트 실행 모듈을 사용하여 압축을 풀 수도 있지만 성능이 제한될 수 있습니다.

  • AzCopy와 같은 빠른 Azure 유틸리티를 사용합니다. AzCopy와 같은 유틸리티를 사용하여 Blob Storage Microsoft Azure 데이터를 스테이징합니다. 그런 다음 데이터 가져오기 모듈을 사용하여 Blob Storage에서 Studio(클래식)로 데이터를 가져옵니다.

    예를 들어 다음 코드는 Blob Storage에 쓰기 위한 AzCopy 구문을 보여 줍니다.

    cd "C:\Program Files (x86)\Microsoft SDKs\Azure\AzCopy"
    .\AzCopy.exe /Source:C:\LocalFolder /Dest:https://mystorage.blob.core.windows.net/mycontainer /DestKey:MyStorageAccountKey /Pattern:myfile.csv
    

지정된 인코딩을 사용하여 CSV 파일을 가져왔지만 시각화 옵션을 사용할 때 텍스트가 올바르게 표시되지 않습니다. 그 이유는 무엇일까요?

업로드된 데이터 세트의 경우 Machine Learning 일반적으로 UTF-8만 지원합니다. 그러나 데이터 가져오기 모듈은 추가 인코딩 형식을 지원합니다. 따라서 이러한 형식 중 하나를 사용하여 파일을 가져온 후에는 문자가 올바르게 표시되지 않을 수 있습니다. 솔루션은 다음 방법 중 하나를 사용하여 인코딩을 UTF-8로 변환하는 것입니다.

  • 가져온 데이터를 데이터 세트로 저장합니다. (CSV 데이터 대신 저장된 데이터 세트를 사용하면 성능도 향상될 수 있습니다.)

  • R 스크립트 실행 모듈에서 데이터 세트를 사용하는 경우 다음과 같은 스크립트를 사용하여 올바른 코딩을 적용할 수 있습니다.

    dataset <- maml.mapInputPort(1)
    Encoding(dataset$city) <- "UTF-8"
    maml.mapOutputPort("dataset")
    

    그런 다음 R 스크립트 실행 모듈의 출력에서 시각화 를 사용하여 문자가 올바르게 표시되는지 확인할 수 있습니다.

텍스트 파일을 가져오기 위한 옵션은 무엇인가요? CSV는 내 데이터에 적합하지 않습니다.

열에 깔끔하게 맞도록 구조화되지 않은 텍스트를 처리하고 정리하는 것은 항상 어려운 일입니다. 그러나 텍스트 데이터의 열을 가져와야 하는 경우 TSV 형식은 과도한 탭 문자를 미리 확인해야 하지만 종종 더 적은 난이도를 표시합니다.

Azure AI 갤러리텍스트 분류 템플릿을 검토하여 Machine Learning Studio(클래식)에서 텍스트 수집 및 처리의 예를 확인하는 것이 좋습니다.

CSV 파일에 대한 사용자 지정 인코딩

데이터 가져오기 모듈의 초기 버전에서는 일부 종류의 유효한 CSV 파일을 지원하지 않았습니다. 예를 들어, Excel에서 내보낸 데이터에 포함된 문자로 인해 파일을 올바르게 구문 분석하지 못하는 경우가 있습니다.

가능한 범위의 구분 기호 및 문자 형식을 지원하기 위해 데이터 가져오기 는 이제 구분 기호 선택 및 인코딩 형식을 지원합니다. 인코딩 포함 CSV 옵션을 사용하면, 결과적으로 CSV 파일을 더욱 강력하고 효율적으로 구문 분석할 수 있습니다.

다음 문자 인코딩을 사용할 수 있습니다.

유형 Encoding
Unicode 유니코드(UTF-8)

Unicode

유니코드 (UTF-32)

유니코드 (UTF-7)
CJYK 중국어 번체(Big5)

중국어 간체(GB2312)

중국어 간체(Mac)

중국어 간체(GB2312-80)

중국어 간체(ISO-2022)

중국어 간체(GB18030)

일본어(JIS)

한국어(ISO)

한국어(Mac)
기타 서유럽어(Windows)

서유럽어(ISO)

히브리어(ISO-Visual)

US ASCII

CSV 가져오기가 완료되면 가져온 파일을 데이터 세트로 저장하여 가져온 데이터가 실험에서 UTF-8 인코딩을 사용하도록 하는 것이 좋습니다.

CSV 및 TSV 형식의 데이터 형식 유추

데이터 가져오기 모듈이 Azure Blob Storage CSV 또는 TSV 파일에서 데이터를 로드하는 경우 형식 추측자는 원본 파일에서 범주 또는 숫자 데이터를 찾고 새 데이터 세트의 메타데이터에서 검색된 형식을 나타냅니다.

그러나 데이터가 로드된 후 메타데이터 편집 모듈에서 열 특성을 편집하여 형식 추측기의 결과를 재정의할 수 있습니다.

모듈 매개 변수

일반 옵션

Name 범위 Type 기본값 설명
데이터 원본 목록 데이터 원본 또는 싱크 Azure Blob Storage 데이터 원본은 HTTP, FTP, 익명 HTTPS 또는 FTPS, Azure BLOB Storage의 파일, Azure 테이블, Azure SQL Database, 온-프레미스 SQL Server 데이터베이스, Hive 테이블 또는 OData 엔드포인트일 수 있습니다.
인증 유형 PublicOrSas/Account String 계정 데이터가 SAS URL을 통해 액세스할 수 있는 공용 컨테이너에 있는지 또는 액세스를 위해 인증이 필요한 프라이빗 스토리지 계정에 있는지 여부를 지정합니다.
캐시된 결과 사용 TRUE/FALSE 부울 FALSE 실행 간에 데이터를 로드하지 않도록 선택

공용 또는 SAS - 공용 스토리지 옵션

Name 범위 Type 기본값 설명
URI any String 없음 HDFS rest 엔드포인트
파일 형식 ARFF, CSV 또는 TSV String CSV 지원되는 형식 중 하나를 선택합니다.
URI에 머리글 행이 있습니다. 부울 TRUE/FALSE TRUE 파일에 머리글 행이 포함되어 있으면 True입니다. False이면 데이터의 첫 번째 행이 열 머리글로 사용됩니다.

계정 - 프라이빗 스토리지 옵션

Name 범위 Type 기본값 설명
계정 이름 any String 없음 스토리지 계정의 이름을 입력합니다.
계정 키 any SecureString 없음 계정 키 붙여넣기
컨테이너, 디렉터리 또는 blob의 경로 any String 해당 없음 컨테이너 또는 디렉터리 이름을 입력합니다.
Blob 파일 형식 ARFF, CSV 또는 TSV String CSV 지원되는 형식 중 하나를 선택합니다.
파일에 헤더 행이 있음 any 문자열 True Azure Storage 계정 이름

출력

Name 유형 설명
결과 데이터 집합 데이터 테이블 가져온 데이터가 있는 데이터 세트

예외

예외 설명
오류 0027 두 개체의 크기가 같아야 하지만 다른 경우 예외가 발생합니다.
오류 0003 입력 중 하나 이상이 null이거나 비어 있으면 예외가 발생합니다.
오류 0029 잘못된 URI가 전달되면 예외가 발생합니다.
오류 0030 파일을 다운로드할 수 없으면 예외가 발생합니다.
오류 0002 하나 이상의 매개 변수를 구문 분석할 수 없거나 지정된 형식을 대상 방법에 필요한 형식으로 변환할 수 없으면 예외가 발생합니다.
오류 0009 Azure 저장소 계정 이름 또는 컨테이너 이름을 잘못 지정하는 경우 예외가 발생합니다.
오류 0048 파일을 열 수 없으면 예외가 발생합니다.
오류 0046 지정한 경로에 디렉터리를 만들 수 없으면 예외가 발생합니다.
오류 0049 파일을 구문 분석할 수 없으면 예외가 발생합니다.

Studio(클래식) 모듈과 관련된 오류 목록은 Machine Learning 오류 코드를 참조하세요.

API 예외 목록은 MACHINE LEARNING REST API 오류 코드를 참조하세요.

참고 항목

데이터 가져오기
데이터 내보내기
HTTP를 통해 웹 URL에서 가져오기
Hive 쿼리에서 가져오기
Azure SQL Database에서 가져오기
Azure Table에서 가져오기
데이터 피드 공급자에서 가져오기
온-프레미스 SQL Server 데이터베이스에서 가져오기