COPY INTO

적용 대상:검사 '예'로 표시 Databricks SQL 검사 '예'로 표시 Databricks 런타임

파일 위치에서 델타 테이블로 데이터를 로드합니다. 이는 다시 시도할 수 있는 멱등성 작업입니다. 이미 로드된 원본 위치의 파일은 건너뜁니다. 예를 들어 COPY INTO를 사용하는 일반적인 데이터 로드 패턴을 참조하세요.

구문

COPY INTO target_table
  FROM { source_clause |
         ( SELECT expression_list FROM source_clause ) }
  FILEFORMAT = data_source
  [ VALIDATE [ ALL | num_rows ROWS ] ]
  [ FILES = ( file_name [, ...] ) | PATTERN = glob_pattern ]
  [ FORMAT_OPTIONS ( { data_source_reader_option = value } [, ...] ) ]
  [ COPY_OPTIONS ( { copy_option = value } [, ...] ) ]

source_clause
  source [ WITH ( [ CREDENTIAL { credential_name |
                                 (temporary_credential_options) } ]
                  [ ENCRYPTION (encryption_options) ] ) ]

매개 변수

  • target_table

    기존 델타 테이블을 식별합니다. target_table에는 임시 사양이 포함되지 않아야 합니다.

    테이블 이름이 delta.`/path/to/table` 와(과) 같은 위치 형식으로 제공되는 경우 Unity 카탈로그는 기록되는 위치에 대한 액세스를 제어할 수 있습니다. 다음을 통해 외부 위치에 쓸 수 있습니다.

    • 위치를 외부 위치로 정의하고 해당 외부 위치에 대한 WRITE FILES 사용 권한을 갖습니다.
    • COPY INTO delta.`/some/location` WITH (CREDENTIAL <named-credential>)을(를) 사용하여 위치에 쓸 수 있는 권한 부여를 제공하는 명명된 스토리지 자격 증명에 대한 WRITE FILES 사용 권한을 갖습니다.

    자세한 내용은 Unity 카탈로그를 사용하여 클라우드 개체 스토리지에 대한 커넥트 참조하세요.

  • source

    데이터를 로드할 파일 위치입니다. 이 위치의 파일은 FILEFORMAT에 지정된 형식이어야 합니다. 위치는 URI 형식으로 제공됩니다.

    원본 위치에 대한 액세스는 다음을 통해 제공할 수 있습니다.

    • credential_name

      스토리지 위치에 액세스하거나 쓰는 데 사용되는 자격 증명의 선택적 이름입니다. 파일 위치가 외부 위치에 포함되지 않은 경우에만 이 자격 증명을 사용합니다. credential_name 참조하세요.

    • 인라인 임시 자격 증명

    • 원본 위치를 외부 위치로 정의하고 Unity 카탈로그를 통해 외부 위치에 대한 READ FILES 사용 권한을 갖습니다.

    • Unity 카탈로그를 통해 위치에서 읽을 수 있는 권한을 제공하는 READ FILES 권한과 함께 명명된 스토리지 자격 증명을 사용합니다.

    경로가 이미 사용 권한이 있는 외부 위치로 정의된 경우 인라인 또는 명명된 자격 증명을 제공할 필요가 없습니다. 자세한 내용은 클라우드 스토리지를 Azure Databricks에 연결하는 외부 위치 만들기를 참조하세요.

    참고 항목

    원본 파일 경로가 루트 경로인 경우 슬래시(/)를 파일 경로 끝에 추가하세요(예: s3://my-bucket/).

    허용되는 자격 증명 옵션은 다음과 같습니다.

    • AZURE_SAS_TOKEN(ADLS Gen2 및 Azure Blob Storage의 경우)
    • AWS_ACCESS_KEY, AWS_SECRET_KEY,및 AWS_SESSION_TOKEN(AWS S3의 경우)

    허용되는 암호화 옵션은 다음과 같습니다.

    • TYPE = 'AWS_SSE_C'MASTER_KEY(AWS S3의 경우)

임시 자격 증명과 함께 COPY INTO를 사용하여 데이터 로드를 참조하세요.

  • SELECT expression_list

    델타 테이블로 복사하기 전에 원본 데이터에서 지정된 열 또는 식을 선택합니다. 식은 창 작업을 포함하여 SELECT 문에서 사용하는 모든 식일 수 있습니다. 집계 식은 전역 집계에만 사용할 수 있습니다. 이 구문에서 열에 대한 GROUP BY를 사용할 수 없습니다.

  • FILEFORMAT = data_source

    로드할 원본 파일의 형식입니다. CSV, JSON, AVRO, ORC, PARQUET, TEXT, BINARYFILE 중 하나입니다.

  • VALIDATE

    적용 대상:검사 '예'로 표시 Databricks SQL 검사 '예'로 표시 Databricks Runtime 10.4 LTS 이상

    테이블에 로드할 데이터의 유효성은 검사되지만 테이블에 기록되지는 않습니다. 이러한 유효성 검사는 다음과 같습니다.

    • 데이터를 구문 분석할 수 있는지 여부
    • 스키마가 테이블의 스키마와 일치하는지 아니면 스키마가 진화해야 하는지 여부
    • 모든 Null 허용 여부 및 확인 제약 조건이 충족되는지 여부입니다.

    기본값은 로드할 모든 데이터의 유효성을 검사하는 것입니다. VALIDATE 15 ROWS와 같이 ROWS 키워드를 사용하여 유효성을 검사할 행 수를 제공할 수 있습니다. 이 문은 COPY INTO 키워드(keyword))와 함께 ROWS 50개 미만의 숫자를 사용하는 경우 50개 이하의 행 데이터의 미리 보기를 반환합니다.

  • FILES

    로드할 파일 이름 목록으로, 파일의 제한은 1,000개입니다. PATTERN와 함께 지정할 수 없습니다.

  • PATTERN

    원본 디렉터리에서 로드할 파일을 식별하는 glob 패턴입니다. FILES와 함께 지정할 수 없습니다.

    패턴 설명
    ? 임의의 단일 문자와 일치합니다.
    * 0개 이상의 문자와 일치합니다.
    [abc] 문자 집합 {a,b,c}의 단일 문자와 일치합니다.
    [a-z] 문자 범위 {a…z}의 단일 문자와 일치합니다.
    [^a] 문자 집합 또는 범위 {a}에 없는 단일 문자와 일치합니다. ^ 문자는 왼쪽 괄호 바로 오른쪽에 있어야 합니다.
    {ab,cd} 문자열 집합 {ab, cd}의 문자열과 일치합니다.
    {ab,c{de, fh}} 문자열 집합 {ab, cde, cfh}의 문자열과 일치합니다.
  • FORMAT_OPTIONS

    지정된 형식에 대해 Apache Spark 데이터 원본 판독기로 전달할 옵션입니다. 각 파일 형식에 대한 형식 옵션을 참조하세요.

  • COPY_OPTIONS

    COPY INTO 명령의 작업을 제어하는 옵션입니다.

    • force: 부울로 기본값은 false입니다. true로 설정하면 멱등성을 사용하지 않도록 설정되고 파일이 이전에 로드되었는지 여부와 관계없이 파일이 로드됩니다.
    • mergeSchema: 부울로 기본값은 false입니다. true로 설정하면 들어오는 데이터에 따라 스키마가 개선될 수 있습니다.

COPY INTO 동시에 호출

COPY INTO 는 동일한 테이블에 대한 동시 호출을 지원합니다. 고유한 입력 파일 집합에서 동시에 호출되는 한 COPY INTO 각 호출은 결국 성공해야 합니다. 그렇지 않으면 트랜잭션 충돌이 발생합니다. COPY INTO 성능을 향상시키기 위해 동시에 호출해서는 안 됩니다. 여러 파일이 있는 단일 COPY INTO 명령은 일반적으로 각각 단일 파일로 동시 COPY INTO 명령을 실행하는 것보다 더 잘 수행됩니다. COPY INTO 는 다음과 같은 경우에 동시에 호출할 수 있습니다.

  • 여러 데이터 생산자는 쉽게 조정할 수 없으며 단일 호출을 만들 수 없습니다.
  • 매우 큰 디렉터리가 하위 디렉터리를 통해 하위 디렉터리를 수집할 수 있는 경우 매우 많은 수의 파일이 있는 디렉터리를 수집할 때 Databricks는 가능한 경우 자동 로더를 사용하는 것이 좋습니다.

파일 메타데이터 액세스

파일 기반 데이터 원본에 대한 메타데이터에 액세스하는 방법을 알아보려면 파일 메타데이터 열을 참조하세요.

형식 옵션

일반 옵션

다음 옵션은 모든 파일 형식에 적용됩니다.

옵션
ignoreCorruptFiles

유형: Boolean

손상된 파일을 무시할지 여부를 나타냅니다. true인 경우 손상된 파일이 발견될 때 Spark 작업이 계속 실행되고 읽은 내용이 계속 반환됩니다. numSkippedCorruptFiles로 관찰 가능
Delta Lake 기록의 operationMetrics 열. Databricks Runtime 11.3 LTS 이상에서 사용할 수 있습니다.

기본값: false
ignoreMissingFiles

유형: Boolean

누락된 파일을 무시할지 여부를 나타냅니다. true인 경우 누락된 파일이 있는 경우 Spark 작업이 계속 실행되고 읽은 내용이 계속 반환됩니다. Databricks Runtime 11.3 LTS 이상에서 사용할 수 있습니다.

기본값: false(COPY INTO의 경우 true)
modifiedAfter

형식: Timestamp String(예: 2021-01-01 00:00:00.000000 UTC+0)

제공된 타임스탬프 다음에 수정 타임스탬프가 있는 파일을 수집하는 선택적 타임스탬프입니다.

기본값: 없음
modifiedBefore

형식: Timestamp String(예: 2021-01-01 00:00:00.000000 UTC+0)

제공된 타임스탬프 이전의 수정 타임스탬프가 있는 파일을 수집하기 위한 선택적 타임스탬프입니다.

기본값: 없음
pathGlobFilter 또는 fileNamePattern

유형: String

파일 선택을 위해 제공할 잠재적인 glob 패턴입니다. 에 해당
COPY INTO에서 PATTERN 사용 fileNamePattern에서 사용할 수 있습니다.read_files

기본값: 없음
recursiveFileLookup

유형: Boolean

스키마 유추 중에 파티션 유추를 건너뛸지 여부입니다. 로드되는 파일에는 영향을 주지 않습니다.

기본값: false

JSON 옵션

옵션
allowBackslashEscapingAnyCharacter

유형: Boolean

백래시가 성공하는 모든 문자를 이스케이프할 수 있도록 허용할지 여부입니다. 사용하도록 설정하지 않으면 JSON 사양에 의해 명시적으로 나열된 문자만 이스케이프할 수 있습니다.

기본값: false
allowComments

유형: Boolean

구문 분석된 콘텐츠 내에서 Java, C, C++ 스타일 주석('/', '*''//' 변형)을 사용하도록 허용할지 여부입니다.

기본값: false
allowNonNumericNumbers

유형: Boolean

숫자가 아닌(NaN) 토큰 집합을 유효한 부동 숫자 값으로 허용할지 여부입니다.

기본값: true
allowNumericLeadingZeros

유형: Boolean

정수 값을 추가(무시할 수 있는) 0으로 시작할 수 있도록 허용할지 여부(예: 000001).

기본값: false
allowSingleQuotes

유형: Boolean

작은따옴표(아포스트로피, 문자 '\')를 따옴표 문자열(이름 및 문자열 값)에 사용하도록 허용할지 여부입니다.

기본값: true
allowUnquotedControlChars

유형: Boolean

JSON 문자열에 캡슐화되지 않은 컨트롤 문자(탭 및 줄 바꿈 문자를 포함하여 값이 32보다 작은 ASCII 문자)를 포함하도록 허용할지 여부입니다.

기본값: false
allowUnquotedFieldNames

유형: Boolean

따옴표가 지정되지 않은 필드 이름(JavaScript에서 허용되지만 JSON 사양에서는 허용되지 않음)의 사용을 허용할지 여부입니다.

기본값: false
badRecordsPath

유형: String

잘못된 JSON 레코드에 대한 정보를 기록하기 위한 파일을 저장하는 경로입니다.

기본값: 없음
columnNameOfCorruptRecord

유형: String

형식이 잘못되어 구문을 분석할 수 없는 레코드를 저장하기 위한 열입니다. 구문 분석에 대한 modeDROPMALFORMED로 설정되면 이 열은 비어 있습니다.

기본값: _corrupt_record
dateFormat

유형: String

날짜 문자열을 구문 분석하기 위한 형식입니다.

기본값: yyyy-MM-dd
dropFieldIfAllNull

유형: Boolean

스키마 유추 중에 모든 Null 값 또는 빈 배열 및 구조체의 열을 무시할지 여부입니다.

기본값: false
encoding 또는 charset

유형: String

JSON 파일 인코딩의 이름입니다. 옵션 목록은 java.nio.charset.Charset을 참조하세요. multilinetrue이면 UTF-16UTF-32를 사용할 수 없습니다.

기본값: UTF-8
inferTimestamp

유형: Boolean

타임스탬프 문자열을 TimestampType으로 유추할지 여부입니다. 로 설정된 경우
true스키마 유추는 눈에 띄게 오래 걸릴 수 있습니다. 자동 로더에서 사용할 수 있도록 설정 cloudFiles.inferColumnTypes 해야 합니다.

기본값: false
lineSep

유형: String

연속된 두 JSON 레코드 사이의 문자열입니다.

기본값: 없음(\r, \r\n, \n 포함)
locale

유형: String

java.util.Locale 식별자입니다. JSON 내의 기본 날짜, 타임스탬프, 10진수 구문 분석에 영향을 줍니다.

기본값: US
mode

유형: String

잘못된 형식의 레코드를 처리하는 파서 모드입니다. 다음 중 하나입니다. 'PERMISSIVE'
'DROPMALFORMED' 또는 'FAILFAST'입니다.

기본값: PERMISSIVE
multiLine

유형: Boolean

JSON 레코드가 여러 줄에 걸쳐 있는지 여부입니다.

기본값: false
prefersDecimal

유형: Boolean

가능하면 문자열 DecimalType 을 float 또는 double 형식 대신 유추하려고 시도합니다. 또한 스키마 유추를 사용하도록 설정하여 사용해야 합니다.
inferSchema또는 자동 로더와 함께 사용 cloudFiles.inferColumnTypes

기본값: false
primitivesAsString

유형: Boolean

숫자 및 부울과 같은 기본 형식을 StringType으로 유추할지 여부입니다.

기본값: false
readerCaseSensitive

유형: Boolean

rescuedDataColumn이 활성화된 경우 대/소문자 구분 동작을 지정합니다. true이면 스키마와 대/소문자를 구분하여 이름이 다른 데이터 열을 구합니다. 그렇지 않으면 대/소문자를 구분하지 않는 방식으로 데이터를 읽습니다. Databricks 런타임에서 사용 가능
13.3 이상.

기본값: true
rescuedDataColumn

유형: String

데이터 형식 불일치 또는 스키마 불일치(열 대/소문자 포함)로 인해 구문 분석할 수 없는 모든 데이터를 별도의 열에 수집할지 여부입니다. 이 열은 자동 로더를 사용할 때 기본적으로 포함됩니다. 자세한 내용은 복구된 데이터 열이란?을 참조하세요.

기본값: 없음
timestampFormat

유형: String

타임스탬프 문자열 구문 분석 형식입니다.

기본값: yyyy-MM-dd'T'HH:mm:ss[.SSS][XXX]
timeZone

유형: String

타임스탬프와 날짜를 구문 분석할 때 사용할 java.time.ZoneId입니다.

기본값: 없음

CSV 옵션

옵션
badRecordsPath

유형: String

잘못된 CSV 레코드에 대한 정보를 기록하기 위한 파일을 저장하는 경로입니다.

기본값: 없음
charToEscapeQuoteEscaping

유형: Char

따옴표를 이스케이프하는 데 사용되는 문자를 이스케이프하는 데 사용되는 문자입니다. 예를 들어 [ " a\\", b ] 레코드의 경우 다음과 같습니다.

* '\'를 이스케이프할 문자가 정의되지 않으면 레코드가 구문 분석되지 않습니다. 파서에서 [a],[\],["],[,],[ ],[b] 문자를 읽고 닫는 따옴표를 찾을 수 없으므로 오류를 throw합니다.
* '\'를 이스케이프할 문자가 '\'로 정의되면 레코드가 [a\][b]의 두 개 값으로 읽힙니다.

기본값: '\0'
columnNameOfCorruptRecord

> [! 참고] >> 자동 로더에 대해 지원됩니다. 에 대해 COPY INTO지원되지 않습니다.

유형: String

형식이 잘못되어 구문을 분석할 수 없는 레코드를 저장하기 위한 열입니다. 구문 분석에 대한 modeDROPMALFORMED로 설정되면 이 열은 비어 있습니다.

기본값: _corrupt_record
comment

유형: Char

텍스트 줄의 시작 부분에 있는 줄 주석을 나타내는 문자를 정의합니다. 주석 건너뛰기를 사용하지 않도록 설정하려면 '\0'을 사용합니다.

기본값: '\u0000'
dateFormat

유형: String

날짜 문자열을 구문 분석하기 위한 형식입니다.

기본값: yyyy-MM-dd
emptyValue

유형: String

빈 값의 문자열 표현입니다.

기본값: ""
encoding 또는 charset

유형: String

CSV 파일 인코딩 이름입니다. 옵션 목록은 java.nio.charset.Charset을 참조하세요. multilinetrue이면 UTF-16UTF-32를 사용할 수 없습니다.

기본값: UTF-8
enforceSchema

유형: Boolean

지정된 스키마 또는 유추된 스키마를 CSV 파일에 강제로 적용할지 여부입니다. 옵션을 사용하도록 설정하면 CSV 파일의 머리글이 무시됩니다. 이 옵션은 자동 로더를 사용하여 데이터를 복구하고 스키마 개선을 허용하는 경우 기본값으로 무시됩니다.

기본값: true
escape

유형: Char

데이터를 구문 분석할 때 사용할 이스케이프 문자입니다.

기본값: '\'
header

유형: Boolean

CSV 파일에 머리글이 포함되어 있는지 여부입니다. 자동 로더는 스키마를 유추할 때 파일에 머리글이 있다고 가정합니다.

기본값: false
ignoreLeadingWhiteSpace

유형: Boolean

구문 분석된 각 값의 선행 공백을 무시할지 여부입니다.

기본값: false
ignoreTrailingWhiteSpace

유형: Boolean

구문 분석된 각 값의 후행 공백을 무시할지 여부입니다.

기본값: false
inferSchema

유형: Boolean

구문 분석된 CSV 레코드의 데이터 형식을 유추할지 아니면 모든 열이 StringType이라고 가정할지 여부입니다. true로 설정되면 데이터를 추가로 전달해야 합니다. 자동 로더의 경우 대신 사용합니다 cloudFiles.inferColumnTypes .

기본값: false
lineSep

유형: String

연속된 두 CSV 레코드 사이의 문자열입니다.

기본값: 없음(\r, \r\n, \n 포함)
locale

유형: String

java.util.Locale 식별자입니다. CSV 내에서 기본 날짜, 타임스탬프, 10진수 구문 분석에 영향을 미칩니다.

기본값: US
maxCharsPerColumn

유형: Int

값에서 구문 분석할 최대 문자 수입니다. 메모리 오류를 방지하는 데 사용할 수 있습니다. 기본값은 -1이며 무제한을 의미합니다.

기본값: -1
maxColumns

유형: Int

레코드에 사용할 수 있는 열 수에 대한 하드 한도입니다.

기본값: 20480
mergeSchema

유형: Boolean

여러 파일에서 스키마를 유추하고 각 파일의 스키마를 병합할지 여부입니다. 스키마를 유추할 때 자동 로더에 대해 기본적으로 사용하도록 설정됩니다.

기본값: false
mode

유형: String

잘못된 형식의 레코드를 처리하는 파서 모드입니다. 다음 중 하나입니다. 'PERMISSIVE'
'DROPMALFORMED''FAILFAST'.

기본값: PERMISSIVE
multiLine

유형: Boolean

CSV 레코드가 여러 줄에 걸쳐 있는지 여부입니다.

기본값: false
nanValue

유형: String

FloatTypeDoubleType 열을 구문 분석할 때 숫자가 아닌 값에 대한 문자열 표현입니다.

기본값: "NaN"
negativeInf

유형: String

FloatType 또는 DoubleType 열을 구문 분석할 때 음의 무한대에 대한 문자열 표현입니다.

기본값: "-Inf"
nullValue

유형: String

Null 값의 문자열 표현입니다.

기본값: ""
parserCaseSensitive(더 이상 사용되지 않음)

유형: Boolean

파일을 읽는 동안 머리글에 선언된 열을 스키마 대/소문자를 구분하여 정렬할지 여부를 결정합니다. 자동 로더의 경우 기본적으로 true입니다. 사용하도록 설정되면 대/소문자가 다른 열이 rescuedDataColumn에서 복구됩니다. readerCaseSensitive를 위하여 이 옵션은 더 이상 사용되지 않습니다.

기본값: false
positiveInf

유형: String

FloatType 또는 DoubleType 열을 구문 분석할 때 양의 무한대에 대한 문자열 표현입니다.

기본값: "Inf"
preferDate

유형: Boolean

가능한 경우 문자열을 타임스탬프 대신 날짜로 유추하려고 시도합니다. 또한 스키마 유추를 사용하도록 설정하거나 사용하여 사용해야 합니다.inferSchema
cloudFiles.inferColumnTypes 자동 로더를 사용하여

기본값: true
quote

유형: Char

필드 구분 기호가 값의 일부인 값을 이스케이프하는 데 사용되는 문자입니다.

기본값: "
readerCaseSensitive

유형: Boolean

rescuedDataColumn이 활성화된 경우 대/소문자 구분 동작을 지정합니다. true이면 스키마와 대/소문자를 구분하여 이름이 다른 데이터 열을 구합니다. 그렇지 않으면 대/소문자를 구분하지 않는 방식으로 데이터를 읽습니다.

기본값: true
rescuedDataColumn

유형: String

데이터 형식 불일치 및 스키마 불일치(열 대/소문자 포함)로 인해 구문 분석할 수 없는 모든 데이터를 별도의 열에 수집할지 여부입니다. 이 열은 자동 로더를 사용할 때 기본적으로 포함됩니다. 자세한 내용은 복구된 데이터 열이란?을 참조하세요.

기본값: 없음
sep 또는 delimiter

유형: String

열 간 구분 기호 문자열입니다.

기본값: ","
skipRows

유형: Int

무시해야 하는 CSV 파일 시작 부분의 행 수입니다(주석이 추가된 행과 빈 행 포함). header가 true이면 헤더는 건너뛰지 않고 주석 처리되지 않은 첫 번째 행이 됩니다.

기본값: 0
timestampFormat

유형: String

타임스탬프 문자열 구문 분석 형식입니다.

기본값: yyyy-MM-dd'T'HH:mm:ss[.SSS][XXX]
timeZone

유형: String

타임스탬프와 날짜를 구문 분석할 때 사용할 java.time.ZoneId입니다.

기본값: 없음
unescapedQuoteHandling

유형: String

이스케이프되지 않은 따옴표를 처리하기 위한 전략입니다. 허용되는 옵션은 다음과 같습니다.

* STOP_AT_CLOSING_QUOTE: 이스케이프되지 않은 따옴표가 입력에 있는 경우 닫는 따옴표를 찾을 때까지 따옴표 문자를 누적하고 값을 따옴표로 묶은 값으로 구문 분석합니다.
* BACK_TO_DELIMITER: 이스케이프되지 않은 따옴표가 입력에 있는 경우 값을 따옴표가 없는 값으로 간주합니다. 이렇게 하면 sep에 정의된 구분 기호를 찾을 때까지 파서에서 현재 구문 분석된 값의 모든 문자를 누적합니다. 값에 구분 기호가 없으면 구분 기호 또는 줄 끝을 찾을 때까지 파서에서 입력으로부터 문자를 계속 누적합니다.
* STOP_AT_DELIMITER: 이스케이프되지 않은 따옴표가 입력에 있는 경우 값을 따옴표가 없는 값으로 간주합니다. 이렇게 하면 입력에서 sep에 정의된 구분 기호 또는 줄 끝을 찾을 때까지 파서에서 모든 문자를 누적합니다.
* SKIP_VALUE: 이스케이프되지 않은 따옴표가 입력에 있는 경우 지정된 값에 대해 구문 분석된 내용을 건너뛰고(다음 구분 기호를 찾을 때까지) nullValue에 설정된 값이 대신 생성됩니다.
* RAISE_ERROR: 이스케이프되지 않은 따옴표가 입력에 있는 경우
TextParsingException이 throw됩니다.

기본값: STOP_AT_DELIMITER

XML 옵션

옵션 설명 범위
rowTag 행으로 처리할 XML 파일의 행 태그입니다. 예제 XML <books> <book><book>...<books>에서 적절한 값은 .입니다 book. 필수 옵션입니다. 읽기
samplingRatio 스키마 유추에 사용되는 행의 일부를 정의합니다. XML 기본 제공 함수는 이 옵션을 무시합니다. 기본값: 1.0. 읽기
excludeAttribute 요소에서 특성을 제외할지 여부입니다. 기본값: false. 읽기
mode 구문 분석 중에 손상된 레코드를 처리하는 모드입니다.

PERMISSIVE: 손상된 레코드의 경우 형식이 잘못된 문자열을 구성한 columnNameOfCorruptRecord필드에 넣고 형식이 잘못된 필드를 null.로 설정합니다. 손상된 레코드를 유지하려면 사용자 정의 스키마에 명명된 columnNameOfCorruptRecord 형식 필드를 설정할 string 수 있습니다. 스키마에 필드가 없으면 구문 분석 중에 손상된 레코드가 삭제됩니다. 스키마를 유추할 때 파서는 출력 스키마에 필드를 암시적으로 추가합니다 columnNameOfCorruptRecord .

DROPMALFORMED: 손상된 레코드를 무시합니다. 이 모드는 XML 기본 제공 함수에 대해 지원되지 않습니다.

FAILFAST: 파서가 손상된 레코드를 충족할 때 예외를 throw합니다.
읽기
inferSchema 이 경우 true결과 데이터 프레임 열마다 적절한 형식을 유추하려고 합니다. 이 경우 false모든 결과 열이 형식입니다 string . 기본값:
true. XML 기본 제공 함수는 이 옵션을 무시합니다.
읽기
columnNameOfCorruptRecord 만든 형식이 잘못된 문자열을 포함하는 새 필드의 이름을 바꾸도록 허용합니다.
PERMISSIVE 모드. 기본값: spark.sql.columnNameOfCorruptRecord.
읽기
attributePrefix 특성과 요소를 구분하는 특성의 접두사입니다. 필드 이름의 접두사입니다. 기본값은 _입니다. XML을 읽는 경우 비워 둘 수 있지만 쓰기에는 비워 둘 수 없습니다. 읽기, 쓰기
valueTag 특성 또는 자식 요소도 있는 요소 내의 문자 데이터에 사용되는 태그입니다. 사용자는 스키마에서 valueTag 필드를 지정할 수 있습니다. 또는 문자 데이터가 다른 요소 또는 특성이 있는 요소에 있을 때 스키마 유추 중에 자동으로 추가됩니다. 기본값: _VALUE 읽기, 쓰기
encoding 읽기를 위해 지정된 인코딩 형식으로 XML 파일을 디코딩합니다. 쓰기의 경우 저장된 XML 파일의 인코딩(charset)을 지정합니다. XML 기본 제공 함수는 이 옵션을 무시합니다. 기본값: UTF-8. 읽기, 쓰기
ignoreSurroundingSpaces 읽는 값의 주변 공백을 건너뛸지 여부를 정의합니다. 기본값: true. 공백 전용 문자 데이터는 무시됩니다. 읽기
rowValidationXSDPath 각 행에 대한 XML의 유효성을 개별적으로 검사하는 데 사용되는 선택적 XSD 파일의 경로입니다. 유효성 검사에 실패한 행은 위와 같이 구문 분석 오류로 처리됩니다. 그렇지 않으면 XSD가 제공되거나 유추된 스키마에 영향을 주지 않습니다. 읽기
ignoreNamespace 이 경우 trueXML 요소 및 특성에 대한 네임스페이스의 접두사는 무시됩니다. 예를 들어 태그와 <abc:author><def:author>태그는 둘 다 그냥 <author>있는 것처럼 처리됩니다. 네임스페이스는 요소에서 rowTag 무시할 수 없으며 해당 읽기 자식만 무시할 수 있습니다. XML 구문 분석이 네임스페이스를 인식하지 false못합니다. 기본값: false. 읽기
timestampFormat datetime 패턴 형식을 따르는 사용자 지정 타임스탬프 형식 문자열입니다. 이는 형식에 timestamp 적용됩니다. 기본값: yyyy-MM-dd'T'HH:mm:ss[.SSS][XXX]. 읽기, 쓰기
timestampNTZFormat datetime 패턴 형식을 따르는 표준 시간대가 없는 타임스탬프에 대한 사용자 지정 형식 문자열입니다. TimestampNTZType 형식에 적용됩니다. 기본값:
yyyy-MM-dd'T'HH:mm:ss[.SSS]
읽기, 쓰기
dateFormat datetime 패턴 형식을 따르는 사용자 지정 날짜 형식 문자열입니다. 이는 날짜 형식에 적용됩니다. 기본값: yyyy-MM-dd. 읽기, 쓰기
locale 로캘을 IETF BCP 47 형식의 언어 태그로 설정합니다. 예를 들어 locale 날짜 및 타임스탬프를 구문 분석하는 동안 사용됩니다. 기본값: en-US. 읽기
rootTag XML 파일의 루트 태그입니다. 예를 들어 , 에서 <books> <book><book>...</books>적절한 값은 .입니다 books. 다음과 같은 books foo="bar"값을 지정하여 기본 특성을 포함할 수 있습니다. 기본값: ROWS. 쓰기
declaration 모든 출력 XML 파일 rootTag의 시작 부분에 쓸 XML 선언의 내용입니다. 예를 들어 작성할 원인 <?xml foo?>foo 값입니다. 표시하지 않을 빈 문자열로 설정합니다. 기본값: version="1.0"
encoding="UTF-8" standalone="yes".
쓰기
arrayElementName 쓸 때 배열 반환 열의 각 요소를 묶는 XML 요소의 이름입니다. 기본값: item. 쓰기
nullValue null 값의 문자열 표현을 설정합니다. 기본값: string null. 이 경우 null파서는 필드에 대한 특성 및 요소를 작성하지 않습니다. 읽기, 쓰기
compression 파일에 저장할 때 사용할 압축 코드입니다. 이는 알려진 대/소문자를 구분하지 않는 단축된 이름(none, , bzip2,gziplz4, snappy', and<br>deflate') 중 하나일 수 있습니다. XML 기본 제공 함수는 이 옵션을 무시합니다. 기본값: none. 쓰기
validateName true이면 XML 요소 이름 유효성 검사 실패에 대한 오류가 발생합니다. 예를 들어 SQL 필드 이름에는 공백이 있을 수 있지만 XML 요소 이름은 사용할 수 없습니다. 기본값:
true.
쓰기
readerCaseSensitive rescuedDataColumn을 사용할 때의 대/소문자 구분 동작을 지정합니다. true이면 스키마와 대/소문자를 구분하여 이름이 다른 데이터 열을 구합니다. 그렇지 않으면 대/소문자를 구분하지 않는 방식으로 데이터를 읽습니다. 기본값: true. 읽기
rescuedDataColumn 데이터 형식 불일치 및 스키마 불일치(열 대/소문자 포함)로 인해 구문 분석할 수 없는 모든 데이터를 별도의 열에 수집할지 여부입니다. 이 열은 자동 로더를 사용할 때 기본적으로 포함됩니다. 자세한 내용은 구조된 데이터 열이란?을 참조하세요. 기본값: 없음. 읽기

PARQUET 옵션

옵션
datetimeRebaseMode

유형: String

율리우스력과 그레고리력 사이의 날짜 및 타임스탬프 값 기준 다시 지정을 제어합니다. 허용되는 값: EXCEPTION, LEGACY
CORRECTED.

기본값: LEGACY
int96RebaseMode

유형: String

율리우스력과 그레고리력 사이의 INT96 타임스탬프 값 기준 다시 지정을 제어합니다. 허용되는 값: EXCEPTION, LEGACY
CORRECTED.

기본값: LEGACY
mergeSchema

유형: Boolean

여러 파일에서 스키마를 유추하고 각 파일의 스키마를 병합할지 여부입니다.

기본값: false
readerCaseSensitive

유형: Boolean

rescuedDataColumn이 활성화된 경우 대/소문자 구분 동작을 지정합니다. true이면 스키마와 대/소문자를 구분하여 이름이 다른 데이터 열을 구합니다. 그렇지 않으면 대/소문자를 구분하지 않는 방식으로 데이터를 읽습니다.

기본값: true
rescuedDataColumn

유형: String

데이터 형식 불일치 및 스키마 불일치(열 대/소문자 포함)로 인해 구문 분석할 수 없는 모든 데이터를 별도의 열에 수집할지 여부입니다. 이 열은 자동 로더를 사용할 때 기본적으로 포함됩니다. 자세한 내용은 복구된 데이터 열이란?을 참조하세요.

기본값: 없음

AVRO 옵션

옵션
avroSchema

유형: String

사용자가 Avro 형식으로 제공하는 선택적 스키마입니다. Avro를 읽을 때 이 옵션은 실제 Avro 스키마와 호환되지만 다른 개선된 스키마로 설정할 수 있습니다. 역직렬화 스키마는 개선된 스키마와 일치합니다. 예를 들어 기본값이 있는 하나의 추가 열을 포함하는 개선된 스키마를 설정하는 경우 읽기 결과에도 새 열이 포함됩니다.

기본값: 없음
datetimeRebaseMode

유형: String

율리우스력과 그레고리력 사이의 날짜 및 타임스탬프 값 기준 다시 지정을 제어합니다. 허용되는 값: EXCEPTION, LEGACY
CORRECTED.

기본값: LEGACY
mergeSchema

유형: Boolean

여러 파일에서 스키마를 유추하고 각 파일의 스키마를 병합할지 여부입니다.
Avro에 대한 mergeSchema는 데이터 형식을 완화하지 않습니다.

기본값: false
readerCaseSensitive

유형: Boolean

rescuedDataColumn이 활성화된 경우 대/소문자 구분 동작을 지정합니다. true이면 스키마와 대/소문자를 구분하여 이름이 다른 데이터 열을 구합니다. 그렇지 않으면 대/소문자를 구분하지 않는 방식으로 데이터를 읽습니다.

기본값: true
rescuedDataColumn

유형: String

데이터 형식 불일치 및 스키마 불일치(열 대/소문자 포함)로 인해 구문 분석할 수 없는 모든 데이터를 별도의 열에 수집할지 여부입니다. 이 열은 자동 로더를 사용할 때 기본적으로 포함됩니다. 자세한 내용은 복구된 데이터 열이란?을 참조하세요.

기본값: 없음

BINARYFILE 옵션

이진 파일에는 추가 구성 옵션이 없습니다.

TEXT 옵션

옵션
encoding

유형: String

텍스트 파일의 인코딩 이름입니다. 옵션 목록은 java.nio.charset.Charset을 참조하세요.

기본값: UTF-8
lineSep

유형: String

연속된 두 텍스트 레코드 사이의 문자열입니다.

기본값: 없음(\r, \r\n, \n 포함)
wholeText

유형: Boolean

파일을 단일 레코드로 읽을지 여부입니다.

기본값: false

ORC 옵션

옵션
mergeSchema

유형: Boolean

여러 파일에서 스키마를 유추하고 각 파일의 스키마를 병합할지 여부입니다.

기본값: false