Share via


Opties voor automatisch laden

Configuratieopties die specifiek zijn voor de cloudFiles bron, worden voorafgegaan door cloudFiles , zodat ze zich in een afzonderlijke naamruimte bevinden van andere opties voor gestructureerd streamen.

Algemene opties voor automatisch laden

U kunt de volgende opties configureren voor de meldingsmodus van mappen of bestanden.

Optie
cloudFiles.allowOverwrites

Type: Boolean

Hiermee wordt aangegeven of wijzigingen in het invoermapbestand bestaande gegevens moeten worden overschreven.

Er zijn enkele opmerkingen met betrekking tot het inschakelen van deze configuratie. Raadpleeg de veelgestelde vragen over autolaadprogramma's voor meer informatie.

Standaardwaarde: false
cloudFiles.backfillInterval

Type: Interval String

Automatische laadprogramma's kunnen asynchrone backfills activeren met een bepaald interval,
1 day bijvoorbeeld om eenmaal per dag in te vullen of 1 week om een keer per week in te vullen. Meldingssystemen voor bestandsgebeurtenissen garanderen geen 100% levering van alle bestanden die zijn geüpload. Daarom kunt u backfills gebruiken om te garanderen dat alle bestanden uiteindelijk worden verwerkt, beschikbaar in Databricks Runtime 8.4 (niet ondersteund) en hoger.

Standaardwaarde: Geen
cloudFiles.format

Type: String

De indeling van het gegevensbestand in het bronpad. Toegestane waarden zijn:

* avro: Avro-bestand
* binaryFile: Binair bestand
* csv: Lezen en schrijven naar CSV-bestanden
* json: JSON-bestand
* orc: ORC-bestand
* parquet: Parquet-bestanden lezen met Azure Databricks
* text: Tekstbestand

Standaardwaarde: Geen (vereiste optie)
cloudFiles.includeExistingFiles

Type: Boolean

Of u bestaande bestanden in het invoerpad voor stroomverwerking wilt opnemen of alleen nieuwe bestanden wilt verwerken die binnenkomen na de eerste installatie. Deze optie wordt alleen geëvalueerd wanneer u een stream voor de eerste keer start. Als u deze optie wijzigt nadat de stream opnieuw is opgestart, heeft dit geen effect.

Standaardwaarde: true
cloudFiles.inferColumnTypes

Type: Boolean

Of u exacte kolomtypen wilt afleiden bij het gebruik van schemadeductie. Kolommen worden standaard afgeleid als tekenreeksen bij het uitstellen van JSON- en CSV-gegevenssets. Zie schemadeductie voor meer informatie.

Standaardwaarde: false
cloudFiles.maxBytesPerTrigger

Type: Byte String

Het maximum aantal nieuwe bytes dat in elke trigger moet worden verwerkt. U kunt een bytetekenreeks opgeven, bijvoorbeeld 10g om elke microbatch te beperken tot 10 GB aan gegevens. Dit is een zacht maximum. Als u bestanden hebt die elk 3 GB zijn, verwerkt Azure Databricks 12 GB in een microbatch. Wanneer Azure Databricks samen wordt cloudFiles.maxFilesPerTriggergebruikt, verbruikt azure databricks tot de ondergrens van of cloudFiles.maxBytesPerTrigger, afhankelijk van cloudFiles.maxFilesPerTrigger wat het eerst wordt bereikt. Deze optie heeft geen effect wanneer deze wordt gebruikt met Trigger.Once() (afgeschaft).

Standaardwaarde: Geen
cloudFiles.maxFileAge

Type: Interval String

Hoe lang een bestandsgebeurtenis wordt bijgehouden voor ontdubbelingsdoeleinden. Databricks raadt u aan deze parameter niet af te stemmen, tenzij u gegevens opneemt in de volgorde van miljoenen bestanden per uur. Zie de sectie over gebeurtenisretentie voor meer informatie.

Het afstemmen cloudFiles.maxFileAge kan te agressief leiden tot problemen met gegevenskwaliteit, zoals dubbele opname of ontbrekende bestanden. Daarom raadt Databricks een conservatieve instelling aan voor cloudFiles.maxFileAge, zoals 90 dagen, die vergelijkbaar is met wat vergelijkbare oplossingen voor gegevensopname aanbevelen.

Standaardwaarde: Geen
cloudFiles.maxFilesPerTrigger

Type: Integer

Het maximum aantal nieuwe bestanden dat in elke trigger moet worden verwerkt. Wanneer Azure Databricks samen wordt cloudFiles.maxBytesPerTriggergebruikt, verbruikt azure databricks tot de ondergrens van of cloudFiles.maxBytesPerTrigger, afhankelijk van cloudFiles.maxFilesPerTrigger wat het eerst wordt bereikt. Deze optie heeft geen effect wanneer deze wordt gebruikt met Trigger.Once() (afgeschaft).

Standaardwaarde: 1000
cloudFiles.partitionColumns

Type: String

Een door komma's gescheiden lijst met partitiekolommen in Hive-stijl die u wilt afleiden uit de mapstructuur van de bestanden. Partitiekolommen in Hive-stijl zijn sleutel-waardeparen gecombineerd door een gelijkheidsteken zoals
<base-path>/a=x/b=1/c=y/file.format. In dit voorbeeld zijn ade partitiekolommen , ben c. Deze kolommen worden standaard automatisch toegevoegd aan uw schema als u schemadeductie gebruikt en de gegevens uit het <base-path> schema laadt. Als u een schema opgeeft, verwacht Auto Loader dat deze kolommen worden opgenomen in het schema. Als u deze kolommen niet wilt gebruiken als onderdeel van uw schema, kunt u deze kolommen negeren "" . Daarnaast kunt u deze optie gebruiken als u wilt dat kolommen het bestandspad in complexe mapstructuren worden afgeleid, zoals in het onderstaande voorbeeld:

<base-path>/year=2022/week=1/file1.csv
<base-path>/year=2022/month=2/day=3/file2.csv
<base-path>/year=2022/month=2/day=4/file3.csv

cloudFiles.partitionColumns Opgeven zoals year,month,day wordt geretourneerd
year=2022 voor file1.csv, maar de month en day kolommen zijn null.
month en day wordt correct geparseerd voor file2.csv en file3.csv.

Standaardwaarde: Geen
cloudFiles.schemaEvolutionMode

Type: String

De modus voor het ontwikkelen van het schema als nieuwe kolommen worden gedetecteerd in de gegevens. Standaard worden kolommen afgeleid als tekenreeksen bij het uitstellen van JSON-gegevenssets. Zie de ontwikkeling van schema's voor meer informatie.

Standaardwaarde: "addNewColumns" wanneer er geen schema wordt opgegeven.
"none" Anders.
cloudFiles.schemaHints

Type: String

Schema-informatie die u tijdens schemadeductie aan autolaadprogramma's verstrekt. Zie schemahints voor meer informatie.

Standaardwaarde: Geen
cloudFiles.schemaLocation

Type: String

De locatie voor het opslaan van het afgeleid schema en de volgende wijzigingen. Zie schemadeductie voor meer informatie.

Standaardwaarde: Geen (vereist bij het uitstellen van het schema)
cloudFiles.useStrictGlobber

Type: Boolean

Of u een strikte globber wilt gebruiken die overeenkomt met het standaardgedrag voor globbing van andere bestandsbronnen in Apache Spark. Zie Algemene patronen voor het laden van gegevens voor meer informatie. Beschikbaar in Databricks Runtime 12.2 LTS en hoger.

Standaardwaarde: false
cloudFiles.validateOptions

Type: Boolean

Of u opties voor automatisch laadprogramma wilt valideren en een fout wilt retourneren voor onbekende of inconsistente opties.

Standaardwaarde: true

Opties voor adreslijstvermelding

De volgende opties zijn relevant voor de lijstweergavemodus.

Optie
cloudFiles.useIncrementalListing (afgeschaft)

Type: String

Deze functie is afgeschaft. Databricks raadt aan om de modus voor bestandsmeldingen te gebruiken in plaats van
cloudFiles.useIncrementalListing.

Of u de incrementele vermelding wilt gebruiken in plaats van de volledige vermelding in de modus voor adreslijstvermeldingen. Automatisch laden doet standaard het beste om automatisch te detecteren of een bepaalde map van toepassing is op de incrementele vermelding. U kunt de incrementele vermelding expliciet gebruiken of de volledige adreslijstvermelding gebruiken door deze in te stellen als true of false respectievelijk.

Het onjuist inschakelen van incrementele vermeldingen in een niet-lexisch geordende map voorkomt dat Auto Loader nieuwe bestanden ontdekt.

Werkt met Azure Data Lake Storage Gen2 (abfss://), S3 (s3://) en GCS (gs://).

Beschikbaar in Databricks Runtime 9.1 LTS en hoger.

Standaardwaarde: auto

Beschikbare waarden: auto, truefalse

Opties voor bestandsmeldingen

De volgende opties zijn relevant voor de meldingsmodus voor bestanden.

Optie
cloudFiles.fetchParallelism

Type: Integer

Het aantal threads dat moet worden gebruikt bij het ophalen van berichten uit de wachtrijservice.

Standaardwaarde: 1
cloudFiles.pathRewrites

Type: Een JSON-tekenreeks

Alleen vereist als u een queueUrl bestand opgeeft dat bestandsmeldingen van meerdere S3-buckets ontvangt en u koppelpunten wilt gebruiken die zijn geconfigureerd voor toegang tot gegevens in deze containers. Gebruik deze optie om het voorvoegsel van het bucket/key pad opnieuw te schrijven met het koppelpunt. Alleen voorvoegsels kunnen opnieuw worden geschreven. Bijvoorbeeld voor de configuratie
{"<databricks-mounted-bucket>/path": "dbfs:/mnt/data-warehouse"}, het pad
s3://<databricks-mounted-bucket>/path/2017/08/fileA.json wordt herschreven naar dbfs:/mnt/data-warehouse/2017/08/fileA.json.

Standaardwaarde: Geen
cloudFiles.resourceTag

Type: Map(String, String)

Een reeks sleutel-waardetagparen om gerelateerde resources te koppelen en te identificeren, bijvoorbeeld:

cloudFiles.option("cloudFiles.resourceTag.myFirstKey", "myFirstValue")
.option("cloudFiles.resourceTag.mySecondKey", "mySecondValue")

Zie Amazon SQS-tags voor kostentoewijzing en tags configureren voor een Amazon SNS-onderwerp voor meer informatie over AWS. (1)

Zie Naamgevingswachtrijen en metagegevens en de dekking in properties.labels gebeurtenisabonnementen voor meer informatie over Azure. Auto Loader slaat deze sleutel-waarde tagparen op in JSON als labels. (1)

Zie Rapportagegebruik met labels voor meer informatie over GCP. (1)

Standaardwaarde: Geen
cloudFiles.useNotifications

Type: Boolean

Of u de modus voor bestandsmeldingen wilt gebruiken om te bepalen wanneer er nieuwe bestanden zijn. Als false, gebruikt u de modus voor het weergeven van mappen. Zie Hoe automatische laadprogramma's werken.

Standaardwaarde: false

(1) Automatisch laadprogramma voegt standaard de volgende sleutel-waarde tagparen toe op basis van best effort:

  • vendor: Databricks
  • path: de locatie waar de gegevens worden geladen. Niet beschikbaar in GCP vanwege labelbeperkingen.
  • checkpointLocation: De locatie van het controlepunt van de stream. Niet beschikbaar in GCP vanwege labelbeperkingen.
  • streamId: Een wereldwijd unieke id voor de stream.

Deze sleutelnamen zijn gereserveerd en u kunt hun waarden niet overschrijven.

Opties voor bestandsindeling

Met Automatisch laden kunt u bestanden opnemenJSON, , CSV, PARQUETAVRO, , TEXTen BINARYFILEORC bestanden.

Algemene opties

De volgende opties zijn van toepassing op alle bestandsindelingen.

Optie
ignoreCorruptFiles

Type: Boolean

Of beschadigde bestanden moeten worden genegeerd. Indien waar, worden de Spark-taken nog steeds uitgevoerd wanneer er beschadigde bestanden worden aangeroepen en de inhoud die is gelezen nog steeds wordt geretourneerd. Waarneembaar zoals numSkippedCorruptFiles in de
operationMetrics kolom van de Delta Lake-geschiedenis. Beschikbaar in Databricks Runtime 11.3 LTS en hoger.

Standaardwaarde: false
ignoreMissingFiles

Type: Boolean

Of ontbrekende bestanden moeten worden genegeerd. Indien waar, blijven de Spark-taken worden uitgevoerd wanneer er ontbrekende bestanden optreden en wordt de inhoud die is gelezen nog steeds geretourneerd. Beschikbaar in Databricks Runtime 11.3 LTS en hoger.

Standaardwaarde: false (true voor COPY INTO)
modifiedAfter

Type: Timestamp Stringbijvoorbeeld 2021-01-01 00:00:00.000000 UTC+0

Een optionele tijdstempel voor het opnemen van bestanden met een wijzigingstijdstempel na de opgegeven tijdstempel.

Standaardwaarde: Geen
modifiedBefore

Type: Timestamp Stringbijvoorbeeld 2021-01-01 00:00:00.000000 UTC+0

Een optionele tijdstempel voor het opnemen van bestanden met een wijzigingstijdstempel vóór de opgegeven tijdstempel.

Standaardwaarde: Geen
pathGlobFilter of fileNamePattern

Type: String

Een potentieel globpatroon om bestanden te kiezen. Gelijk aan
PATTERN in COPY INTO. fileNamePattern kan worden gebruikt in read_files.

Standaardwaarde: Geen
recursiveFileLookup

Type: Boolean

Of partitiedeductie tijdens schemadeductie moet worden overgeslagen. Dit heeft geen invloed op welke bestanden worden geladen.

Standaardwaarde: false

JSON Opties

Optie
allowBackslashEscapingAnyCharacter

Type: Boolean

Of backslashes mogen ontsnappen aan elk teken dat slaagt. Als dit niet is ingeschakeld, kunnen alleen tekens die expliciet worden vermeld door de JSON-specificatie, worden ontsnapt.

Standaardwaarde: false
allowComments

Type: Boolean

Of het gebruik van opmerkingen in java-, C- en C++-stijl ('/', '*'en '//' variëteiten) binnen geparseerde inhoud al dan niet is toegestaan.

Standaardwaarde: false
allowNonNumericNumbers

Type: Boolean

Hiermee wordt aangegeven of de set tokens zonder getal (NaN) mag worden toegestaan als juridische zwevende getalwaarden.

Standaardwaarde: true
allowNumericLeadingZeros

Type: Boolean

Of u wilt toestaan dat integrale getallen beginnen met extra (negeerbare) nullen (bijvoorbeeld 000001).

Standaardwaarde: false
allowSingleQuotes

Type: Boolean

Hiermee wordt aangegeven of het gebruik van enkele aanhalingstekens (apostrof, teken '\') moet worden gebruikt voor het aanhalen van tekenreeksen (namen en tekenreekswaarden).

Standaardwaarde: true
allowUnquotedControlChars

Type: Boolean

Of JSON-tekenreeksen niet-gescaped besturingstekens bevatten (ASCII-tekens met een waarde kleiner dan 32, inclusief tab- en regelinvoertekens) of niet.

Standaardwaarde: false
allowUnquotedFieldNames

Type: Boolean

Of u het gebruik van niet-aanhalingeerde veldnamen wilt toestaan (die zijn toegestaan door JavaScript, maar niet door de JSON-specificatie).

Standaardwaarde: false
badRecordsPath

Type: String

Het pad naar het opslaan van bestanden voor het vastleggen van de informatie over ongeldige JSON-records.

Standaardwaarde: Geen
columnNameOfCorruptRecord

Type: String

De kolom voor het opslaan van records die ongeldig zijn en die niet kunnen worden geparseerd. Als het mode voor parseren is ingesteld als DROPMALFORMED, is deze kolom leeg.

Standaardwaarde: _corrupt_record
dateFormat

Type: String

De notatie voor het parseren van datumtekenreeksen.

Standaardwaarde: yyyy-MM-dd
dropFieldIfAllNull

Type: Boolean

Of kolommen van alle null-waarden of lege matrices en structs tijdens schemadeductie moeten worden genegeerd.

Standaardwaarde: false
encoding of charset

Type: String

De naam van de codering van de JSON-bestanden. Zie java.nio.charset.Charset voor een lijst met opties. U kunt niet gebruiken UTF-16 en UTF-32 wanneer multiline is true.

Standaardwaarde: UTF-8
inferTimestamp

Type: Boolean

Of u tijdstempeltekenreeksen wilt afleiden als een TimestampType. Wanneer ingesteld op
true, kan het aanzienlijk langer duren voordat schemadeductie aanzienlijk langer duurt. U moet inschakelen cloudFiles.inferColumnTypes voor gebruik met automatisch laden.

Standaardwaarde: false
lineSep

Type: String

Een tekenreeks tussen twee opeenvolgende JSON-records.

Standaardwaarde: Geen, die betrekking heeft \rop , \r\nen \n
locale

Type: String

Een java.util.Locale id. Beïnvloedt de standaarddatum, tijdstempel en decimale parsering binnen de JSON.

Standaardwaarde: US
mode

Type: String

Parsermodus voor het verwerken van onjuiste records. Eén van 'PERMISSIVE',
'DROPMALFORMED', of 'FAILFAST'.

Standaardwaarde: PERMISSIVE
multiLine

Type: Boolean

Of de JSON-records meerdere regels omvatten.

Standaardwaarde: false
prefersDecimal

Type: Boolean

Probeert tekenreeksen af te stellen zoals DecimalType in plaats van float of dubbel type, indien mogelijk. U moet ook schemadeductie gebruiken door het inschakelen van
inferSchema of met cloudFiles.inferColumnTypes automatisch laadprogramma gebruiken.

Standaardwaarde: false
primitivesAsString

Type: Boolean

Of primitieve typen als getallen en booleaanse waarden moeten worden afgeleid.StringType

Standaardwaarde: false
readerCaseSensitive

Type: Boolean

Hiermee geeft u het hoofdlettergevoeligheidsgedrag op wanneer rescuedDataColumn deze is ingeschakeld. Indien waar, redt u de gegevenskolommen waarvan de namen verschillen per geval van het schema; lees anders de gegevens op een niet-hoofdlettergevoelige manier. Beschikbaar in Databricks Runtime
13.3 en hoger.

Standaardwaarde: true
rescuedDataColumn

Type: String

Of u alle gegevens wilt verzamelen die niet kunnen worden geparseerd als gevolg van een niet-overeenkomend gegevenstype of niet-overeenkomende schema's (inclusief kolombehuizing) naar een afzonderlijke kolom. Deze kolom wordt standaard opgenomen bij het gebruik van automatisch laden. Raadpleeg wat is de kolom met geredde gegevens voor meer informatie.

Standaardwaarde: Geen
timestampFormat

Type: String

De notatie voor tijdstempeltekenreeksen parseren.

Standaardwaarde: yyyy-MM-dd'T'HH:mm:ss[.SSS][XXX]
timeZone

Type: String

De java.time.ZoneId te gebruiken bij het parseren van tijdstempels en datums.

Standaardwaarde: Geen

CSV Opties

Optie
badRecordsPath

Type: String

Het pad naar het opslaan van bestanden voor het vastleggen van de informatie over ongeldige CSV-records.

Standaardwaarde: Geen
charToEscapeQuoteEscaping

Type: Char

Het teken dat wordt gebruikt om te ontsnappen aan het teken dat wordt gebruikt voor escape-aanhalingstekens. Bijvoorbeeld voor de volgende record: [ " a\\", b ]

* Als het teken om te ontsnappen aan het '\' teken niet is gedefinieerd, wordt de record niet geparseerd. De parser leest tekens en [a],[\],["],[,],[ ],[b] genereert een fout omdat er geen slotcitaat kan worden gevonden.
* Als het teken om te ontsnappen aan de '\' is gedefinieerd, '\'wordt de record gelezen met 2 waarden: [a\] en [b].

Standaardwaarde: '\0'
columnNameOfCorruptRecord

> [! OPMERKING] >> Ondersteund voor automatisch laden. Niet ondersteund voor COPY INTO.

Type: String

De kolom voor het opslaan van records die ongeldig zijn en die niet kunnen worden geparseerd. Als het mode voor parseren is ingesteld als DROPMALFORMED, is deze kolom leeg.

Standaardwaarde: _corrupt_record
comment

Type: Char

Hiermee definieert u het teken dat een regelcommentaar aangeeft wanneer deze wordt gevonden aan het begin van een tekstregel. Hiermee '\0' schakelt u het overslaan van opmerkingen uit.

Standaardwaarde: '\u0000'
dateFormat

Type: String

De notatie voor het parseren van datumtekenreeksen.

Standaardwaarde: yyyy-MM-dd
emptyValue

Type: String

Tekenreeksweergave van een lege waarde.

Standaardwaarde: ""
encoding of charset

Type: String

De naam van de codering van de CSV-bestanden. Zie java.nio.charset.Charset voor de lijst met opties. UTF-16en UTF-32 kan niet worden gebruikt wanneer multiline .true

Standaardwaarde: UTF-8
enforceSchema

Type: Boolean

Of u het opgegeven of afgeleid schema geforceerd wilt toepassen op de CSV-bestanden. Als de optie is ingeschakeld, worden headers van CSV-bestanden genegeerd. Deze optie wordt standaard genegeerd wanneer u AutoLoader gebruikt om gegevens te redden en schemaontwikkeling mogelijk te maken.

Standaardwaarde: true
escape

Type: Char

Het escape-teken dat moet worden gebruikt bij het parseren van de gegevens.

Standaardwaarde: '\'
header

Type: Boolean

Of de CSV-bestanden een koptekst bevatten. Auto Loader gaat ervan uit dat bestanden headers hebben bij het uitstellen van het schema.

Standaardwaarde: false
ignoreLeadingWhiteSpace

Type: Boolean

Of u voorloopspaties voor elke geparseerde waarde wilt negeren.

Standaardwaarde: false
ignoreTrailingWhiteSpace

Type: Boolean

Hiermee wordt aangegeven of u volgspaties voor elke geparseerde waarde wilt negeren.

Standaardwaarde: false
inferSchema

Type: Boolean

Of u de gegevenstypen van de geparseerde CSV-records wilt afleiden of ervan wilt uitgaan dat alle kolommen van StringTypezijn. Vereist een extra pass over de gegevens indien ingesteld op true. Gebruik in plaats daarvan voor autolaadprogramma's cloudFiles.inferColumnTypes .

Standaardwaarde: false
lineSep

Type: String

Een tekenreeks tussen twee opeenvolgende CSV-records.

Standaardwaarde: Geen, die betrekking heeft \rop , \r\nen \n
locale

Type: String

Een java.util.Locale id. Beïnvloedt de standaarddatum, tijdstempel en decimale parsering in het CSV-bestand.

Standaardwaarde: US
maxCharsPerColumn

Type: Int

Maximum aantal tekens dat wordt verwacht van een waarde om te parseren. Kan worden gebruikt om geheugenfouten te voorkomen. Standaard ingesteld -1op , wat onbeperkt betekent.

Standaardwaarde: -1
maxColumns

Type: Int

De vaste limiet van het aantal kolommen dat een record kan hebben.

Standaardwaarde: 20480
mergeSchema

Type: Boolean

Of u het schema wilt afleiden over meerdere bestanden en het schema van elk bestand wilt samenvoegen. Standaard ingeschakeld voor automatisch laden bij het uitstellen van het schema.

Standaardwaarde: false
mode

Type: String

Parsermodus voor het verwerken van onjuiste records. Eén van 'PERMISSIVE',
'DROPMALFORMED', en 'FAILFAST'.

Standaardwaarde: PERMISSIVE
multiLine

Type: Boolean

Of de CSV-records meerdere regels omvatten.

Standaardwaarde: false
nanValue

Type: String

De tekenreeksweergave van een niet-een-getalwaarde bij het parseren FloatType en DoubleType kolommen.

Standaardwaarde: "NaN"
negativeInf

Type: String

De tekenreeksweergave van negatief oneindigheid bij het parseren FloatType of DoubleType kolommen.

Standaardwaarde: "-Inf"
nullValue

Type: String

Tekenreeksweergave van een null-waarde.

Standaardwaarde: ""
parserCaseSensitive (afgeschaft)

Type: Boolean

Tijdens het lezen van bestanden, of kolommen moeten worden uitgelijnd in de koptekst met het schema, hoofdlettergevoelig. Dit is true standaard voor autolaadprogramma's. Kolommen die per geval verschillen, worden in de rescuedDataColumn indien ingeschakelde kolom gered. Deze optie is afgeschaft ten gunste van readerCaseSensitive.

Standaardwaarde: false
positiveInf

Type: String

De tekenreeksweergave van positief oneindigheid bij het parseren FloatType of DoubleType kolommen.

Standaardwaarde: "Inf"
preferDate

Type: Boolean

Probeert tekenreeksen af te stellen als datums in plaats van tijdstempel, indien mogelijk. U moet ook schemadeductie gebruiken door het inschakelen inferSchema of gebruiken van
cloudFiles.inferColumnTypes met automatisch laadprogramma.

Standaardwaarde: true
quote

Type: Char

Het teken dat wordt gebruikt voor het ontsnappen van waarden waarbij het veldscheidingsteken deel uitmaakt van de waarde.

Standaardwaarde: "
readerCaseSensitive

Type: Boolean

Hiermee geeft u het hoofdlettergevoeligheidsgedrag op wanneer rescuedDataColumn deze is ingeschakeld. Indien waar, redt u de gegevenskolommen waarvan de namen verschillen per geval van het schema; lees anders de gegevens op een niet-hoofdlettergevoelige manier.

Standaardwaarde: true
rescuedDataColumn

Type: String

Of u alle gegevens wilt verzamelen die niet kunnen worden geparseerd vanwege: een gegevenstype komt niet overeen en het schema komt niet overeen (inclusief kolombehuizing) in een afzonderlijke kolom. Deze kolom wordt standaard opgenomen bij het gebruik van automatisch laden. Raadpleeg wat is de kolom met geredde gegevens voor meer informatie.

Standaardwaarde: Geen
sep of delimiter

Type: String

De scheidingstekenreeks tussen kolommen.

Standaardwaarde: ","
skipRows

Type: Int

Het aantal rijen vanaf het begin van het CSV-bestand dat moet worden genegeerd (inclusief opmerkingen en lege rijen). Als header waar is, is de kop de eerste niet-overgeslagen en niet-commentaarrij.

Standaardwaarde: 0
timestampFormat

Type: String

De notatie voor tijdstempeltekenreeksen parseren.

Standaardwaarde: yyyy-MM-dd'T'HH:mm:ss[.SSS][XXX]
timeZone

Type: String

De java.time.ZoneId te gebruiken bij het parseren van tijdstempels en datums.

Standaardwaarde: Geen
unescapedQuoteHandling

Type: String

De strategie voor het verwerken van ongezichtige koersen. Toegestane opties:

* STOP_AT_CLOSING_QUOTE: Als er onopgezichtige aanhalingstekens worden gevonden in de invoer, verzamelt u het aanhalingsteken en gaat u verder met het parseren van de waarde als een aanhalingsteken, totdat er een aanhalingsteken wordt gevonden.
* BACK_TO_DELIMITER: Als er onopgemerkte aanhalingstekens worden gevonden in de invoer, kunt u de waarde beschouwen als een niet-aanhalingsteken. Hierdoor verzamelt de parser alle tekens van de huidige geparseerde waarde totdat het scheidingsteken dat is gedefinieerd door sep is gevonden. Als er geen scheidingsteken in de waarde wordt gevonden, blijft de parser tekens uit de invoer accumuleren totdat een scheidingsteken of regeleinde is gevonden.
* STOP_AT_DELIMITER: Als er onopgemerkte aanhalingstekens worden gevonden in de invoer, kunt u de waarde beschouwen als een niet-aanhalingsteken. Hierdoor wordt de parser alle tekens verzameld totdat het scheidingsteken dat is gedefinieerd door sep, of een regeleinde wordt gevonden in de invoer.
* SKIP_VALUE: Als niet-gescaped aanhalingstekens in de invoer worden gevonden, wordt de inhoud die voor de opgegeven waarde wordt geparseerd (totdat het volgende scheidingsteken is gevonden) en wordt de waardeset nullValue geproduceerd.
* RAISE_ERROR: Als er ongezichtige aanhalingstekens worden gevonden in de invoer, is een
TextParsingException zal worden gegooid.

Standaardwaarde: STOP_AT_DELIMITER

XML Opties

Optie Omschrijving Bereik
rowTag De rijtag van de XML-bestanden die moeten worden behandeld als een rij. In het voorbeeld-XML <books> <book><book>...<books>is bookde juiste waarde. Dit is een vereiste optie. lezen
samplingRatio Definieert een fractie van rijen die worden gebruikt voor schemadeductie. Ingebouwde XML-functies negeren deze optie. Standaard: 1.0. lezen
excludeAttribute Of kenmerken in elementen moeten worden uitgesloten. Standaard: false. lezen
mode Modus voor het verwerken van beschadigde records tijdens het parseren.

PERMISSIVE: Voor beschadigde records plaatst u de ongeldige tekenreeks in een veld dat is geconfigureerd door columnNameOfCorruptRecorden stelt u onjuiste velden in op null. Als u beschadigde records wilt behouden, kunt u een string typeveld instellen met de naam columnNameOfCorruptRecord in een door de gebruiker gedefinieerd schema. Als een schema het veld niet heeft, worden beschadigde records verwijderd tijdens het parseren. Bij het uitstellen van een schema voegt de parser impliciet een columnNameOfCorruptRecord veld toe aan een uitvoerschema.

DROPMALFORMED: Hiermee worden beschadigde records genegeerd. Deze modus wordt niet ondersteund voor ingebouwde XML-functies.

FAILFAST: Genereert een uitzondering wanneer de parser voldoet aan beschadigde records.
lezen
inferSchema Als true, wordt geprobeerd een geschikt type voor elke resulterende DataFrame-kolom af te leiden. Als falsealle resulterende kolommen van het string type zijn. Standaardinstelling:
true. Ingebouwde XML-functies negeren deze optie.
lezen
columnNameOfCorruptRecord Hiermee kunt u de naam van het nieuwe veld wijzigen dat een ongeldige tekenreeks bevat die is gemaakt door
PERMISSIVE Modus. Standaard: spark.sql.columnNameOfCorruptRecord.
lezen
attributePrefix Het voorvoegsel voor kenmerken om kenmerken te onderscheiden van elementen. Dit is het voorvoegsel voor veldnamen. Standaard is _. Kan leeg zijn voor het lezen van XML, maar niet voor schrijven. lezen, schrijven
valueTag De tag die wordt gebruikt voor de tekengegevens in elementen die ook kenmerk(en) of onderliggende elementen bevatten. Gebruiker kan het valueTag veld in het schema opgeven of het wordt automatisch toegevoegd tijdens schemadeductie wanneer tekengegevens aanwezig zijn in elementen met andere elementen of kenmerken. Standaardwaarde: _VALUE lezen, schrijven
encoding Voor het lezen decodeert u de XML-bestanden op basis van het opgegeven coderingstype. Voor schrijven geeft u codering (charset) van opgeslagen XML-bestanden op. Ingebouwde XML-functies negeren deze optie. Standaard: UTF-8. lezen, schrijven
ignoreSurroundingSpaces Hiermee bepaalt u of de omringende spaties van waarden die worden gelezen, moeten worden overgeslagen. Standaard: true. Alleen-witruimtegegevens worden genegeerd. lezen
rowValidationXSDPath Pad naar een optioneel XSD-bestand dat wordt gebruikt om de XML voor elke rij afzonderlijk te valideren. Rijen die niet kunnen worden gevalideerd, worden behandeld als parseringsfouten zoals hierboven. De XSD is anders niet van invloed op het opgegeven schema of afgeleid. lezen
ignoreNamespace Als truede voorvoegsels van naamruimten op XML-elementen en -kenmerken worden genegeerd. Tags <abc:author> en <def:author>, bijvoorbeeld, worden behandeld alsof ze alleen <author>zijn. Naamruimten kunnen niet worden genegeerd op het rowTag element, alleen de leesliggende onderliggende elementen. XML-parsering is niet naamruimtebewust, zelfs niet als false. Standaard: false. lezen
timestampFormat Aangepaste tekenreeks voor tijdstempelnotatie die de datum/tijd-patroonnotatie volgt. Dit is van toepassing op timestamp het type. Standaard: yyyy-MM-dd'T'HH:mm:ss[.SSS][XXX]. lezen, schrijven
timestampNTZFormat Aangepaste notatietekenreeks voor tijdstempel zonder tijdzone die de notatie datum/tijd volgt. Dit is van toepassing op het type TimestampNTZType. Standaardinstelling:
yyyy-MM-dd'T'HH:mm:ss[.SSS]
lezen, schrijven
dateFormat Tekenreeks voor aangepaste datumnotatie die de datum/tijd-patroonnotatie volgt. Dit is van toepassing op het datumtype. Standaard: yyyy-MM-dd. lezen, schrijven
locale Hiermee stelt u een landinstelling in als taaltag in IETF BCP 47-indeling. Wordt bijvoorbeeld locale gebruikt tijdens het parseren van datums en tijdstempels. Standaard: en-US. lezen
rootTag Hoofdtag van de XML-bestanden. De juiste waarde is booksbijvoorbeeld <books> <book><book>...</books>in . U kunt basiskenmerken opnemen door een waarde op te geven zoals books foo="bar". Standaard: ROWS. schrijven
declaration Inhoud van XML-declaratie die moet worden geschreven aan het begin van elk XML-uitvoerbestand, vóór de rootTag. Bijvoorbeeld een waarde van foo oorzaken <?xml foo?> die worden geschreven. Ingesteld op een lege tekenreeks die moet worden onderdrukt. Standaardwaarde: version="1.0"
encoding="UTF-8" standalone="yes".
schrijven
arrayElementName De naam van het XML-element dat elk element van een kolom met matrixwaarden omsluit bij het schrijven. Standaard: item. schrijven
nullValue Hiermee stelt u de tekenreeksweergave van een null-waarde in. Standaard: tekenreeks null. Als dit het geval is null, schrijft de parser geen kenmerken en elementen voor velden. lezen, schrijven
compression Compressiecode die moet worden gebruikt bij het opslaan in een bestand. Dit kan een van de bekende niet-hoofdlettergevoelige verkorte namen zijn (nonebzip2, , gzip,lz4, snappy', and<br>deflate'). Ingebouwde XML-functies negeren deze optie. Standaard: none. schrijven
validateName Als waar is, treedt er een fout op bij validatiefout voor XML-elementnamen. SQL-veldnamen kunnen bijvoorbeeld spaties bevatten, maar namen van XML-elementen kunnen niet worden gebruikt. Standaardinstelling:
true.
schrijven
readerCaseSensitive Hiermee geeft u het hoofdlettergevoeligheidsgedrag op wanneer rescuedDataColumn is ingeschakeld. Indien waar, redt u de gegevenskolommen waarvan de namen verschillen per geval van het schema; lees anders de gegevens op een niet-hoofdlettergevoelige manier. Standaard: true. lezen
rescuedDataColumn Of u alle gegevens wilt verzamelen die niet kunnen worden geparseerd vanwege een niet-overeenkomend gegevenstype en niet-overeenkomende schema's (inclusief kolombehuizing) naar een afzonderlijke kolom. Deze kolom wordt standaard opgenomen bij het gebruik van automatisch laden. Zie Wat is de kolom met geredde gegevens voor meer informatie. Standaard: Geen. lezen

PARQUET Opties

Optie
datetimeRebaseMode

Type: String

Hiermee bepaalt u de rebasing van de DATUM- en TIJDSTEMPEL-waarden tussen Julian- en Proleptische Gregoriaanse kalenders. Toegestane waarden: EXCEPTION, LEGACYen
CORRECTED.

Standaardwaarde: LEGACY
int96RebaseMode

Type: String

Hiermee bepaalt u de rebasing van de INT96-tijdstempelwaarden tussen Julian- en Proleptische Gregoriaanse kalenders. Toegestane waarden: EXCEPTION, LEGACYen
CORRECTED.

Standaardwaarde: LEGACY
mergeSchema

Type: Boolean

Of u het schema wilt afleiden over meerdere bestanden en het schema van elk bestand wilt samenvoegen.

Standaardwaarde: false
readerCaseSensitive

Type: Boolean

Hiermee geeft u het hoofdlettergevoeligheidsgedrag op wanneer rescuedDataColumn deze is ingeschakeld. Indien waar, redt u de gegevenskolommen waarvan de namen verschillen per geval van het schema; lees anders de gegevens op een niet-hoofdlettergevoelige manier.

Standaardwaarde: true
rescuedDataColumn

Type: String

Of u alle gegevens wilt verzamelen die niet kunnen worden geparseerd vanwege: een gegevenstype komt niet overeen en het schema komt niet overeen (inclusief kolombehuizing) in een afzonderlijke kolom. Deze kolom wordt standaard opgenomen bij het gebruik van automatisch laden. Raadpleeg wat is de kolom met geredde gegevens voor meer informatie.

Standaardwaarde: Geen

AVRO Opties

Optie
avroSchema

Type: String

Optioneel schema dat wordt geleverd door een gebruiker in Avro-indeling. Bij het lezen van Avro kan deze optie worden ingesteld op een ontwikkeld schema, dat compatibel is maar anders is met het werkelijke Avro-schema. Het deserialisatieschema is consistent met het ontwikkelde schema. Als u bijvoorbeeld een ontwikkeld schema instelt dat één extra kolom met een standaardwaarde bevat, bevat het leesresultaat ook de nieuwe kolom.

Standaardwaarde: Geen
datetimeRebaseMode

Type: String

Hiermee bepaalt u de rebasing van de DATUM- en TIJDSTEMPEL-waarden tussen Julian- en Proleptische Gregoriaanse kalenders. Toegestane waarden: EXCEPTION, LEGACYen
CORRECTED.

Standaardwaarde: LEGACY
mergeSchema

Type: Boolean

Of u het schema wilt afleiden over meerdere bestanden en het schema van elk bestand wilt samenvoegen.
mergeSchema Voor Avro worden gegevenstypen niet versoepelingd.

Standaardwaarde: false
readerCaseSensitive

Type: Boolean

Hiermee geeft u het hoofdlettergevoeligheidsgedrag op wanneer rescuedDataColumn deze is ingeschakeld. Indien waar, redt u de gegevenskolommen waarvan de namen verschillen per geval van het schema; lees anders de gegevens op een niet-hoofdlettergevoelige manier.

Standaardwaarde: true
rescuedDataColumn

Type: String

Of u alle gegevens wilt verzamelen die niet kunnen worden geparseerd vanwege: een gegevenstype komt niet overeen en het schema komt niet overeen (inclusief kolombehuizing) in een afzonderlijke kolom. Deze kolom wordt standaard opgenomen bij het gebruik van automatisch laden. Raadpleeg wat is de kolom met geredde gegevens voor meer informatie.

Standaardwaarde: Geen

BINARYFILE Opties

Binaire bestanden hebben geen extra configuratieopties.

TEXT Opties

Optie
encoding

Type: String

De naam van de codering van de TEKSTBESTANDen. Zie java.nio.charset.Charset voor een lijst met opties.

Standaardwaarde: UTF-8
lineSep

Type: String

Een tekenreeks tussen twee opeenvolgende TEKST-records.

Standaardwaarde: Geen, die betrekking heeft op \ren \r\n\n
wholeText

Type: Boolean

Of u een bestand als één record wilt lezen.

Standaardwaarde: false

ORC Opties

Optie
mergeSchema

Type: Boolean

Of u het schema wilt afleiden over meerdere bestanden en het schema van elk bestand wilt samenvoegen.

Standaardwaarde: false

Cloudspecifieke opties

Auto Loader biedt een aantal opties voor het configureren van de cloudinfrastructuur.

SPECIFIEKE AWS-opties

Geef alleen de volgende optie op als u kiest cloudFiles.useNotifications = true en u wilt dat automatisch laadprogramma de meldingsservices voor u instelt:

Optie
cloudFiles.region

Type: String

De regio waar de bron-S3-bucket zich bevindt en waar de AWS SNS- en SQS-services worden gemaakt.

Standaardwaarde: de regio van het EC2-exemplaar.

Geef alleen de volgende optie op als u kiest cloudFiles.useNotifications = true en u wilt dat automatisch laadprogramma een wachtrij gebruikt die u al hebt ingesteld:

Optie
cloudFiles.queueUrl

Type: String

De URL van de SQS-wachtrij. Indien opgegeven, gebruikt Auto Loader rechtstreeks gebeurtenissen uit deze wachtrij in plaats van eigen AWS SNS- en SQS-services in te stellen.

Standaardwaarde: Geen

U kunt de volgende opties gebruiken om referenties op te geven voor toegang tot AWS SNS en SQS wanneer IAM-rollen niet beschikbaar zijn of wanneer u gegevens uit verschillende clouds opneemt.

Optie
cloudFiles.awsAccessKey

Type: String

De AWS-toegangssleutel-id voor de gebruiker. Moet worden geleverd met
cloudFiles.awsSecretKey.

Standaardwaarde: Geen
cloudFiles.awsSecretKey

Type: String

De GEHEIME AWS-toegangssleutel voor de gebruiker. Moet worden geleverd met
cloudFiles.awsAccessKey.

Standaardwaarde: Geen
cloudFiles.roleArn

Type: String

De ARN van een IAM-rol die moet worden aangenomen. De rol kan worden aangenomen vanuit het exemplaarprofiel van uw cluster of door referenties op te geven met
cloudFiles.awsAccessKey en cloudFiles.awsSecretKey.

Standaardwaarde: Geen
cloudFiles.roleExternalId

Type: String

Een id die moet worden opgegeven terwijl een rol wordt gebruikt cloudFiles.roleArn.

Standaardwaarde: Geen
cloudFiles.roleSessionName

Type: String

Een optionele sessienaam die moet worden gebruikt terwijl een rol wordt gebruikt
cloudFiles.roleArn.

Standaardwaarde: Geen
cloudFiles.stsEndpoint

Type: String

Een optioneel eindpunt voor toegang tot AWS STS wanneer een rol wordt cloudFiles.roleArngebruikt.

Standaardwaarde: Geen

Specifieke Opties voor Azure

U moet waarden opgeven voor alle volgende opties als u opgeeft cloudFiles.useNotifications = true en u wilt dat automatisch laadprogramma de meldingsservices voor u instelt:

Optie
cloudFiles.clientId

Type: String

De client-id of toepassings-id van de service-principal.

Standaardwaarde: Geen
cloudFiles.clientSecret

Type: String

Het clientgeheim van de service-principal.

Standaardwaarde: Geen
cloudFiles.connectionString

Type: String

De verbindingsreeks voor het opslagaccount, op basis van de toegangssleutel van het account of sas (Shared Access Signature).

Standaardwaarde: Geen
cloudFiles.resourceGroup

Type: String

De Azure-resourcegroep waaronder het opslagaccount wordt gemaakt.

Standaardwaarde: Geen
cloudFiles.subscriptionId

Type: String

De Azure-abonnements-id waaronder de resourcegroep wordt gemaakt.

Standaardwaarde: Geen
cloudFiles.tenantId

Type: String

De Azure-tenant-id waaronder de service-principal wordt gemaakt.

Standaardwaarde: Geen

Belangrijk

Automatische installatie van meldingen is beschikbaar in regio's van Azure China en government met Databricks Runtime 9.1 en hoger. U moet een queueName autolader met bestandsmeldingen in deze regio's opgeven voor oudere DBR-versies.

Geef alleen de volgende optie op als u kiest cloudFiles.useNotifications = true en u wilt dat automatisch laadprogramma een wachtrij gebruikt die u al hebt ingesteld:

Optie
cloudFiles.queueName

Type: String

De naam van de Azure-wachtrij. Indien opgegeven, verbruikt de bron van cloudbestanden rechtstreeks gebeurtenissen uit deze wachtrij in plaats van eigen Azure Event Grid- en Queue Storage-services in te stellen. In dat geval hebt u cloudFiles.connectionString alleen leesmachtigingen voor de wachtrij nodig.

Standaardwaarde: Geen

Specifieke Google-opties

Auto Loader kan automatisch meldingsservices voor u instellen door gebruik te maken van Google-serviceaccounts. U kunt uw cluster configureren om ervan uit te gaan dat er een serviceaccount wordt gebruikt door de installatie van de Google-service te volgen. De machtigingen die uw serviceaccount nodig heeft, worden opgegeven in de meldingsmodus voor het automatisch laden van bestanden? Anders kunt u de volgende opties voor verificatie opgeven als u wilt dat automatisch laadprogramma de meldingsservices voor u instelt.

Optie
cloudFiles.client

Type: String

De client-id van het Google-serviceaccount.

Standaardwaarde: Geen
cloudFiles.clientEmail

Type: String

Het e-mailadres van het Google-serviceaccount.

Standaardwaarde: Geen
cloudFiles.privateKey

Type: String

De persoonlijke sleutel die wordt gegenereerd voor het Google-serviceaccount.

Standaardwaarde: Geen
cloudFiles.privateKeyId

Type: String

De id van de persoonlijke sleutel die wordt gegenereerd voor het Google-serviceaccount.

Standaardwaarde: Geen
cloudFiles.projectId

Type: String

De id van het project waarin de GCS-bucket zich bevindt. Het Google Cloud Pub/Sub-abonnement wordt ook in dit project gemaakt.

Standaardwaarde: Geen

Geef alleen de volgende optie op als u kiest cloudFiles.useNotifications = true en u wilt dat automatisch laadprogramma een wachtrij gebruikt die u al hebt ingesteld:

Optie
cloudFiles.subscription

Type: String

De naam van het Google Cloud Pub/Sub-abonnement. Indien opgegeven, verbruikt de bron van cloudbestanden gebeurtenissen uit deze wachtrij in plaats van eigen GCS Notification en Google Cloud Pub/Sub-services in te stellen.

Standaardwaarde: Geen