INSERT OVERWRITE DIRECTORY

Van toepassing op:controleren met ja Databricks SQL-controle gemarkeerd als ja Databricks Runtime

Hiermee overschrijft u de bestaande gegevens in de map met de nieuwe waarden met behulp van een opgegeven Spark-bestandsindeling. U geeft de ingevoegde rij op met waarde-expressies of het resultaat van een query.

Syntaxis

INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
    USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
    { VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }

Parameters

  • directory_path

    De doelmap. Het kan ook worden opgegeven in OPTIONS met behulp van path. Het LOCAL trefwoord wordt gebruikt om aan te geven dat de map zich in het lokale bestandssysteem bevindt.

  • file_format

    De bestandsindeling die moet worden gebruikt voor de invoeging. Geldige opties zijn TEXT, CSV, JSON, JDBC, PARQUET, , ORCHIVE, LIBSVMof een volledig gekwalificeerde klassenaam van een aangepaste implementatie van org.apache.spark.sql.execution.datasources.FileFormat.

  • OPTIONS ( { key [ = ] val } [ , ... ] )

    Hiermee geeft u een of meer opties voor het schrijven van de bestandsindeling.

  • WAARDEN ( { waarde | NULL } [ , ... ] ) [ , ( ... ) ]

    De waarden die moeten worden ingevoegd. Een expliciet opgegeven waarde of een NULL kan worden ingevoegd. Er moet een komma worden gebruikt om elke waarde in de component van elkaar te scheiden. Er kan meer dan één set waarden worden opgegeven om meerdere rijen in te voegen.

  • Query

    Een query die de rijen produceert die moeten worden ingevoegd. Een van de volgende indelingen:

    • Een SELECT instructie
    • Een TABLE instructie
    • Een FROM instructie

Voorbeelden

INSERT OVERWRITE DIRECTORY '/tmp/destination'
    USING parquet
    OPTIONS (col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;

INSERT OVERWRITE DIRECTORY
    USING parquet
    OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;