INSERT OVERWRITE DIRECTORY

Gäller för:check markerad ja Databricks SQL-kontroll markerad som ja Databricks Runtime

Skriver över befintliga data i katalogen med de nya värdena i ett visst Spark-filformat. Du anger den infogade raden efter värdeuttryck eller resultatet av en fråga.

Syntax

INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
    USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
    { VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }

Parametrar

  • directory_path

    Målkatalogen. Det kan också anges i OPTIONS med hjälp av path. Nyckelordet LOCAL används för att ange att katalogen finns i det lokala filsystemet.

  • file_format

    Det filformat som ska användas för infogningen. Giltiga alternativ är TEXT, CSV, JSON, JDBC, PARQUET, ORC, HIVE, , LIBSVMeller ett fullständigt kvalificerat klassnamn för en anpassad implementering av org.apache.spark.sql.execution.datasources.FileFormat.

  • OPTIONS ( { key [ = ] val } [ , ... ] )

    Anger ett eller flera alternativ för skrivning av filformatet.

  • VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ]

    De värden som ska infogas. Antingen kan ett uttryckligen angivet värde eller ett NULL infogas. Ett kommatecken måste användas för att avgränsa varje värde i -satsen. Fler än en uppsättning värden kan anges för att infoga flera rader.

  • Fråga

    En fråga som skapar de rader som ska infogas. Något av följande format:

    • En SELECT instruktion
    • En TABLE instruktion
    • En FROM instruktion

Exempel

INSERT OVERWRITE DIRECTORY '/tmp/destination'
    USING parquet
    OPTIONS (col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;

INSERT OVERWRITE DIRECTORY
    USING parquet
    OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;