INSERT OVERWRITE DIRECTORY

Platí pro:zaškrtnutá možnost Ano , kontrola Databricks SQL označená ano Databricks Runtime

Přepíše existující data v adresáři novými hodnotami pomocí daného formátu souboru Sparku. Zadáte řádek vložený pomocí hodnotových výrazů nebo výsledku dotazu.

Syntaxe

INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
    USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
    { VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }

Parametry

  • directory_path

    Cílový adresář. Můžete ho zadat také pomocí OPTIONS .path Klíčové LOCAL slovo se používá k určení, že adresář je v místním systému souborů.

  • file_format

    Formát souboru, který se má použít pro vložení. Platné možnosti jsou TEXT, CSV, , JSON, PARQUETJDBC, ORC, HIVEnebo LIBSVMplně kvalifikovaný název třídy vlastní implementace .org.apache.spark.sql.execution.datasources.FileFormat

  • OPTIONS ( { key [ = ] val } [ , ... ] )

    Určuje jednu nebo více možností zápisu formátu souboru.

  • VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ]

    Hodnoty, které se mají vložit. Je možné vložit explicitně zadanou hodnotu nebo hodnotu NULL. K oddělení jednotlivých hodnot v klauzuli se musí použít čárka. Pro vložení více řádků je možné zadat více než jednu sadu hodnot.

  • Dotazu

    Dotaz, který vytvoří řádky, které mají být vloženy. Jeden z následujících formátů:

    • Příkaz A SELECT
    • Příkaz A TABLE
    • Příkaz A FROM

Příklady

INSERT OVERWRITE DIRECTORY '/tmp/destination'
    USING parquet
    OPTIONS (col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;

INSERT OVERWRITE DIRECTORY
    USING parquet
    OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;