INSERT OVERWRITE DIRECTORY
Platí pro: , kontrola Databricks SQL Databricks Runtime
Přepíše existující data v adresáři novými hodnotami pomocí daného formátu souboru Sparku. Zadáte řádek vložený pomocí hodnotových výrazů nebo výsledku dotazu.
Syntaxe
INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
{ VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }
Parametry
directory_path
Cílový adresář. Můžete ho zadat také pomocí
OPTIONS
.path
KlíčovéLOCAL
slovo se používá k určení, že adresář je v místním systému souborů.file_format
Formát souboru, který se má použít pro vložení. Platné možnosti jsou
TEXT
,CSV
, ,JSON
,PARQUET
JDBC
,ORC
,HIVE
neboLIBSVM
plně kvalifikovaný název třídy vlastní implementace .org.apache.spark.sql.execution.datasources.FileFormat
OPTIONS ( { key [ = ] val } [ , ... ] )
Určuje jednu nebo více možností zápisu formátu souboru.
VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ]
Hodnoty, které se mají vložit. Je možné vložit explicitně zadanou hodnotu nebo hodnotu NULL. K oddělení jednotlivých hodnot v klauzuli se musí použít čárka. Pro vložení více řádků je možné zadat více než jednu sadu hodnot.
Dotazu
Dotaz, který vytvoří řádky, které mají být vloženy. Jeden z následujících formátů:
- Příkaz A
SELECT
- Příkaz A
TABLE
- Příkaz A
FROM
- Příkaz A
Příklady
INSERT OVERWRITE DIRECTORY '/tmp/destination'
USING parquet
OPTIONS (col1 1, col2 2, col3 'test')
SELECT * FROM test_table;
INSERT OVERWRITE DIRECTORY
USING parquet
OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
SELECT * FROM test_table;