INSERT OVERWRITE DIRECTORY
Область применения: Databricks SQL Databricks Runtime
Перезаписывает существующие данные в каталоге новыми значениями, используя заданный формат файла Spark. Вставленную строку можно указать по выражениям значений или результату запроса.
Синтаксис
INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
{ VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }
Параметры
directory_path
Каталог назначения. Его также можно указать в
OPTIONS
с помощьюpath
. Ключевое словоLOCAL
используется для указания того, что каталог находится в локальной файловой системе.file_format
Формат файла, используемый для вставки. Допустимые параметры:
TEXT
,CSV
,JSON
,JDBC
,ORC
PARQUET
,HIVE
LIBSVM
или полное имя класса пользовательской реализацииorg.apache.spark.sql.execution.datasources.FileFormat
.OPTIONS ( { key [ = ] val } [ , ... ] )
Задает один или несколько параметров для записи формата файла.
VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ]
Значения для вставки. Можно вставить либо явно указанное значение, либо значение NULL. Для разделения каждого значения в предложении необходимо использовать запятую. Для вставки нескольких строк можно указать несколько наборов значений.
Запроса
Запрос, который создает строки для вставки. Один из следующих форматов:
- Оператор
SELECT
- Оператор
TABLE
- Оператор
FROM
- Оператор
Примеры
INSERT OVERWRITE DIRECTORY '/tmp/destination'
USING parquet
OPTIONS (col1 1, col2 2, col3 'test')
SELECT * FROM test_table;
INSERT OVERWRITE DIRECTORY
USING parquet
OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
SELECT * FROM test_table;