INSERT OVERWRITE DIRECTORY

Область применения:проверка помечено да Databricks SQL проверка помечено да Databricks Runtime

Перезаписывает существующие данные в каталоге новыми значениями, используя заданный формат файла Spark. Вставленную строку можно указать по выражениям значений или результату запроса.

Синтаксис

INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
    USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
    { VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }

Параметры

  • directory_path

    Каталог назначения. Его также можно указать в OPTIONS с помощью path. Ключевое слово LOCAL используется для указания того, что каталог находится в локальной файловой системе.

  • file_format

    Формат файла, используемый для вставки. Допустимые параметры: TEXT, CSV, JSON, JDBC, ORCPARQUET, HIVELIBSVMили полное имя класса пользовательской реализации org.apache.spark.sql.execution.datasources.FileFormat.

  • OPTIONS ( { key [ = ] val } [ , ... ] )

    Задает один или несколько параметров для записи формата файла.

  • VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ]

    Значения для вставки. Можно вставить либо явно указанное значение, либо значение NULL. Для разделения каждого значения в предложении необходимо использовать запятую. Для вставки нескольких строк можно указать несколько наборов значений.

  • Запроса

    Запрос, который создает строки для вставки. Один из следующих форматов:

    • Оператор SELECT
    • Оператор TABLE
    • Оператор FROM

Примеры

INSERT OVERWRITE DIRECTORY '/tmp/destination'
    USING parquet
    OPTIONS (col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;

INSERT OVERWRITE DIRECTORY
    USING parquet
    OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;