INSERT OVERWRITE DIRECTORY

Şunun için geçerlidir:evet olarak işaretlendi Databricks SQL denetimi yes Databricks Runtime olarak işaretlendi

Belirli bir Spark dosya biçimini kullanarak dizindeki mevcut verilerin üzerine yeni değerleri yazar. Eklenen satırı değer ifadelerine veya sorgunun sonucuna göre belirtirsiniz.

Sözdizimi

INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
    USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
    { VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }

Parametre

  • directory_path

    Hedef dizin. ayrıca içinde kullanılarak pathda belirtilebilirOPTIONS. LOCAL anahtar sözcüğü, dizinin yerel dosya sisteminde olduğunu belirtmek için kullanılır.

  • file_format

    Ekleme için kullanılacak dosya biçimi. Geçerli seçenekler , TEXT, CSV, JSON, JDBC, PARQUET, ORC, HIVE, , LIBSVMveya özel uygulamasının tam sınıf adıdır org.apache.spark.sql.execution.datasources.FileFormat.

  • OPTIONS ( { key [ = ] val } [ , ... ] )

    Dosya biçimini yazmak için bir veya daha fazla seçenek belirtir.

  • VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ]

    Eklenecek değerler. Açıkça belirtilen bir değer veya NULL eklenebilir. Yan tümcesindeki her değeri ayırmak için virgül kullanılmalıdır. Birden çok satır eklemek için birden fazla değer kümesi belirtilebilir.

  • Sorgu

    Eklenecek satırları üreten bir sorgu. Aşağıdaki biçimlerden biri:

    • Bir SELECT deyim
    • Bir TABLE deyim
    • Bir FROM deyim

Örnekler

INSERT OVERWRITE DIRECTORY '/tmp/destination'
    USING parquet
    OPTIONS (col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;

INSERT OVERWRITE DIRECTORY
    USING parquet
    OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;