INSERT OVERWRITE DIRECTORY
Şunun için geçerlidir: Databricks SQL denetimi yes Databricks Runtime
Belirli bir Spark dosya biçimini kullanarak dizindeki mevcut verilerin üzerine yeni değerleri yazar. Eklenen satırı değer ifadelerine veya sorgunun sonucuna göre belirtirsiniz.
Sözdizimi
INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
{ VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }
Parametre
directory_path
Hedef dizin. ayrıca içinde kullanılarak
path
da belirtilebilirOPTIONS
.LOCAL
anahtar sözcüğü, dizinin yerel dosya sisteminde olduğunu belirtmek için kullanılır.file_format
Ekleme için kullanılacak dosya biçimi. Geçerli seçenekler ,
TEXT
,CSV
,JSON
,JDBC
,PARQUET
,ORC
,HIVE
, ,LIBSVM
veya özel uygulamasının tam sınıf adıdırorg.apache.spark.sql.execution.datasources.FileFormat
.OPTIONS ( { key [ = ] val } [ , ... ] )
Dosya biçimini yazmak için bir veya daha fazla seçenek belirtir.
VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ]
Eklenecek değerler. Açıkça belirtilen bir değer veya NULL eklenebilir. Yan tümcesindeki her değeri ayırmak için virgül kullanılmalıdır. Birden çok satır eklemek için birden fazla değer kümesi belirtilebilir.
Sorgu
Eklenecek satırları üreten bir sorgu. Aşağıdaki biçimlerden biri:
- Bir
SELECT
deyim - Bir
TABLE
deyim - Bir
FROM
deyim
- Bir
Örnekler
INSERT OVERWRITE DIRECTORY '/tmp/destination'
USING parquet
OPTIONS (col1 1, col2 2, col3 'test')
SELECT * FROM test_table;
INSERT OVERWRITE DIRECTORY
USING parquet
OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
SELECT * FROM test_table;