Hive tablosu
Bu makalede, dış tablo kullanarak bir Hive tablosunun bulut depolama alanından Azure Databricks'e nasıl içeri aktarılacağını gösterir.
1. Adım: Deyimi gösterme CREATE TABLE
Tabloyu oluşturan deyimi görmek için Hive komut satırınızda bir SHOW CREATE TABLE <tablename>
komut verin.
hive> SHOW CREATE TABLE wikicc;
OK
CREATE TABLE `wikicc`(
`country` string,
`count` int)
ROW FORMAT SERDE
'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'
STORED AS INPUTFORMAT
'org.apache.hadoop.mapred.TextInputFormat'
OUTPUTFORMAT
'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION
'<path-to-table>'
TBLPROPERTIES (
'totalSize'='2335',
'numRows'='240',
'rawDataSize'='2095',
'COLUMN_STATS_ACCURATE'='true',
'numFiles'='1',
'transient_lastDdlTime'='1418173653')
2. Adım: Bir CREATE EXTERNAL TABLE
deyim verme
Döndürülen deyim bir CREATE TABLE
komut kullanıyorsa deyimini kopyalayın ve değerini ile CREATE EXTERNAL TABLE
değiştirinCREATE TABLE
.
EXTERNAL
tabloyu bırakırsanız Spark SQL'in verilerinizi silmemesini sağlar.- Alanı atlayabilirsiniz
TBLPROPERTIES
.
DROP TABLE wikicc
CREATE EXTERNAL TABLE `wikicc`(
`country` string,
`count` int)
ROW FORMAT SERDE
'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'
STORED AS INPUTFORMAT
'org.apache.hadoop.mapred.TextInputFormat'
OUTPUTFORMAT
'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION
'<path-to-table>'
3. Adım: Verilerinizde SQL komutları verme
SELECT * FROM wikicc