Share via


Hive tablosu

Bu makalede, dış tablo kullanarak bir Hive tablosunun bulut depolama alanından Azure Databricks'e nasıl içeri aktarılacağını gösterir.

1. Adım: Deyimi gösterme CREATE TABLE

Tabloyu oluşturan deyimi görmek için Hive komut satırınızda bir SHOW CREATE TABLE <tablename> komut verin.

hive> SHOW CREATE TABLE wikicc;
OK
CREATE  TABLE `wikicc`(
  `country` string,
  `count` int)
ROW FORMAT SERDE
  'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'
STORED AS INPUTFORMAT
  'org.apache.hadoop.mapred.TextInputFormat'
OUTPUTFORMAT
  'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION
  '<path-to-table>'
TBLPROPERTIES (
  'totalSize'='2335',
  'numRows'='240',
  'rawDataSize'='2095',
  'COLUMN_STATS_ACCURATE'='true',
  'numFiles'='1',
  'transient_lastDdlTime'='1418173653')

2. Adım: Bir CREATE EXTERNAL TABLE deyim verme

Döndürülen deyim bir CREATE TABLE komut kullanıyorsa deyimini kopyalayın ve değerini ile CREATE EXTERNAL TABLEdeğiştirinCREATE TABLE.

  • EXTERNAL tabloyu bırakırsanız Spark SQL'in verilerinizi silmemesini sağlar.
  • Alanı atlayabilirsiniz TBLPROPERTIES .
DROP TABLE wikicc
CREATE EXTERNAL TABLE `wikicc`(
  `country` string,
  `count` int)
ROW FORMAT SERDE
  'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'
STORED AS INPUTFORMAT
  'org.apache.hadoop.mapred.TextInputFormat'
OUTPUTFORMAT
  'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION
  '<path-to-table>'

3. Adım: Verilerinizde SQL komutları verme

SELECT * FROM wikicc