Udostępnij za pośrednictwem


Tabela Programu Hive (starsza wersja)

Ważne

Ta dokumentacja została wycofana i może nie zostać zaktualizowana.

W tym artykule pokazano, jak zaimportować tabelę Programu Hive z magazynu w chmurze do usługi Azure Databricks przy użyciu tabeli zewnętrznej.

Usługa Databricks nie zaleca używania tabel programu Hive do przechowywania lub organizowania danych. Ta dokumentacja ułatwia skonfigurowanie połączenia z istniejącą tabelą programu Hive w celu migracji lub pozyskiwania danych z systemu zewnętrznego.

Krok 1. Pokaż instrukcję CREATE TABLE

Wydaj SHOW CREATE TABLE <tablename> polecenie w wierszu polecenia programu Hive, aby wyświetlić instrukcję, która utworzyła tabelę.

hive> SHOW CREATE TABLE wikicc;
OK
CREATE  TABLE `wikicc`(
  `country` string,
  `count` int)
ROW FORMAT SERDE
  'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'
STORED AS INPUTFORMAT
  'org.apache.hadoop.mapred.TextInputFormat'
OUTPUTFORMAT
  'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION
  '<path-to-table>'
TBLPROPERTIES (
  'totalSize'='2335',
  'numRows'='240',
  'rawDataSize'='2095',
  'COLUMN_STATS_ACCURATE'='true',
  'numFiles'='1',
  'transient_lastDdlTime'='1418173653')

Krok 2. Wydawanie instrukcji CREATE EXTERNAL TABLE

Jeśli zwracana instrukcja używa polecenia, skopiuj instrukcję i zastąp CREATE TABLECREATE TABLEciąg CREATE EXTERNAL TABLE .

  • EXTERNAL program Spark SQL nie usuwa danych po usunięciu tabeli.
  • Możesz pominąć TBLPROPERTIES pole.
DROP TABLE wikicc
CREATE EXTERNAL TABLE `wikicc`(
  `country` string,
  `count` int)
ROW FORMAT SERDE
  'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'
STORED AS INPUTFORMAT
  'org.apache.hadoop.mapred.TextInputFormat'
OUTPUTFORMAT
  'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION
  '<path-to-table>'

Krok 3. Wydawanie poleceń SQL na danych

SELECT * FROM wikicc