Tabela Programu Hive (starsza wersja)
Ważne
Ta dokumentacja została wycofana i może nie zostać zaktualizowana.
W tym artykule pokazano, jak zaimportować tabelę Programu Hive z magazynu w chmurze do usługi Azure Databricks przy użyciu tabeli zewnętrznej.
Usługa Databricks nie zaleca używania tabel programu Hive do przechowywania lub organizowania danych. Ta dokumentacja ułatwia skonfigurowanie połączenia z istniejącą tabelą programu Hive w celu migracji lub pozyskiwania danych z systemu zewnętrznego.
Krok 1. Pokaż instrukcję CREATE TABLE
Wydaj SHOW CREATE TABLE <tablename>
polecenie w wierszu polecenia programu Hive, aby wyświetlić instrukcję, która utworzyła tabelę.
hive> SHOW CREATE TABLE wikicc;
OK
CREATE TABLE `wikicc`(
`country` string,
`count` int)
ROW FORMAT SERDE
'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'
STORED AS INPUTFORMAT
'org.apache.hadoop.mapred.TextInputFormat'
OUTPUTFORMAT
'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION
'<path-to-table>'
TBLPROPERTIES (
'totalSize'='2335',
'numRows'='240',
'rawDataSize'='2095',
'COLUMN_STATS_ACCURATE'='true',
'numFiles'='1',
'transient_lastDdlTime'='1418173653')
Krok 2. Wydawanie instrukcji CREATE EXTERNAL TABLE
Jeśli zwracana instrukcja używa polecenia, skopiuj instrukcję i zastąp CREATE TABLE
CREATE TABLE
ciąg CREATE EXTERNAL TABLE
.
-
EXTERNAL
program Spark SQL nie usuwa danych po usunięciu tabeli. - Możesz pominąć
TBLPROPERTIES
pole.
DROP TABLE wikicc
CREATE EXTERNAL TABLE `wikicc`(
`country` string,
`count` int)
ROW FORMAT SERDE
'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'
STORED AS INPUTFORMAT
'org.apache.hadoop.mapred.TextInputFormat'
OUTPUTFORMAT
'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION
'<path-to-table>'
Krok 3. Wydawanie poleceń SQL na danych
SELECT * FROM wikicc