Hive-tabell (äldre)
Viktigt!
Den här dokumentationen har dragits tillbaka och kanske inte uppdateras.
Den här artikeln visar hur du importerar en Hive-tabell från molnlagring till Azure Databricks med hjälp av en extern tabell.
Databricks rekommenderar inte att du använder Hive-tabeller för att lagra eller organisera data. Den här dokumentationen tillhandahålls för att hjälpa dig att konfigurera en anslutning till en befintlig Hive-tabell för migrering eller inmatning av data från ett externt system.
Steg 1: Visa instruktionen CREATE TABLE
Utfärda ett SHOW CREATE TABLE <tablename>
kommando på Hive-kommandoraden för att se instruktionen som skapade tabellen.
hive> SHOW CREATE TABLE wikicc;
OK
CREATE TABLE `wikicc`(
`country` string,
`count` int)
ROW FORMAT SERDE
'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'
STORED AS INPUTFORMAT
'org.apache.hadoop.mapred.TextInputFormat'
OUTPUTFORMAT
'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION
'<path-to-table>'
TBLPROPERTIES (
'totalSize'='2335',
'numRows'='240',
'rawDataSize'='2095',
'COLUMN_STATS_ACCURATE'='true',
'numFiles'='1',
'transient_lastDdlTime'='1418173653')
Steg 2: Utfärda en CREATE EXTERNAL TABLE
instruktion
Om instruktionen som returneras använder ett CREATE TABLE
kommando kopierar du -instruktionen och ersätter CREATE TABLE
med CREATE EXTERNAL TABLE
.
-
EXTERNAL
ser till att Spark SQL inte tar bort dina data om du släpper tabellen. - Du kan utelämna fältet
TBLPROPERTIES
.
DROP TABLE wikicc
CREATE EXTERNAL TABLE `wikicc`(
`country` string,
`count` int)
ROW FORMAT SERDE
'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'
STORED AS INPUTFORMAT
'org.apache.hadoop.mapred.TextInputFormat'
OUTPUTFORMAT
'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION
'<path-to-table>'
Steg 3: Utfärda SQL-kommandon på dina data
SELECT * FROM wikicc