Dela via


Hive-tabell (äldre)

Viktigt!

Den här dokumentationen har dragits tillbaka och kanske inte uppdateras.

Den här artikeln visar hur du importerar en Hive-tabell från molnlagring till Azure Databricks med hjälp av en extern tabell.

Databricks rekommenderar inte att du använder Hive-tabeller för att lagra eller organisera data. Den här dokumentationen tillhandahålls för att hjälpa dig att konfigurera en anslutning till en befintlig Hive-tabell för migrering eller inmatning av data från ett externt system.

Steg 1: Visa instruktionen CREATE TABLE

Utfärda ett SHOW CREATE TABLE <tablename> kommando på Hive-kommandoraden för att se instruktionen som skapade tabellen.

hive> SHOW CREATE TABLE wikicc;
OK
CREATE  TABLE `wikicc`(
  `country` string,
  `count` int)
ROW FORMAT SERDE
  'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'
STORED AS INPUTFORMAT
  'org.apache.hadoop.mapred.TextInputFormat'
OUTPUTFORMAT
  'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION
  '<path-to-table>'
TBLPROPERTIES (
  'totalSize'='2335',
  'numRows'='240',
  'rawDataSize'='2095',
  'COLUMN_STATS_ACCURATE'='true',
  'numFiles'='1',
  'transient_lastDdlTime'='1418173653')

Steg 2: Utfärda en CREATE EXTERNAL TABLE instruktion

Om instruktionen som returneras använder ett CREATE TABLE kommando kopierar du -instruktionen och ersätter CREATE TABLE med CREATE EXTERNAL TABLE.

  • EXTERNAL ser till att Spark SQL inte tar bort dina data om du släpper tabellen.
  • Du kan utelämna fältet TBLPROPERTIES .
DROP TABLE wikicc
CREATE EXTERNAL TABLE `wikicc`(
  `country` string,
  `count` int)
ROW FORMAT SERDE
  'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'
STORED AS INPUTFORMAT
  'org.apache.hadoop.mapred.TextInputFormat'
OUTPUTFORMAT
  'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION
  '<path-to-table>'

Steg 3: Utfärda SQL-kommandon på dina data

SELECT * FROM wikicc