explode
tableértékű generátorfüggvény
A következőkre vonatkozik: Databricks SQL
Databricks Runtime
A sorok set adja vissza a collection
beágyazásának megszüntetésével.
A Databricks SQL-ben és a Databricks Runtime 13.3 LTS-ben és ezen felül ez a függvény támogatja az elnevezett paraméterhívást.
Syntax
explode(collection)
Argumentumok
-
collection
: EgyARRAY
vagyMAP
kifejezés.
Válaszok
A set sor, amely a tömb elemeiből vagy a kulcsokból és values a térkép elemeiből áll.
A explode
által egy tömbben előállított column neve col
.
A térképen a columns-k nevei key
és value
.
Ha collection
nem jönnek NULL
létre sorok. Ha egyetlen sort szeretne visszaadni NULL
a tömbhöz vagy a térképhez, values használja a explode_outer() függvényt.
A következőkre vonatkozik:
Databricks Runtime 12.1 és korábbi verziók:
explode
csak egy kifejezés gyökereként vagy egy LATERAL VIEWután, aSELECT
list-ben helyezhető el. Ha a generátort aSELECT
list helyezi el, nem lehet más generátor ugyanabban aSELECT
list vagy , különben felmerül az UNSUPPORTED_GENERATOR.MULTI_GENERATOR.A következőkre vonatkozik:
Databricks SQL
Databricks Runtime 12.2 LTS és újabb:
Az LATERAL VIEW záradék vagy a
SELECT
list hivatkozása elavult. Ehelyett hívjon megexplode
table_reference.
Példák
A következőkre vonatkozik: Databricks SQL
Databricks Runtime 12.1 és korábbi verziók:
> SELECT explode(array(10, 20)) AS elem, 'Spark';
10 Spark
20 Spark
> SELECT explode(map(1, 'a', 2, 'b')) AS (num, val), 'Spark';
1 a Spark
2 b Spark
> SELECT explode(array(1, 2)), explode(array(3, 4));
Error: UNSUPPORTED_GENERATOR.MULTI_GENERATOR
-- The difference between explode() and explode_outer() is that explode_outer() returns NULL if the array is NULL.
> SELECT explode_outer(c1) AS elem, 'Spark' FROM VALUES(array(10, 20)), (null) AS T(c1);
10 Spark
20 Spark
NULL Spark
> SELECT explode(c1) AS elem, 'Spark' FROM VALUES(array(10, 20)), (null) AS T(c1);
10 Spark
20 Spark
A következőkre vonatkozik: Databricks SQL
Databricks Runtime 12.2 LTS és újabb:
> SELECT elem, 'Spark' FROM explode(array(10, 20)) AS t(elem);
10 Spark
20 Spark
> SELECT num, val, 'Spark' FROM explode(map(1, 'a', 2, 'b')) AS t(num, val);
1 a Spark
2 b Spark
> SELECT * FROM explode(array(1, 2)), explode(array(3, 4));
1 3
1 4
2 3
2 4
-- Using lateral correlation in Databricks 12.2 and above
> SELECT * FROM explode(array(1, 2)) AS t, LATERAL explode(array(3 * t.col, 4 * t.col));
1 3
1 4
2 6
2 8