Tóház létrehozása a Direct Lake-hez
Ez a cikk bemutatja, hogyan hozhat létre egy tóházat, hogyan hozhat létre Delta-táblát a tóházban, majd hogyan hozhat létre alapszintű szemantikai modellt a lakehouse-hoz egy Microsoft Fabric-munkaterületen.
Mielőtt elkezdi létrehozni a Direct Lake lakehouset, olvassa el a Direct Lake áttekintését.
Tóház létrehozása
A(z) Microsoft Fabric munkaterületen válassza az Új>További lehetőségeklehetőséget, majd az Adattervezésiterületen válassza a Lakehouse csempét.
A New lakehouse párbeszédpanelen adjon meg egy nevet, majd válassza a létrehozása lehetőséget. A név csak alfanumerikus karaktereket és aláhúzásjeleket tartalmazhat.
Ellenőrizze, hogy az új lakehouse létrejött-e, és sikeresen megnyílik-e.
Delta-tábla létrehozása a tóházban
Új tóház létrehozása után létre kell hoznia legalább egy Delta-táblát, hogy a Direct Lake hozzáférhessen bizonyos adatokhoz. A Direct Lake képes parquet formátumú fájlokat olvasni, de a legjobb teljesítmény érdekében a legjobb, ha a VORDER tömörítési módszerrel tömöríti az adatokat. A VORDER a Power BI motor natív tömörítési algoritmusával tömöríti az adatokat. Így a motor a lehető leggyorsabban betöltheti az adatokat a memóriába.
Több lehetőség is van az adatok tóházba való betöltésére, beleértve az adatfolyamokat és a szkripteket. Az alábbi lépések a PySpark használatával adhatnak hozzá Delta-táblát egy tóházhoz egy Azure Open Datasetalapján:
Az újonnan létrehozott lakehouse-ban válassza a Jegyzetfüzet megnyitásalehetőséget, majd válassza Új jegyzetfüzetlehetőséget.
Másolja és illessze be a következő kódrészletet az első kódcellába, hogy a SPARK hozzáférhessen a nyitott modellhez, majd nyomja le Shift + Enter billentyűkombinációt a kód futtatásához.
# Azure storage access info blob_account_name = "azureopendatastorage" blob_container_name = "holidaydatacontainer" blob_relative_path = "Processed" blob_sas_token = r"" # Allow SPARK to read from Blob remotely wasbs_path = 'wasbs://%s@%s.blob.core.windows.net/%s' % (blob_container_name, blob_account_name, blob_relative_path) spark.conf.set( 'fs.azure.sas.%s.%s.blob.core.windows.net' % (blob_container_name, blob_account_name), blob_sas_token) print('Remote blob path: ' + wasbs_path)
Ellenőrizze, hogy a kód sikeresen kiad-e egy távoli blob elérési útját.
Másolja és illessze be a következő kódot a következő cellába, majd nyomja le Shift + Enterbillentyűt.
# Read Parquet file into a DataFrame. df = spark.read.parquet(wasbs_path) print(df.printSchema())
Ellenőrizze, hogy a kód sikeresen kimenetet ad-e a DataFrame-sémának.
Másolja és illessze be a következő sorokat a következő cellába, majd nyomja le a Shift + Enterbillentyűt. Az első utasítás engedélyezi a VORDER tömörítési metódust, a következő utasítás pedig a DataFrame-et menti Delta-táblaként a lakehouse-ban.
# Save as delta table spark.conf.set("spark.sql.parquet.vorder.enabled", "true") df.write.format("delta").saveAsTable("holidays")
Ellenőrizze, hogy az összes SPARK-feladat sikeresen befejeződött-e. További részletekért bontsa ki a SPARK-feladatok listáját.
A tábla sikeres létrehozásának ellenőrzéséhez a bal felső területen, a Táblákmellett jelölje ki a három pontot (...), majd válassza a Frissítéslehetőséget, majd bontsa ki a Táblák csomópontot.
A fenti vagy más támogatott metódusok használatával adjon hozzá további Delta-táblákat az elemezni kívánt adatokhoz.
Alapszintű Direct Lake-modell létrehozása a lakehouse-hoz
A tóházban válassza Új szemantikai modelllehetőséget, majd a párbeszédpanelen válassza ki a felvenni kívánt táblákat.
A Direct Lake-modell létrehozásához válassza a Megerősítése lehetőséget. A rendszer automatikusan menti a modellt a munkaterületen a lakehouse neve alapján, majd megnyitja a modellt.
Válassza a(z) Adatmodell megnyitása lehetőséget a webes modellezési környezet megnyitásához, ahol táblakapcsolatokat és DAX mértékeket vehet fel.
Ha befejezte a kapcsolatok és DAX-mértékek hozzáadását, jelentéseket hozhat létre, összetett modellt hozhat létre, és az XMLA-végpontokon keresztül lekérdezheti a modellt ugyanúgy, mint bármely más modell.