Percorsi di integrazione di Microsoft Fabric per ISV
Microsoft Fabric offre ai fornitori di software indipendenti (ISV) tre percorsi distinti affinché si integrino facilmente con Fabric. Per un ISV a partire da questo percorso, vogliamo esaminare varie risorse disponibili in ognuno di questi percorsi.
Interop con OneLake di Fabric
L'obiettivo principale del modello Interop è consentire agli ISV di integrare le proprie soluzioni con OneLake Foundation. Per l'interoperabilità con Microsoft Fabric, l'integrazione viene fornita usando numerosi connettori in Data Factory e in Intelligence in tempo reale, API REST per OneLake, collegamenti in OneLake, condivisione dei dati tra tenant di Fabric e mirroring del database.
Le sezioni seguenti descrivono alcuni dei modi in cui è possibile iniziare a usare questo modello.
API OneLake
- OneLake supporta le API e gli SDK di Azure Data Lake Storage (ADLS) Gen2 esistenti per l'interazione diretta, consentendo agli sviluppatori di leggere, scrivere e gestire i dati in OneLake. Ulteriori informazioni sulle API RES di ADLS Gen2 e su come connettersi a OneLake.
- Poiché non tutte le funzionalità in ADLS Gen2 vengono mappate direttamente a OneLake, OneLake applica anche una struttura di cartelle impostata per supportare aree di lavoro ed elementi di Fabric. Per un elenco completo dei diversi comportamenti tra OneLake e ADLS Gen2 quando si chiamano queste API, vedere Parità di API OneLake.
- Se si usa Databricks e si vuole effettuare un collegamento a Microsoft Fabric, Databricks funziona con le API di ADLS Gen2. Eseguire l'integrazione di OneLake con Azure Databricks.
- Per sfruttare al meglio il formato di archiviazione Delta Lake, revisionare e comprendere il formato, l'ottimizzazione della tabella e V-Order. Ottimizzazione della tabella Delta Lake e V-Order.
- Una volta che i dati si trovano in OneLake, esplorare localmente usando Esplora file di OneLake. Esplora file di OneLake integra facilmente OneLake con Esplora file di Windows. Questa applicazione sincronizza automaticamente tutti gli elementi OneLake a cui si ha accesso in Esplora file di Windows. È anche possibile usare qualsiasi altro strumento compatibile con ADLS Gen2, ad esempio Azure Storage Explorer.
Api di Intelligence in tempo reale
Intelligence in tempo reale semplifica l'analisi e la visualizzazione dei dati, offrendo una soluzione centralizzata per informazioni dettagliate e azioni immediate, correlate con dati in movimento all'interno di un'organizzazione. Gestisce in modo efficiente grandi volumi di dati tramite potenti funzionalità di query, trasformazione e archiviazione.
- Gli eventhouse sono progettati specificamente per lo streaming dei dati, compatibili con l'hub in tempo reale e ideali per gli eventi basati sul tempo. I dati vengono indicizzati e partizionati automaticamente in base al tempo di inserimento, offrendo funzionalità di query analitiche incredibilmente veloci e complesse sui dati a granularità elevata a cui è possibile accedere in OneLake per l'uso nell'intera suite di esperienze di Fabric. Gli eventhouse supportano API e SDK di eventhouse esistenti per l'interazione diretta, consentendo agli sviluppatori di leggere, scrivere e gestire i dati negli eventhouse. Ulteriori informazioni su API REST.
- I flussi di eventi consentono di portare eventi in tempo reale da varie origini e di instradarli a varie destinazioni, ad esempio OneLake, database KQL in case eventi e Fabric Activator. Altre informazioni su eventstream e API eventstreams.
- Se si usano Databricks o Jupyter Notebook, è possibile usare la libreria client Python Kusto per lavorare con i database KQL in Fabric. Ulteriori informazioni su SDK per Python Kusto.
- È possibile utilizzare i connettori esistenti di App per la logica Microsoft, Azure Data Factory o Power Automate Microsoft per interagire con gli eventhouse o i database KQL.
- I collegamenti al database in Intelligence in tempo reale sono riferimenti incorporati all'interno di un eventhouse a un database di origine. Il database di origine può essere un database KQL in Intelligence in tempo reale o un database di Esplora dati di Azure. I collegamenti possono essere usati per la condivisione dei dati all'interno dello stesso tenant o tra tenant diversi. Ulteriori informazioni sulla gestione dei collegamenti al database tramite API.
Data Factory in Fabric
- Pipeline di dati offre un ampio insieme di connettori, consentendo a ISV di connettersi senza problemi a una miriade di archivi dati. Che si tratti di interfaccia di database tradizionali o soluzioni moderne basate sul cloud, i connettori garantiscono un processo di integrazione uniforme. Informazioni generali sui connettori.
- Con i connettori Gen2 di flusso di dati supportati, gli ISV possono sfruttare la potenza di Data Factory di Fabric per gestire flussi di lavoro di dati complessi. Questa funzionalità è particolarmente utile per ISV che cercano di semplificare le attività di elaborazione e trasformazione dei dati. Connettori Gen2 di flusso di dati in Microsoft Fabric.
- Per un elenco completo delle funzionalità supportate da Data Factory in Fabric, vedere questo blog di Data Factory in Fabric.
Collegamenti multi-cloud
I collegamenti in Microsoft OneLake consentono di unire i dati tra domini, cloud e account, creando un singolo data lake virtuale per l'intera azienda. Tutte le esperienze e i motori analitici di Fabric possono puntare direttamente alle origini dati esistenti, ad esempio OneLake in un tenant diverso, Azure Data Lake Storage (ADLS) Gen2, Account di archiviazione di Amazon S3, Google Cloud Storage (GCS), origini dati compatibili S3 e Dataverse tramite uno spazio dei nomi unificato. OneLake presenta ISV con una soluzione di accesso ai dati trasformativa, che esegue senza problemi l'integrazione tra domini e piattaforme cloud diversi.
- Ulteriori informazioni sui collegamenti a OneLake
- Ulteriori informazioni su OneLake una copia logica
- Ulteriori informazioni sui collegamenti al database KQL
Condivisione dei dati
Condivisione dei dati consente agli utenti Fabric di condividere i dati tra tenant di Fabric differenti senza duplicarli. Questa funzionalità migliora la collaborazione abilitando la condivisione dei dati sul posto da posizioni di archiviazione OneLake. I dati vengono condivisi come di sola lettura e sono accessibili tramite vari motori di calcolo Fabric, tra cui SQL, Spark, KQL e modelli semantici. Per usare questa funzionalità, gli amministratori Fabric devono abilitarla sia nella condivisione che nei tenant riceventi. Il processo include la selezione dei dati all'interno dell'hub dati o dell'area di lavoro OneLake, la configurazione delle impostazioni di condivisione e l'invio di un invito al destinatario previsto.
Mirroring del database
Il mirroring offre un modo moderno per accedere e inserire i dati in modo continuo e facile da database esterni o data warehouse nell'esperienza di data warehouse in Microsoft Fabric. Il mirroring è tutto quasi in tempo reale, consentendo agli utenti di accedere immediatamente alle modifiche nell'origine. Ulteriori informazioni su mirroring e database supportati.
Develop on Fabric
Con gli ISV di modello Develop on Fabric è possibile creare i propri prodotti e servizi in Fabric o incorporare facilmente le funzionalità di Fabric all'interno delle applicazioni esistenti. Si tratta di una transizione dall'integrazione di base all'applicazione attiva delle capacità offerte da Fabric. La superficie di integrazione principale è tramite le API REST per varie esperienze Fabric. La tabella seguente illustra un sottoinsieme di API REST raggruppato in base all'esperienza Fabric. Per un elenco completo, vedere Documentazione di API REST di Fabric.
Esperienze di Fabric | API |
---|---|
Data warehouse |
-
Warehouse - Warehouse con mirroring |
Ingegneria dei dati |
-
Lakehouse - Spark - Definizione del processo Spark - Tabelle - Processi |
Data Factory |
-
Pipeline di dati |
Intelligence in tempo reale |
-
Eventhouse - Database KQL - Set di query KQL - Eventstream |
Data science |
-
Notebook - Esperimento ML - Modello di ML |
OneLake |
-
Collegamenti - API ADLS Gen2 |
Power BI |
-
Report - Dashboard - Modello semantico |
Creare un carico di lavoro Fabric
Il modello Crea un carico di lavoro Fabric è progettato per consentire agli ISV di creare esperienze personalizzate nella piattaforma Fabric. Offre agli ISV gli strumenti e le funzionalità necessari per allineare le proprie offerte all'ecosistema Fabric, ottimizzando la combinazione delle loro esclusive proposte di valore con le ampie capacità di Fabric.
Il Kit di sviluppo di carico di lavoro Microsoft Fabric offre agli sviluppatori un toolkit completo per integrare le applicazioni nell'hub di Microsoft Fabric. Questa integrazione consente l'aggiunta di nuove capacità direttamente all'interno dell'area di lavoro Fabric, migliorando il percorso di analisi per gli utenti. Offre agli sviluppatori e agli ISV un nuovo percorso per raggiungere i clienti, fornendo esperienze sia familiari che nuove e sfruttando le applicazioni dati esistenti. Gli amministratori Fabric ottengono la possibilità di gestire l'accesso all'hub del carico di lavoro, abilitandolo per l'intero tenant o assegnandolo a un ambito specifico, al fine di controllare l'accesso all'interno dell'organizzazione.