Comparteix a través de


Caminos de integración de Microsoft Fabric para los ISV

Microsoft Fabric ofrece tres caminos distintos para que los proveedores de software independientes (ISV) se integren sin problemas con Fabric. Para un ISV que comienza este camino, queremos explorar varios recursos que tenemos disponibles en cada uno de estos trayectos.

Ilustración en la que se muestran los tres caminos que se van a integrar con Fabric: Interoperabilidad, Desarrollo de aplicaciones y Creación de una carga de trabajo de Fabric.

Interoperabilidad con Fabric OneLake

El enfoque principal con el modelo de interoperabilidad consiste en permitir que los ISV integren sus soluciones con la OneLake Foundation. Para interopar con Microsoft Fabric, proporcionamos integración con una gran cantidad de conectores en Data Factory y en inteligencia en tiempo real, API REST para OneLake, accesos directos en OneLake, uso compartido de datos entre inquilinos de Fabric y creación de reflejo de la base de datos.

Ilustración en la que se muestran diferentes formas de interoperabilidad con OneLake: API, Data Factory, RTI, accesos directos multinube, uso de datos compartidos y creación de reflejo de la base de datos.

En las secciones siguientes se describen algunas de las formas en que puede empezar a trabajar con este modelo.

API de OneLake

  • OneLake admite las API y los SDK de Azure Data Lake Storage (ADLS) Gen2 existentes para la interacción directa, lo que permite a los desarrolladores leer, escribir y administrar sus datos en OneLake. Obtén más información sobre las API de REST de ADLS Gen2 y de Cómo conectarse a OneLake.
  • Debido a que no todas las funcionalidades de ADLS Gen2 se corresponden directamente con OneLake, OneLake también impone una estructura de carpetas específica para admitir las áreas de trabajo y elementos de Fabric. Para obtener una lista completa de diferentes comportamientos entre OneLake y ADLS Gen2 al llamar a estas API, consulta Paridad de API de OneLake.
  • Si usas Databricks y quieres conectarte a Microsoft Fabric, Databricks funciona con las API de ADLS Gen2. Integrar OneLake con Azure Databricks.
  • Para aprovechar al máximo lo que puede hacer el formato de almacenamiento de Delta Lake, revisa y comprende el formato, la optimización de tablas y el V-Order. Optimización de tablas Delta Lake y V-Order.
  • Una vez que los datos están en OneLake, explora localmente mediante el Explorador de archivos de OneLake. El explorador de archivos de OneLake integra perfectamente OneLake con el explorador de archivos de Windows. Esta aplicación sincroniza automáticamente todos los elementos de OneLake a los que tiene acceso en el explorador de archivos de Windows. También puedes usar cualquier otra herramienta compatible con ADLS Gen2, como el Explorador de Azure Storage.

Diagrama que muestra cómo interactúan las API de OneLake con las cargas de trabajo de Fabric.

API de Real-Time Intelligence

Real-Time Intelligence simplifica el análisis y la visualización de datos, ofreciendo una solución centralizada para obtener información inmediata y acciones sobre los datos en movimiento dentro de una organización. Administra eficazmente grandes volúmenes de datos a través de funcionalidades de consulta, transformación y almacenamiento sólidas.

  • Los Centros de Eventos están diseñados específicamente para el streaming de datos, son compatibles con el hub de Datos en Tiempo Real y son ideales para eventos basados en el tiempo. Los datos se indexan y particionan automáticamente en función del tiempo de ingesta, lo que proporciona funcionalidades de consulta analíticas increíblemente rápidas y complejas en datos de granularidad alta a los que se puede acceder en OneLake para su utilización en el conjunto de experiencias de Fabric. Los Eventhouses admiten las API y los SDK de Eventhouses existentes para la interacción directa, lo que permite a los desarrolladores leer, escribir y administrar sus datos en Eventhouses. Obtenga más información sobre la API de REST.
  • Eventstreams le permite traer eventos en tiempo real de varios orígenes y enrutarlos a varios destinos, como OneLake, bases de datos KQL en centros de eventos y Fabric Activator. Obtenga más información sobre eventstreams y la API de eventstreams.
  • Si usa Databricks o Jupyter Notebooks, puede utilizar la biblioteca cliente de Python de Kusto para trabajar con bases de datos KQL en Fabric. Obtenga más información sobre el SDK de Python de Kusto.
  • Puede utilizar los conectores existentes de Microsoft Logic Apps, Azure Data Factory o Microsoft Power Automate para interactuar con los Eventhouses o las bases de datos de KQL.
  • Los métodos abreviados de base de datos de Inteligencia en tiempo real se insertan referencias dentro de un centro de eventos a una base de datos de origen. La base de datos de origen puede ser una base de datos KQL en Inteligencia en tiempo real o una base de datos de Azure Data Explorer. Los accesos directos se pueden usar para compartir datos dentro del mismo inquilino o entre inquilinos. Obtenga más información sobre la administración de accesos directos de base de datos mediante la API.

Diagrama que muestra cómo interactúan las API de Inteligencia en tiempo real con las cargas de trabajo de Fabric.

Data Factory en Fabric

  • Data Pipelines cuenta con un amplio conjunto de conectores, lo que permite a los ISV conectarse sin esfuerzo a una gran cantidad de almacenes de datos. Tanto si está interconectando bases de datos tradicionales como soluciones modernas basadas en la nube, nuestros conectores garantizan un proceso de integración sin problemas. Descripción general de los conectores.
  • Con nuestros conectores de Dataflow Gen2 compatibles, los ISV pueden aprovechar la eficacia de Fabric Data Factory para administrar flujos de trabajo de datos complejos. Esta característica es especialmente beneficiosa para los ISV que buscan simplificar las tareas de procesamiento y transformación de datos. Conectores de Dataflow Gen2 en Microsoft Fabric.
  • Para obtener una lista completa de las funcionalidades admitidas por Data Factory en Fabric, consulta Data Factory en el blog de Fabric.

Captura de pantalla de la interfaz de Fabric Data Factory.

Accesos directos multinube

Los accesos directos de Microsoft OneLake permiten unificar los datos entre dominios, nubes y cuentas mediante la creación de un único lago de datos virtual para toda la empresa. Todas las experiencias de Fabric y los motores analíticos pueden apuntar directamente a los orígenes de datos existentes, como OneLake en un otro inquilino, Azure Data Lake Storage (ADLS) Gen2, cuentas de almacenamiento de Amazon S3, Google Cloud Storage(GCS), orígenes de datos compatibles con S3 y Dataverse mediante un espacio de nombres unificado. OneLake presenta a los ISV una solución de acceso a datos transformadora, un puente sin problemas de integración entre diversos dominios y plataformas en la nube.

Diagrama que muestra accesos directos multinube en OneLake.

Uso compartido de datos

El uso compartido de datos permite a los usuarios de Fabric compartir datos en distintos inquilinos de Fabric sin duplicarlos. Esta característica mejora la colaboración al permitir que los datos se compartan "en su lugar" desde ubicaciones de almacenamiento de OneLake. Los datos se comparten como de solo lectura, son accesibles a través de varios motores de cálculo de Fabric, como SQL, Spark, KQL y modelos semánticos. Para emplear esta característica, los administradores de Fabric deben habilitarla tanto en los inquilinos que comparten como en los receptores. El proceso incluye la selección de datos en el centro de datos o área de trabajo de OneLake, la configuración de los valores de uso compartido y el envío de una invitación al destinatario previsto.

Diagrama que muestra cómo funciona el proceso de uso compartido de datos en Fabric.

Creación de reflejo de la base de datos

El reflejo en Fabric proporciona una experiencia sencilla para evitar la ETL compleja (extracción, transformación y carga) e integrar sus datos existentes en OneLake con el resto de los datos en Microsoft Fabric. Puede replicar continuamente los datos existentes directamente en OneLake de Fabric. En Fabric, puede desbloquear potentes escenarios de inteligencia empresarial, inteligencia artificial, ingeniería de datos, ciencia de datos y uso compartido de datos.

Diagrama que muestra la creación de reflejo de la base de datos en Fabric.

La creación de reflejo abierta permite cualquier aplicación escribir datos modificados directamente en una base de datos reflejada en Fabric. El espejado abierto está diseñado para ser extensible, personalizable y abierto. Es una característica poderosa que amplía el reflejo en Fabric en función del formato de tabla abierto de Delta Lake. Una vez que los datos llegan a OneLake en Fabric, el espejo abierto simplifica el control de cambios complejos de datos, lo que garantiza que todos los datos reflejados estén actualizados y siempre listos para su análisis.

Desarrollar en Fabric

Diagrama que muestra cómo crear aplicaciones en Fabric.

Con el modelo Desarrollar en Fabric, los ISVs pueden crear sus productos y servicios sobre Fabric o integrar sin problemas las funcionalidades de Fabric dentro de sus aplicaciones existentes. Se trata de una transición de la integración básica a la aplicación activa de las funcionalidades que ofrece Fabric. La superficie principal de integración es a través de API REST para varias experiencias de Fabric. En la tabla siguiente se muestra un subconjunto de API de REST agrupadas por la experiencia de Fabric. Para obtener una lista completa, consulte la documentación de la API de REST de Fabric.

Experiencia de Fabric API
Almacén de datos - Almacén:
- Almacén reflejado
Ingeniería de datos - Lakehouse
- Spark
- Definición de trabajos de Spark
- Tablas
- Trabajos
Data Factory - DataPipeline
Inteligencia en tiempo real - Eventhouse
- Base de datos KQL
- Conjunto de consultas KQL
- Eventstream
Ciencia de datos - Cuaderno
- Experimento de ML
- Modelo de ML
OneLake - Acceso directo
- API de ADLS Gen2
Power BI - Report
- Panel
- Modelo semántico

Compilar una carga de trabajo de Fabric

Diagrama que muestra cómo crear su propia carga de trabajo de tejido.

La creación de un modelo de carga de trabajo de Fabric está diseñada para permitir a los ISV crear experiencias personalizadas en la plataforma Fabric. Proporciona a los ISV las herramientas y funcionalidades necesarias para alinear sus ofertas con el ecosistema de Fabric, optimizando la combinación de sus propuestas de valor únicas con las amplias funcionalidades de Fabric.

El kit de desarrollo de cargas de trabajo de Microsoft Fabricofrece un kit de herramientas completo para que los desarrolladores integren aplicaciones en el centro de Microsoft Fabric. Esta integración permite agregar nuevas funcionalidades directamente dentro del área de trabajo de Fabric, lo que mejora el recorrido de análisis para los usuarios. Proporciona a los desarrolladores e ISV una nueva vía para llegar a los clientes, ofrecer experiencias familiares y nuevas, y aprovechar las aplicaciones de datos existentes. Los administradores de Fabric tienen la capacidad de administrar quién puede agregar cargas de trabajo en una organización.

Centro de cargas de trabajo

El centro de cargas de trabajo en Microsoft Fabric sirve como una interfaz centralizada en la que los usuarios pueden explorar, administrar y acceder a todas las cargas de trabajo disponibles. Cada carga de trabajo de Fabric está asociada a un tipo de elemento específico que se puede crear en áreas de trabajo de Fabric. Al navegar por el centro de cargas de trabajo, los usuarios pueden detectar e interactuar fácilmente con varias cargas de trabajo, lo que mejora sus funcionalidades analíticas y operativas.

Diagrama que muestra el centro de cargas de trabajo de tejido

Los usuarios pueden aprovechar las cargas de trabajo de asociados enumeradas en la pestaña Más cargas de trabajo y usarlas en sus proyectos analíticos. Los administradores de Fabric tienen derechos para Administrar la disponibilidad de la carga de trabajo, lo que hace que sean accesibles en todo el inquilino o dentro de capacidades específicas. Esta extensibilidad garantiza que Fabric siga siendo una plataforma flexible y escalable, lo que permite a las organizaciones adaptar su entorno de carga de trabajo para satisfacer los requisitos empresariales y de datos en constante evolución. Mediante la integración sin problemas con el marco de seguridad y gobernanza de Fabric, workload Hub simplifica la implementación y administración de cargas de trabajo.

Diagrama en el que se muestran las cargas de trabajo de asociados.

Actualmente, el centro de cargas de trabajo ofrece cinco cargas de trabajo en versión preliminar pública, lo que permite a las organizaciones mejorar y ampliar las funcionalidades de Fabric. Cada carga de trabajo incluye una experiencia de prueba para que los usuarios empiecen a trabajar rápidamente. Estas cargas de trabajo disponibles incluyen:

  • 2TEST: una carga de trabajo de control de calidad completa que automatiza las pruebas y las comprobaciones de calidad de datos.

    Captura de pantalla que muestra la carga de trabajo 2test.

  • Gestor de datos de Osmos AI: automatiza la preparación de datos con gestores de datos impulsados por inteligencia artificial, facilitando la transformación de datos.

    Captura de pantalla que muestra la carga de trabajo de osmos.

  • Power Designer: una herramienta para la creación de estilos y plantillas de informes a nivel empresarial que mejora los diseños de informes de Power BI.

    Captura de pantalla que muestra la carga de trabajo de pbitips.

  • Quantexa Unify: mejora los orígenes de datos de Microsoft OneLake al proporcionar una vista de 360 grados con funcionalidades avanzadas de resolución de datos.

    Captura de pantalla que muestra la carga de trabajo de quantexa.

  • Teradata AI Unlimited: combina el motor analítico de Teradata con las funcionalidades de administración de datos de Microsoft Fabric a través de las funciones en base de datos de Teradata.

    Captura de pantalla que muestra la carga de trabajo de teradata.

A medida que haya más cargas de trabajo disponibles, el centro de cargas de trabajo seguirá funcionando como un espacio dinámico para detectar nuevas funcionalidades, lo que garantiza que los usuarios tengan las herramientas que necesitan para escalar y optimizar sus soluciones controladas por datos.