Crear y usar Dataflows Gen2 en Microsoft Fabric

Microsoft Fabric ofrece Dataflows Gen2 que se conectan a múltiples orígenes de datos y realizan transformaciones en Power Query Online para luego usarse en Data Pipelines, alimentar un lakehouse u otra tienda analítica, o definir un dataset para un informe Power BI. A continuación se presenta una guía práctica y resumida para crear y usar Dataflows Gen2, pensada para introducir sus elementos principales sin entrar en complejidades empresariales.
Crear un espacio de trabajo: Inicia sesión en Microsoft Fabric y crea un workspace con la licencia Fabric Trial o una capacidad Premium. Desde el menú lateral selecciona Workspaces y crea uno nuevo con el modo de licenciamiento que incluya Fabric. Al abrirse el workspace estará vacío y listo para seguir.
Crear un lakehouse: En el workspace selecciona Create y en Data Engineering elige Lakehouse. Asigna un nombre único y espera unos instantes hasta que se cree el lakehouse vacío donde se almacenará la información procesada.
Crear un Dataflow Gen2 para ingerir datos: Desde la página principal del lakehouse selecciona Get data y New Dataflow Gen2. En el editor de Power Query Online elige Import from a Text/CSV y crea un origen que apunte al fichero de ejemplo orders.csv. Previsualiza y crea la fuente. Power Query mostrará pasos iniciales de formato. En la pestaña Add column crea una columna personalizada llamada MonthNo con tipo Whole Number y usa la fórmula Date.Month([OrderDate]) para extraer el mes de la fecha de pedido. Verifica que OrderDate tenga tipo Date y MonthNo tipo Whole Number. En el panel Query Settings verás los Applied Steps y puedes activar el Diagrama visual para revisar el flujo de transformaciones.
Agregar destino de datos para el Dataflow: En Home selecciona Add data destination y elige Lakehouse. Firma con la cuenta organizacional para que el dataflow use esa identidad al escribir en el lakehouse. Selecciona tu workspace y el lakehouse creado, define una nueva tabla llamada orders, desactiva Use automatic settings, elige Append y guarda la configuración. Guarda y ejecuta el dataflow con Save & run para crear el Dataflow en el workspace.
Incluir el dataflow en una pipeline: Desde el workspace crea un nuevo Data pipeline y nómbrala Load data. En el editor de pipeline añade un Pipeline activity y dentro un Dataflow activity. En Settings selecciona el Dataflow 1 creado previamente. Guarda la pipeline y ejecútala con Run; la ejecución puede tardar varios minutos. Luego, en el lakehouse selecciona refresh en el menú de Tables y expande Tables para verificar que la tabla orders fue creada y poblada por el dataflow.
Conectar desde Power BI: En Power BI Desktop puedes conectar directamente a las transformaciones del dataflow usando el conector Power BI dataflows Legacy, aplicar transformaciones adicionales, publicar como dataset y distribuirlo a los usuarios objetivos para informes y cuadros de mando.
Cómo lo hacemos en Q2BSTUDIO: En Q2BSTUDIO somos una empresa de desarrollo de software y aplicaciones a medida especializada en soluciones de inteligencia de negocio y modernización de datos. Implementamos procesos ETL con Dataflows Gen2 y canalizamos resultados hacia lakehouses y datasets para Power BI. Ofrecemos servicios integrales que incluyen aplicaciones a medida y software a medida, arquitecturas cloud en AWS y Azure, y proyectos de inteligencia artificial para empresas. Si buscas potenciar tus cuadros de mando y procesos analíticos podemos ayudarte con Power BI y servicios de inteligencia de negocio y con soluciones de inteligencia artificial adaptadas a tu organización.
Servicios complementarios y palabras clave: Además desarrollamos agentes IA, automatizaciones, ciberseguridad y pentesting, servicios cloud aws y azure, y proyectos de ia para empresas. Si necesitas integración de pipelines orquestadas, despliegue seguro en la nube o creación de aplicaciones empresariales que consuman datasets analíticos, Q2BSTUDIO cubre desde el diseño hasta la operación continua.
Resumen práctico: Dataflows Gen2 en Fabric permiten extraer, transformar y cargar datos de forma gestionada, reutilizable y escalable. Crea un workspace, un lakehouse, define tu dataflow con Power Query Online, configura el destino en el lakehouse, guarda y ejecuta; opcionalmente orquesta la ejecución con una pipeline y conecta los resultados a Power BI para reporting. Para proyectos a medida y acompañamiento en inteligencia de negocio, inteligencia artificial o seguridad consulta a Q2BSTUDIO.
Contacto y próximos pasos: Si te interesa que te ayudemos a implementar Dataflows Gen2, pipelines orquestadas, desarrollo de aplicaciones a medida o proyectos de inteligencia artificial y ciberseguridad, ponte en contacto con nuestro equipo y descubre cómo transformar tus datos en decisiones de negocio.
Comentarios