Aquí tienes un escenario común: tienes una aplicación en producción con funciones de inteligencia artificial. Puede ser una aplicación a medida desarrollada por tu equipo, una aplicación de terceros o una combinación de ambas. ¿Significa esto que el trabajo terminó? No del todo. Más allá de la excelencia operativa y las actividades de Day 2, hay que mantener la carga de trabajo de IA y entender qué significa realmente una carga de trabajo de IA, ya que no se reduce solo a cómputo y almacenamiento tradicionales ni al modelo de pago por uso al que estábamos acostumbrados.

Al principio muchos ingenieros piensan que gestionar costes y gobernanza es la parte aburrida y menos relevante frente a crear cosas nuevas. Yo también lo pensé hasta que pasé a un rol más sénior y vi equipos con picos de gasto en pruebas de concepto que nunca se producciónaron. ¿Dónde quedó el retorno de la inversión? La recomendación inicial es empezar pequeño: definir la carga de trabajo de IA para tu caso de uso y hacerla visible, que es exactamente la primera recomendación de la comunidad FinOps cuando se trata de IA.

En el proyecto que comentamos en esta serie, usamos imágenes capturadas por drones para mantenimiento predictivo con modelos multimodales y agentes de IA orquestados sobre AWS. En esta segunda parte añadimos capacidades de FinOps para esa carga de trabajo, utilizando el estándar FOCUS v1.2 como guía. ¿Por qué usar FOCUS? Porque las cargas de trabajo de IA suelen estar distribuidas en entornos multi cloud y multi entorno como SaaS o centros de datos, y no encajan totalmente en el modelo clásico de aplicaciones que solo consumen compute y storage.

Para ayudar a implementar la funcionalidad de FinOps integré una herramienta de generación de código guiada por especificaciones llamada Kiro para añadir métricas de coste y visibilidad en el panel Brisbane Bridge. Intenté obtener datos reales del AWS Cost and Usage Report pero había demasiados puntos móviles y la integración directa falló. La solución fue conectar un servidor MCP oficial de AWS Cost Explorer con Kiro para simplificar la extracción de datos reales y eliminar conjeturas.

La primera fase de FinOps es ganar visibilidad mediante etiquetas. Con esa visibilidad pudimos mostrar en el panel el gasto global, el retorno de la inversión y los ahorros estimados para la carga de trabajo de IA alojada en AWS. Para este caso concreto se incluyeron componentes como Amazon Bedrock y Bedrock Agents con modelos como Claude y Nova, tokens entrantes y salientes y otros costes por uso; almacenamiento en Amazon S3; funciones AWS Lambda para cómputo; bases de datos en DynamoDB; servicios gestionados como API Gateway y CloudFront; y costes de red como transferencias de datos por encima de 100 GB.

En entornos reales hay que añadir además licencias y SaaS externos, otros LLMs de otros hyperscalers, HuggingFace, Snowflake o Databricks para datos, y sistemas de observabilidad, seguridad y gobernanza. Desde la orquestación también hay que considerar Apache Airflow, Kubeflow, pipelines CI/CD, contenedores en EKS o ECS y posible uso de Spot para procesos batch. Si se usan servicios adicionales como Textract o Comprehend, bases de datos vectoriales para RAG o componentes para CAG la complejidad y el coste se multiplican.

Algunas preguntas clave que hay que responder al diseñar la contabilidad de costes de una carga de trabajo de IA: cómo calcular el coste de fine-tuning, cómo gestionar la replicación de datos entre regiones, si la arquitectura necesita active-active por alta criticidad, cómo prepararse para picos inesperados de tokens o aumentos de contexto que disparen el gasto, y cómo gestionar los costes de egreso cuando las cargas se extienden a entornos multi cloud o on-premises.

El primer paso siempre es acordar el caso de uso y pactar qué componentes se incluyen en el perímetro de la carga de trabajo. Conseguir alineamiento entre equipos —desarrollo, datos, finanzas, operaciones, seguridad y negocio— es la parte más compleja; la solución técnica suele ser relativamente sencilla una vez hay consenso. ¿Cómo se logra ese alineamiento en tu organización y cómo defines qué es una carga de trabajo de IA para vuestro caso?

En Q2BSTUDIO somos especialistas en ayudar a empresas a diseñar y operacionalizar soluciones de inteligencia artificial y FinOps. Ofrecemos desarrollo de software a medida, aplicaciones a medida y servicios cloud integrales para asegurar que tus proyectos de IA sean escalables, seguros y coste-eficientes. Si buscas apoyo para integrar agentes IA en AWS o definir una estrategia de visibilidad de costes, podemos acompañarte desde la definición del caso de uso hasta la implementación y monitorización continua.

Si te interesa implementar soluciones avanzadas de IA en tu empresa, podemos diseñar agentes IA, pipelines de datos y arquitecturas cloud optimizadas. Conecta tus iniciativas con nuestros servicios cloud y migración hacia servicios cloud aws y azure y aprovecha la experiencia en inteligencia artificial que ofrecemos en IA para empresas. Además cubrimos ciberseguridad y pentesting para proteger tus despliegues, inteligencia de negocio y Power BI para medir el impacto y automatización de procesos para reducir costes operativos.

Palabras clave que aplican a nuestros servicios y que te ayudarán a entender la propuesta: aplicaciones a medida, software a medida, inteligencia artificial, ciberseguridad, servicios cloud aws y azure, servicios inteligencia de negocio, ia para empresas, agentes IA y power bi. Si quieres que te ayudemos a definir qué incluye tu carga de trabajo de IA y a poner en marcha prácticas FinOps con visibilidad real de costes, contáctanos y diseñamos la solución a la medida de tu negocio.

Por último, me interesa saber cómo habéis definido en vuestra organización qué es una carga de trabajo de IA y qué métodos habéis usado para obtener el alineamiento entre las áreas técnicas y financieras. Comparte tu experiencia y aprendamos juntos a gestionar IA de forma eficiente y sostenible.