La optimización de funciones no suaves bajo restricciones de ortogonalidad es un desafío recurrente en áreas como el aprendizaje automático, la estadística computacional y el análisis de datos de alta dimensión. Cuando la función objetivo combina términos no diferenciables con una restricción que exige que las columnas de una matriz sean ortogonales, los algoritmos clásicos de gradiente suelen fallar o resultar prohibitivamente costosos. Recientemente han surgido enfoques que descomponen el problema en subproblemas más pequeños, actualizando solo un subconjunto de variables por iteración. Esta idea, conocida como descenso por coordenadas de bloque, permite abordar de forma eficiente la no suavidad y la no convexidad intrínsecas, manteniendo la factibilidad de las soluciones. En cada paso se resuelve globalmente un problema de optimización de tamaño reducido, lo que reduce significativamente el costo computacional y garantiza convergencia hacia puntos con propiedades de optimalidad más fuertes que los puntos críticos convencionales. Estos avances tienen implicaciones prácticas directas en el desarrollo de software a medida para tareas como el aprendizaje de representaciones, la reducción de dimensionalidad o la factorización de matrices con restricciones. En Q2BSTUDIO, compañía especializada en inteligencia artificial, aplicamos principios similares de descomposición y optimización estructurada para construir aplicaciones a medida que integran agentes IA capaces de manejar grandes volúmenes de datos con restricciones geométricas complejas. La capacidad de resolver subproblemas no suaves de forma exacta, combinada con técnicas modernas de búsqueda de puntos de quiebre, permite implementar algoritmos robustos que escalan en entornos cloud. De hecho, muchos de nuestros despliegues se apoyan en servicios cloud aws y azure para ejecutar en paralelo las actualizaciones por bloques, mientras que los resultados se visualizan mediante power bi para la toma de decisiones. La optimización con ortogonalidad también aparece en problemas de ciberseguridad, por ejemplo al proyectar datos en subespacios invariantes que preservan la privacidad. Así, la teoría de descenso por coordenadas de bloque no solo enriquece el campo académico, sino que se traduce en soluciones prácticas que ofrecemos como parte de nuestros servicios inteligencia de negocio y estrategias de ia para empresas. Entender estos fundamentos permite a los equipos técnicos diseñar algoritmos más eficientes, evitando cuellos de botella típicos de los métodos de optimización global. La iteración controlada y la garantía de convergencia tipo Kurdyka–Lojasiewicz brindan además una base sólida para sistemas que requieren precisión numérica y repetibilidad, aspectos esenciales en entornos productivos.