La evolución de los sistemas de recomendación hacia arquitecturas generativas ha planteado un desafío crítico en la gestión de la memoria de alto ancho de banda (HBM) en GPUs. Estos modelos mantienen dos tipos de cachés en conflicto directo por el mismo recurso limitado: las cachés de embeddings (EMB), que almacenan representaciones densas de usuarios e ítems, y las cachés de clave-valor (KV), que sostienen el contexto de las secuencias de atención. Asignar más memoria a una mejora su rendimiento individual pero perjudica a la otra, y la relación óptima entre ambas puede variar significativamente según la carga de trabajo, llegando a diferir hasta en 0,35 entre regímenes de tráfico. Los enfoques tradicionales optimizan cada caché de forma aislada, dejando sin explotar entre un 20 y un 30% de mejora potencial en latencia. Para cerrar esta brecha se requiere una reasignación en tiempo real, pero las aproximaciones ingenuas introducen tráfico de recarga desde CPU a GPU que alarga el camino crítico y provoca violaciones de los acuerdos de nivel de servicio (SLO) en el percentil 99. La solución pasa por una gestión conjunta de la asignación de HBM y el enrutamiento de peticiones, combinando un controlador adaptativo de memoria con un planificador consciente de la localidad de embeddings y KV. El controlador puede basarse en aprendizaje por refuerzo con múltiples niveles de abstracción —una política base congelada, un adaptador residual en línea y un controlador de recuperación ante ráfagas— para lograr decisiones en microsegundos con una desviación respecto al ratio óptimo offline inferior a 0,03. El planificador, por su parte, evalúa simultáneamente la residencia de KV en cada nodo, la localidad de los embeddings solicitados y la carga actual del servidor, evitando ineficiencias de enrutamiento cuando las asignaciones de memoria son heterogéneas entre nodos. Este enfoque puede reducir la latencia P99 entre un 24% y un 38% respecto a la mejor política estática, y alcanzar tasas de cumplimiento de SLO superiores al 93% incluso bajo patrones de tráfico estables, tendenciales o con ráfagas, sin sacrificar el rendimiento global. Para las empresas que desarrollan ia para empresas y sistemas de recomendación a gran escala, la capacidad de adaptar dinámicamente la memoria compartida entre cachés se convierte en un diferenciador clave. En Q2BSTUDIO entendemos que detrás de cada recomendación eficiente hay una infraestructura optimizada, y por eso ofrecemos aplicaciones a medida que integran inteligencia artificial, agentes IA y modelos generativos con un diseño que prioriza el uso eficiente de recursos hardware. Nuestros servicios abarcan desde el desarrollo de software a medida hasta la implantación de servicios cloud aws y azure, pasando por ciberseguridad y servicios inteligencia de negocio con power bi, todo ello orientado a que las organizaciones puedan escalar sus sistemas de recomendación sin comprometer la latencia ni la experiencia de usuario. La clave está en no tratar cada caché como una isla, sino en orquestar la memoria, el cómputo y el enrutamiento como un sistema unificado, una filosofía que aplicamos también en nuestros proyectos de automatización de procesos y arquitecturas cloud híbridas.