La medición de la incertidumbre en modelos de aprendizaje automático se ha convertido en un factor crítico para aplicaciones industriales donde la fiabilidad de las predicciones es tan importante como la precisión. En entornos con datos estructurados en forma de grafos, como redes de sensores o sistemas de navegación autónoma, las Redes Neuronales de Grafos (GNN) ofrecen un gran potencial, pero su rendimiento se ve limitado por la incertidumbre inherente a la propia naturaleza de los datos. Esta incertidumbre puede ser de dos tipos: la aleatoria, provocada por ruido o información incompleta como aristas faltantes, y la epistémica, que surge de la falta de conocimiento sobre la topología del grafo o las representaciones de los nodos. Para abordar este desafío, una línea de investigación novedosa propone modelar la incertidumbre epistémica a nivel de nodo mediante la teoría de conjuntos aleatorios, dando lugar a las Redes Neuronales de Grafos de Conjuntos Aleatorios (RS-GNN). Estas arquitecturas incorporan una cabeza basada en funciones de creencia que predice un conjunto aleatorio sobre las clases, del cual se deriva tanto una probabilidad precisa como una medida de incertidumbre epistémica. Este enfoque resulta especialmente valioso en dominios como la conducción autónoma, donde conjuntos de datos como Nuscenes o ROAD exigen modelos que sepan cuantificar cuándo no están seguros. En Q2BSTUDIO, entendemos que la ia para empresas no solo debe ser precisa, sino también transparente en sus niveles de confianza. Por ello, desarrollamos aplicaciones a medida que integran técnicas avanzadas de cuantificación de incertidumbre, permitiendo que los agentes IA tomen decisiones más robustas. Además, combinamos estos sistemas con servicios inteligencia de negocio como Power BI para visualizar los niveles de confianza en tiempo real, y desplegamos las soluciones sobre servicios cloud aws y azure garantizando escalabilidad. La incorporación de técnicas como RS-GNN en el desarrollo de software a medida permite a las empresas no solo mejorar la fiabilidad de sus modelos de inteligencia artificial, sino también cumplir con requisitos de auditoría y regulación, un aspecto clave también en ámbitos de ciberseguridad donde la incertidumbre mal gestionada puede derivar en vulnerabilidades. La aplicación de estos marcos probabilísticos abre una nueva dimensión en la confiabilidad de los sistemas inteligentes, posicionando a las organizaciones que los adoptan a la vanguardia de la innovación tecnológica.