El avance de la inteligencia artificial en el descubrimiento de fármacos ha traído consigo un desafío profundo: los modelos moleculares son cada vez más precisos, pero sus decisiones suelen ser opacas. Predecir la toxicidad o la eficacia de un compuesto no basta si no se puede entender por qué. En este contexto, una nueva generación de modelos busca cerrar la brecha entre rendimiento y explicabilidad, y un ejemplo reciente es Bolek, un modelo multimodal compacto que integra representaciones estructurales de moléculas con razonamiento en lenguaje natural.

Bolek combina una huella dactilar molecular (Morgan fingerprint) con un decodificador de texto ajustado mediante instrucciones, lo que le permite generar explicaciones fundamentadas en propiedades cuantificables como el área de superficie polar topológica o el logP. Al entrenarse en tareas de alineación molecular —descripción de moléculas, predicción de descriptores RDKit y detección de subestructuras— y en razonamiento supervisado con cadenas de pensamiento sintéticas, el modelo logra no solo clasificar compuestos, sino también justificar sus respuestas con valores numéricos verificables. Los resultados muestran que, a pesar de tener menos de la mitad del tamaño de modelos comparables, supera a alternativas más grandes en múltiples tareas de clasificación binaria y ofrece una correlación muy alta con descriptores reales calculados por RDKit.

Este enfoque tiene implicaciones prácticas significativas. Para una empresa que desarrolla soluciones tecnológicas aplicadas a la ciencia, contar con modelos auditables y compactos permite integrarlos en flujos de trabajo de I+D sin depender de infraestructuras masivas. Por ejemplo, mediante inteligencia artificial para empresas es posible construir sistemas que no solo predigan, sino que expliquen sus predicciones, lo que resulta crítico en entornos regulados como el farmacéutico. Además, la capacidad de verificar las explicaciones contra propiedades físicas reales abre la puerta a auditorías automatizadas, un campo donde la ciberseguridad y la integridad de los datos también juegan un papel relevante.

Detrás de modelos como Bolek hay una tendencia más amplia: la necesidad de que la inteligencia artificial sea interpretable y confiable. Esto conecta directamente con el desarrollo de aplicaciones a medida que incorporen estos avances en entornos productivos. En Q2BSTUDIO trabajamos en la creación de software a medida que integra agentes IA capaces de razonar sobre datos complejos, apoyados en servicios cloud aws y azure para escalar de forma segura, y en servicios inteligencia de negocio como power bi para visualizar resultados que combinen predicciones y explicaciones. La clave está en ofrecer soluciones donde la tecnología no solo resuelva problemas, sino que los explique.

En definitiva, el camino hacia modelos moleculares más transparentes pasa por la fusión de representaciones numéricas con lenguaje natural y supervisión basada en hechos verificables. Bolek demuestra que es posible conseguir un alto rendimiento con modelos compactos y auditables, un principio que puede trasladarse a otros dominios donde la explicabilidad sea tan valiosa como la precisión.