En el campo de la inteligencia artificial explicable, la evaluación de los métodos de explicación suele carecer de un estándar unificado. Cada estudio define sus propias métricas, muchas veces sin validación suficiente. Esta falta de transparencia dificulta la comparación entre enfoques y limita la confianza en las soluciones. Una solución práctica es adoptar tarjetas de evaluación que documenten de forma explícita los objetivos, supuestos, evidencias de validación y riesgos de manipulación de cada métrica. Este formato, similar a las model cards, permitiría a la comunidad compartir criterios comunes y facilitar el meta-análisis. En Q2BSTUDIO, trabajamos con inteligencia artificial para empresas desarrollando ia para empresas que exigen explicabilidad y robustez. Nuestro equipo combina aplicaciones a medida, software a medida, servicios cloud AWS y Azure, ciberseguridad, servicios de inteligencia de negocio con Power BI, y agentes IA, integrando prácticas de evaluación transparentes desde el diseño. La adopción de fichas de evaluación estandarizadas no solo mejora la reproducibilidad, sino que también permite a los profesionales seleccionar las métricas adecuadas según el contexto de uso. Así, la comunidad avanza hacia una IA más fiable y auditada.