Detección fundamentada de alucinaciones en grandes modelos de lenguaje mediante pruebas múltiples
Detección de alucinaciones en LLMs mediante pruebas múltiples. Aprende métodos eficaces para identificar errores y mejorar la fiabilidad de los modelos de lenguaje.