Cuando los modelos sobrepasan su seguridad: Revelando y mitigando el auto-jailbreak en modelos de razonamiento grandes
Mitigando el auto-jailbreak en modelos de razonamiento grandes: Estrategias para evitar vulnerabilidades y mantener la seguridad en sistemas de inteligencia artificial avanzados.