Ataques adversarios a modelos de lenguaje grandes y mecanismos de defensa Descubre cómo proteger los modelos de lenguaje contra ataques adversarios y las defensas posibles en este estudio de gran relevancia. 2025-12-01 · 2 min