ClawGuard: Un marco de seguridad en tiempo de ejecución para agentes de LLM aumentados con herramientas contra la inyección indirecta de indicaciones.
<meta name=description content=ClawGuard protege agentes LLM contra inyección indirecta con seguridad en ejecución. Descubre cómo evitar ataques en modelos de lenguaje.>