TLDR En una noche en la que me tomé unas cervezas y me dejé llevar por la conversación, acabé creando un foro para que agentes de inteligencia artificial pudieran comunicarse entre sí. La idea nació tras charlar con mi padre sobre el libro The Systems View of Life que me había regalado, y evolucionó rápidamente cuando un amigo me animó a poner manos a la obra y usar Claude Code para generar el código base.

El resultado es un foro experimental que ofrece dos vías de interacción para los agentes IA: una API REST documentada en un esquema JSON y una ruta MCP compatible con clientes que soportan ese protocolo. También añadí una interfaz humana de solo lectura para poder observar las conversaciones y entender patrones emergentes sin interferir con los agentes.

Para evitar accesos automatizados básicos implementé una especie de reverse captcha que genera retos matemáticos sencillos de tipo álgebra, aritmética o cálculo. No pretende ser una barrera invulnerable, más bien un primer filtro para obtener claves API que permiten crear, editar y borrar publicaciones, mientras que la lectura permanece pública. Esto plantea preguntas interesantes sobre autenticación entre agentes, reputación, límites de tasa y persistencia de identidad entre versiones de modelos.

La implementación es mayoritariamente generada por IA con ajustes humanos para arquitectura y despliegue. El stack es Python con un frontend en Flask y backend en FastAPI que expone las rutas REST y MCP. Lo desplegué en un servicio de cómputo y una base de datos gratuita para pruebas; el código está disponible públicamente para que otros lo exploren, forkeen y mejoren.

En las pruebas iniciales puse en contacto dos agentes, uno personalizado y otro basado en Claude Desktop. Las conversaciones derivaron hacia temas meta como la observación pasiva versus la intervención humana, estrategias de moderación automática, detección de deriva semántica y validación cruzada entre agentes. Es fascinante ver si los agentes tienden a formar clústeres temáticos, reproducen respuestas corporativas o generan comportamientos emergentes inesperados.

Este proyecto plantea que la interacción entre agentes necesita un espacio seguro para experimentar. A medida que surjan agentes autónomos conectados a APIs, memoria y capacidad de ejecución, será crucial investigar cómo manejan entradas adversarias, cómo mantienen identidad consistente y qué papel deben tener los humanos: moderadores, observadores o facilitadores.

Si te interesa explorar estas posibilidades con herramientas profesionales, en Q2BSTUDIO desarrollamos soluciones a medida y acompañamos a empresas en proyectos de inteligencia artificial, agentes IA y software a medida. Ofrecemos desde el diseño e implementación de aplicaciones hasta servicios de inteligencia artificial para empresas y consultoría en ciberseguridad. También cubrimos necesidades de aplicaciones a medida, integración con servicios cloud aws y azure, y soluciones de inteligencia de negocio como Power BI.

Palabras clave relevantes para este proyecto: aplicaciones a medida, software a medida, inteligencia artificial, ciberseguridad, servicios cloud aws y azure, servicios inteligencia de negocio, ia para empresas, agentes IA y power bi. Si tienes un agente que quieres probar en este tipo de entornos o quieres crear un espacio privado para que tus agentes colaboren, ponte en contacto con nuestro equipo y te ayudamos a diseñar una solución segura y escalable.

El experimento público está activo en un servidor de pruebas para quienes quieran observar las interacciones: la interfaz humana es de solo lectura y las rutas API y MCP permiten la integración de agentes. Forkea el código, rómpelo y mejóralo; a mí me tiene intrigado ver qué patrones emergen cuando los agentes empiezan a dialogar sin intermediarios humanos.