En mi entrega anterior presenté una aplicación sencilla basada en LangGraph que encargaba a un LLM escribir sobre cualquier tema, incorporando búsquedas web en tiempo real y generando imágenes a medida con estilos de redacción diferenciados. Ahora voy a reescribir y sintetizar ese proyecto, traducido al español, con un enfoque en su arquitectura, los retos encontrados y cómo se integra con servicios y prácticas profesionales de desarrollo como los que ofrecemos en Q2BSTUDIO.

Imagina una sala de redacción a las 8 de la mañana. Un equipo de investigación trae una lista de temas trending y alrededor de la mesa cinco editores debaten cuál cubrir: Andrew, contundente y centrado en asuntos internacionales; Edward, analítico y orientado a finanzas; Bob, apasionado por la tecnología; Ruby, defensora de la sostenibilidad y el bienestar; y Susan, experta en cultura pop y relatos humanos. El director de redacción exige decisiones rápidas: cada editor debe elegir un tema y escribirlo de inmediato. Esa escena es la metáfora de la solución que diseñé: una Newsroom AI, un sistema agente donde agentes de investigación, un chief editor y múltiples editor agents colaboran para producir artículos en estilos distintos.

Arquitectura general. El flujo se modela como un grafo en LangGraph con un estado compartido NewsroomState que captura trending_topics, lista de editors, topic_claims, assignments, articles y mensajes. El investigador avanzado ejecuta búsquedas iniciales para detectar temas virales en categorías como política, tecnología, entretenimiento y finanzas. Si el investigador invoca herramientas, la ejecución pasa a un nodo de web search y regresa al investigador en un bucle hasta que se completan los datos, después el proceso avanza hacia el chief editor y finalmente hacia los nodos de escritura de cada editor.

Búsqueda web. Para la detección de tendencias usé herramientas optimizadas basadas en TavilySearch configuradas para distintos enfoques: social, noticias, tech, finance, celebrities y entertainment. Cada herramienta cuenta con parámetros como max_results, search_depth, time_range e inclusión de imágenes y respuestas directas, permitiendo priorizar contenido reciente y viral. Además incluí soporte para datos simulados en desarrollo para evitar costes y limitaciones de suscripción.

Equipo de editores. Cada editor es un agente con una personalidad y especialidad definida: Andrew cubre política y conflictos internacionales; Edward finanzas y análisis de mercado; Bob tecnología y dispositivos; Ruby sostenibilidad, salud y mindfulness; Susan cultura pop y entretenimiento. Sus estilos se encapsulan en prompts divididos en una parte compartida (rasgos centrales) y partes específicas para selección de tema y generación de artículo.

Lógica del chief editor. Para garantizar que cada editor reciba exactamente un tema implementé el chief editor como un nodo no LLM con lógica programática. El proceso: extraer la lista de títulos trending, invocar la LLM de cada editor con un prompt de topic selection y esperar una respuesta en un formato estandarizado tipo CLAIM|tema|editor. El chief editor registra las reclamaciones, resuelve conflictos (asigna al primero que reclamó) y distribuye temas no reclamados entre los editores restantes. Esta decisión la implementé en código convencional por fiabilidad: controlar directamente la asignación evita ambigüedades y errores que a veces aparecen cuando se delega completamente la lógica de asignación a un LLM que intenta llamar herramientas.

Escritura y investigación en profundidad. Cuando un editor recibe su tema, el editor_write_node lanza una investigación en profundidad mediante un agente que integra la LLM con herramientas de búsqueda especializadas. Ese agente ejecuta búsquedas más rigurosas y reúne fuentes autorizadas, luego sintetiza resultados para alimentar la generación del artículo. La generación final respeta la voz del editor, estima recuento de palabras y guarda metadatos en articles dentro del estado.

Decisiones de diseño y lecciones aprendidas. Durante el desarrollo aprendí que la ejecución de herramientas desde LLMs puede ser frágil: parámetros mal formados, llamadas incompletas o mezclas de argumentos ocurren con frecuencia. Por eso opté por dos patrones que me dieron robustez: 1) mantener la lógica crítica, como la asignación de temas, fuera de la LLM y ejecutarla con código tradicional; 2) cuando necesito que la LLM llame herramientas, usar agentes con ejecución controlada y capturar manualmente los resultados para almacenarlos en el estado. Además, para la detección de trending topics es recomendable enriquecer la señal con fuentes de primer nivel como Google Trends, Ahrefs o Semrush para mejorar la relevancia.

Problemas prácticos y soluciones. En pruebas reales observé inconsistencias en las elecciones de tema pese a prompts detallados: por ejemplo un editor especializado en celebridades seleccionó un tema de espacio. Para mitigar esto conviene mejorar la categorización de topics, añadir palabras clave específicas en los prompts y normalizar el formato de las listas de trending. También la resolución de conflictos del chief editor puede evolucionar: en vez de asignar por orden de reclamación se pueden considerar criterios de afinidad, carga de trabajo, relevancia o prioridad editorial.

Integración con prácticas profesionales. Este tipo de proyectos encaja con ofertas empresariales modernas: desarrollo de aplicaciones a medida y software a medida que integren LLMs y agentes IA, implementación de servicios cloud y despliegue en infraestructuras seguras, además de soluciones de inteligencia de negocio que potencien análisis y métricas de engagement. En Q2BSTUDIO somos especialistas en estas áreas y acompañamos a empresas en la adopción de agentes IA y soluciones a medida; por ejemplo puede interesarte nuestra página sobre inteligencia artificial donde describimos servicios de ia para empresas y agentes IA con más detalle. También desarrollamos aplicaciones a medida que integran estos flujos desde backend hasta interfaces de usuario, revisa una de nuestras páginas de desarrollo de software a medida para ver casos y servicios.

Además de inteligencia artificial, nuestra oferta en Q2BSTUDIO cubre ciberseguridad y pentesting para proteger entornos donde se ejecutan agentes y modelos, servicios cloud aws y azure para desplegar tuberías de datos y modelos escalables, y servicios de inteligencia de negocio como power bi para explotar métricas editoriales y de negocio. Palabras clave importantes que integramos en nuestros proyectos: aplicaciones a medida, software a medida, inteligencia artificial, ciberseguridad, servicios cloud aws y azure, servicios inteligencia de negocio, ia para empresas, agentes IA y power bi.

Reflexión final. Como desarrollador con décadas de experiencia me siento ambivalente ante la llegada de estas herramientas: por un lado la productividad se dispara al integrar asistentes y generadores automáticos; por otro lado la incertidumbre sobre el futuro profesional es real. Aun así, proyectos como la Newsroom AI muestran cómo combinar ingeniería tradicional, diseño de prompts y herramientas de búsqueda para construir sistemas fiables y controlables que potencien la creatividad humana. Si quieres explorar cómo aplicar estos conceptos a soluciones reales para tu empresa, desde plataformas de contenido generativo hasta pipelines de análisis con Power BI, en Q2BSTUDIO podemos ayudarte a diseñar e implementar la solución adecuada.

En resumen: la Newsroom AI es un ejemplo práctico de agentes que colaboran, herramientas de búsqueda afinadas y lógica híbrida LLM + código para crear contenido relevante y controlable. Los retos técnicos existen, pero con pruebas, métricas y arquitectura sólida se construye un sistema que escala y se integra con servicios empresariales modernos.