Cómo construí un grafo de conocimiento de Neo4j que se actualiza automáticamente a partir de notas de reuniones (que ahorra un 99% en los costos de LLM)
Cada día las organizaciones celebran millones de reuniones que generan decisiones, tareas y responsabilidades, pero gran parte de esa información se pierde en documentos dispersos. Buscar quien asistió a todas las reuniones de presupuesto o qué tareas recibió Alex este mes entre miles de archivos es una tarea imposible con búsqueda de texto plano. El verdadero problema es que las notas de reuniones son documentos vivos: se corrigen nombres, se reasignan tareas y se actualizan decisiones. Sin un procesamiento incremental hay que elegir entre facturas enormes de LLM por reprocesar todo o un grafo de conocimiento obsoleto.
En Q2BSTUDIO, empresa especializada en desarrollo de software a medida, inteligencia artificial y ciberseguridad, resolvimos este reto construyendo un grafo de conocimiento en Neo4j que se actualiza solo con los cambios, reduciendo los costes de LLM en un 99 por ciento. Este enfoque es ideal para empresas que buscan soluciones de software a medida, servicios cloud aws y azure y plataformas de inteligencia de negocio.
Qué construimos: una canalización que transforma notas desordenadas en una base de datos de grafo consultable a partir de Google Drive. Flujo resumido: detectar cambios en Drive, dividir documentos por sesiones, extraer datos estructurados con LLM y exportar nodos y relaciones a Neo4j. El modelo de datos resultante es simple y potente: tres tipos de nodo Meeting, Person y Task y tres relaciones ATTENDED, DECIDED y ASSIGNED_TO que permiten consultas como cuáles reuniones asistió Sarah, dónde se decidió una tarea o quién es responsable de todas las tareas de Q4.
La clave del éxito es el procesamiento incremental. Al trackear timestamps de último cambio en Google Drive solo procesamos los documentos modificados. Con 100 000 notas y un 1 por ciento de cambios diarios se procesan 1 000 archivos en lugar de 100 000, con una reducción del 99 por ciento en llamadas a LLM. Además aplicamos tres prácticas fundamentales: dividir inteligentemente archivos que contienen varias sesiones para preservar contexto, usar esquemas concretos para la extracción estructurada (por ejemplo dataclasses que definen Meeting, Person y Task) y aprovechar un sistema de cache para reutilizar resultados cuando la entrada y el modelo no cambian.
En la práctica recolectamos nodos y relaciones mediante coleccionadores y exportamos a Neo4j con lógica de upsert: claves primarias para evitar duplicados y actualizaciones que mantienen el grafo coherente al cambiar las notas. Con esto es trivial consultar en el navegador de Neo4j quién asistió a qué, qué tareas fueron decididas en una reunión o qué tareas están asignadas a cada persona.
Beneficios empresariales: ahorro de costes a escala, actualizaciones en tiempo real mediante polling o modo live, y trazabilidad completa de datos para poder enlazar cualquier nodo de Neo4j con su documento origen y el resultado de la extracción LLM. Este patrón no es exclusivo de notas de reuniones: funciona con papers científicos para extraer conceptos y citas, con tickets de soporte para mapear problemas y soluciones, con hilos de correo para analizar decisiones o con documentos de cumplimiento para trazar requisitos y auditorías.
Tecnologías usadas: un framework de procesamiento incremental, modelos LLM para extracción estructurada, Neo4j como grafo y Google Drive como fuente documental. En Q2BSTUDIO aplicamos estas mismas prácticas cuando desarrollamos aplicaciones a medida y soluciones IA para empresas, integrando además servicios de ciberseguridad y despliegues en la nube para garantizar disponibilidad y seguridad.
Si estás pensando en automatizar la extracción de conocimiento de tus documentos y quieres una solución de software a medida que incluya agentes IA, power bi para reporting y análisis, o migración a servicios cloud aws y azure para escalabilidad, podemos ayudarte. También ofrecemos proyectos de inteligencia de negocio y dashboards con Power BI, y servicios de ciberseguridad para proteger la plataforma.
En Q2BSTUDIO combinamos experiencia en desarrollo de software, inteligencia artificial, servicios cloud, agentes IA y ciberseguridad para crear pipelines incrementales y grafos de conocimiento que mantienen la información viva y explotable. Si quieres ver cómo adaptar este patrón a tus necesidades de automatización de procesos o a tu estrategia de inteligencia de negocio contacta con nosotros para diseñar una solución personalizada o descubre nuestras capacidades en servicios de inteligencia artificial.
Resumen clave: procesamiento incremental para reducir costes de LLM, esquemas estructurados para facilitar la extracción, caching para evitar llamadas redundantes y grafos de conocimiento para consultas sofisticadas que no son posibles con búsqueda de texto. Qué problema de texto pesado transformarías con un grafo que se actualiza solo Cada caso es una oportunidad para crear valor con software a medida, inteligencia artificial y servicios cloud integrados.
Comentarios