IA con intervención humana: LangGraph y Ollama

¿Alguna vez has querido pausar el proceso de razonamiento de una IA, inspeccionar lo que hace y corregir su rumbo antes de que continúe Esta es la idea central de un sistema Human in the Loop HITL y en este artículo explico cómo construir uno desde cero usando LangGraph para orquestar el flujo de trabajo, Ollama para inferencia local de modelos y Python como integrador
La ventaja de este enfoque es crear aplicaciones interactivas donde las personas pueden intervenir en puntos clave, mejorando la fiabilidad y la adaptabilidad en casos reales como generación de contenido, herramientas de toma de decisiones o asistentes para depuración
Qué vamos a construir En el núcleo construiremos una aplicación CLI en Python que transforma un prompt simple del usuario en una respuesta final pulida mediante una canalización estructurada El flujo básico es recibir un prompt, usar un modelo para mejorarlo automáticamente, pausar para revisión humana y finalmente generar la respuesta definitiva con el prompt refinado
Arquitectura y componentes principales LangGraph modela el flujo como un grafo dirigido donde cada fase es un nodo y las conexiones definen el orden Esto permite extender el proceso con nodos adicionales y mantener estado entre pasos Ollama ejecuta los modelos localmente lo que ofrece rapidez, privacidad y ahorro frente a APIs en la nube Python actúa como la capa de integración para llamadas al modelo, manejo del estado y la interfaz de consola
Instalación y dependencias Para comenzar se recomienda instalar las librerías necesarias con pip install langgraph langchain-ollama rich Estos paquetes proporcionan LangGraph para el grafo, la integración con Ollama para interacciones con modelos y Rich para salida enriquecida en consola
Estado de la aplicación En LangGraph la memoria de la aplicación se mantiene como un diccionario compartido que viaja entre nodos Un ejemplo de campos útiles incluye original_prompt improved_prompt final_prompt final_answer y step para rastrear el progreso Esto facilita que cada nodo acceda a la información más reciente sin pasar parámetros redundantes
Nodo de mejora de prompt El primer nodo pide al LLM que reescriba el prompt del usuario para mayor claridad y precisión Esta fase implementa prompt engineering automático y suele mejorar significativamente la calidad de la respuesta final Al terminar este nodo el estado contiene improved_prompt listo para revisión humana
Nodo con intervención humana Aquí se introduce la pausa que define HITL El sistema muestra el prompt mejorado y espera a que una persona lo apruebe o lo edite La función de interrupción de LangGraph guarda el estado y permite reanudar el flujo tras la intervención humana, ideal para evitar alucinaciones o malentendidos en tareas sensibles
Nodo de generación final Con el prompt final aprobado se solicita al modelo la respuesta completa usando instrucciones para obtener una salida estructurada y detallada El resultado se guarda en final_answer y el flujo se marca como completado
Orquestación con LangGraph Se construye un StateGraph agregando nodos para improve_prompt human_review y answer_prompt y conectando START y END La compilación con un checkpointer en memoria permite persistencia entre interrupciones y reanudar procesos largos
Ejecutándolo como CLI Una función main inicializa el grafo, solicita el prompt al usuario y lanza la invocación El flujo captura la interrupción para mostrar el prompt mejorado y recoger la edición humana antes de reanudar y producir la respuesta final
Beneficios de usar Ollama localmente Ejecutar modelos con Ollama en local reduce latencia protege los datos sensibles y evita costes recurrentes por uso de APIs en la nube Es una opción práctica para prototipos y despliegues con requisitos de privacidad
Extensiones y buenas prácticas Gracias al diseño en nodos es fácil añadir validaciones automáticas, filtros de seguridad, moderación de contenido o etapas de verificación adicionales También conviene registrar timestamps, tasas de confianza y métricas de calidad para iterar en el diseño del flujo
Aplicaciones reales Este patrón es útil en generación de contenido asistida, asistentes de soporte técnico, pipelines de revisión editorial, herramientas de toma de decisiones en entornos empresariales y sistemas de automatización donde la supervisión humana es obligatoria
Q2BSTUDIO y servicios relacionados En Q2BSTUDIO somos especialistas en desarrollo de software y aplicaciones a medida, inteligencia artificial y ciberseguridad Implementamos soluciones a medida que combinan agentes IA con procesos supervisados por humanos para maximizar calidad y cumplimiento Si buscas potenciar tu empresa con IA para empresas o crear agentes IA integrados a tus procesos te invitamos a conocer nuestros servicios de inteligencia artificial y nuestra oferta de aplicaciones a medida
Además ofrecemos servicios complementarios en ciberseguridad para proteger tus despliegues, servicios cloud aws y azure para escalabilidad y resiliencia, y soluciones de inteligencia de negocio y power bi para extraer valor de tus datos
Palabras clave y posicionamiento Este artículo integra términos relevantes para posicionamiento como aplicaciones a medida software a medida inteligencia artificial ciberseguridad servicios cloud aws y azure servicios inteligencia de negocio ia para empresas agentes IA y power bi Si necesitas una solución que combine automatización, control humano y privacidad, en Q2BSTUDIO diseñamos y desarrollamos sistemas HITL adaptados a tus necesidades
Contacto y siguiente paso Si quieres una demo o evaluar un proyecto ponte en contacto con nuestro equipo y exploraremos cómo integrar LangGraph y Ollama en tu arquitectura empresarial para crear flujos de trabajo seguros, auditables y eficientes
Q2BSTUDIO Soluciones en software a medida inteligencia artificial ciberseguridad y servicios cloud
Comentarios