Introducción: en este artículo explico cómo adaptar el Marco de Agentes de Microsoft para que los modelos Qwen y DeepSeek puedan generar salida estructurada siguiendo esquemas Pydantic. El objetivo es mantener compatibilidad con agentes IA modernos y garantizar que nuestras integraciones funcionen con modelos que no implementan exactamente el mismo mecanismo de response_format que OpenAI. En Q2BSTUDIO, empresa de desarrollo de software y aplicaciones a medida especializada en inteligencia artificial, ciberseguridad y servicios cloud aws y azure, ayudamos a implementar estas soluciones para clientes que necesitan agentes IA robustos y seguros.

Antecedentes sobre salida estructurada: el Marco de Agentes de Microsoft permite pedir al modelo que devuelva datos estructurados asignando un BaseModel de Pydantic como response_format. Con clientes compatibles con OpenAI, el framework transforma ese modelo en un json_schema y lo envía al LLM para que la respuesta siga la estructura esperada, facilitando la conversión a objetos tipados en Python. Esto es ideal para casos donde se requiere precisión en el formato de salida, como integraciones con sistemas internos, pipelines ETL o generación de metadatos.

El problema con Qwen y DeepSeek: ambos modelos soportan salida estructurada, pero no mediante el mismo enfoque que OpenAI. Requieren que el mensaje incluya la palabra json y aceptan response_format del tipo json_object en lugar de json_schema. Si no se adapta el flujo, la llamada devuelve errores de validación del parámetro response_format y no se consigue la salida esperada.

Solución propuesta: la técnica que implementamos consiste en inyectar el json_schema derivado del BaseModel directamente en el prompt del sistema antes de llamar a la API del LLM, y al mismo tiempo cambiar localmente response_format a un formato compatible con Qwen y DeepSeek. Con esto conservamos el BaseModel original para que el framework pueda parsear la cadena JSON devuelta en un objeto Pydantic, pero forzamos al LLM a producir JSON válido según el esquema especificado mediante instrucciones claras en el prompt del sistema. El ajuste se realiza en el paso de preparación de opciones previo a la llamada al LLM, por ejemplo modificando _prepare_options para anexar el esquema al mensaje de sistema y sustituir response_format por {'type': 'json_object'} cuando corresponde.

Detalles operativos: antes de enviar la petición al modelo se extrae model_json_schema del BaseModel, se formatea como bloque claro en el prompt del sistema indicando que la salida debe ser JSON sin markdown ni explicaciones adicionales y se coloca al inicio de la conversación como mensaje de sistema o se concatena al mensaje de sistema existente. Después se llama a la API con el response_format adaptado para evitar errores de tipo. Una vez recibida la respuesta, el Marco de Agentes usa el BaseModel original para validar y convertir la cadena JSON en la estructura tipada esperada. Esta estrategia funciona tanto para llamadas single turn como para conversaciones multi turn donde el response_format puede cambiar entre turnos y debe respetarse la prioridad del parámetro de run o run_stream sobre el definido en la creación del agente.

Pruebas y monitorización: para validar la integración recomendamos registrar las conversaciones y prompts enviados al LLM con herramientas de trazado. Una solución práctica es usar MLflow con openai.autolog para ver los mensajes del sistema que se envían y verificar que el json_schema se incluye correctamente. En las pruebas se comprueba que el esquema aparece en el mensaje de sistema y que response.value o el valor parseado devuelve el objeto Pydantic esperado.

Beneficios y aplicaciones prácticas: esta adaptación permite usar agentes IA con salida estructurada en entornos empresariales donde se requiere integridad de datos, transformación automática a modelos tipados y trazabilidad de las decisiones del agente. En Q2BSTUDIO aplicamos este enfoque en proyectos de aplicaciones a medida y software a medida que integran agentes IA con pipelines de datos, cuadros de mando y automatización de procesos. También combinamos estas capacidades con servicios cloud aws y azure y soluciones de inteligencia de negocio y power bi para ofrecer soluciones completas y seguras.

Servicios Q2BSTUDIO: si su empresa necesita construir agentes IA, integrar modelos como Qwen o DeepSeek, o desarrollar software a medida que aproveche salida estructurada, en Q2BSTUDIO ofrecemos experiencia en desarrollo de aplicaciones y automatización. Con especialistas en inteligencia artificial, ciberseguridad y servicios cloud aws y azure podemos acompañar todo el ciclo desde el diseño hasta la puesta en producción. Conozca nuestras soluciones de inteligencia artificial y cómo podemos adaptar agentes IA a sus necesidades en IA para empresas y soluciones de inteligencia artificial y descubra nuestros servicios de desarrollo de aplicaciones y software a medida en aplicaciones a medida y software a medida.

Palabras clave y posicionamiento: aplicaciones a medida, software a medida, inteligencia artificial, ciberseguridad, servicios cloud aws y azure, servicios inteligencia de negocio, ia para empresas, agentes IA, power bi. Estas capacidades hacen que podamos ofrecer integraciones fiables y adaptadas a entornos corporativos que exigen cumplimiento, escalabilidad y seguridad.

Conclusión: adaptar el Marco de Agentes de Microsoft para que Qwen y DeepSeek produzcan salida estructurada es viable y práctico mediante la inyección del json_schema en el prompt del sistema y el ajuste temporal del response_format. Esta estrategia permite mantener la validación y el mapeo a Pydantic y facilita la interoperabilidad entre diferentes proveedores de modelos. Si desea implementar esta solución o explorar una integración a medida, contacte con Q2BSTUDIO para una propuesta técnica y comercial acorde a sus objetivos.