El acceso a herramientas es lo que convierte a un modelo de lenguaje grande en un agente, pero cargar demasiadas herramientas en el contexto puede convertir a ese agente en una máquina cara e ineficiente. Siguiendo las recomendaciones sobre diseño de herramientas para agentes, merece la pena revisar manualmente implementaciones concretas antes de desplegarlas con agentes reales. En este artículo hacemos un análisis práctico del servidor MCP de Linear, viendo qué se puede aprender solo observando su estructura, las definiciones de herramientas y las decisiones de diseño.

Por qué Linear resulta interesante: en comunidades de desarrolladores Linear aparece con frecuencia como una de las plataformas que realmente mejora la productividad. Permite consultar tickets, crear incidencias y actualizar estados directamente desde el IDE, reduciendo el cambio de contexto. En Q2BSTUDIO utilizamos herramientas similares para optimizar flujos de trabajo y creemos que integraciones bien diseñadas convierten procesos manuales en flujos automáticos eficientes.

Qué se puede analizar en un servidor MCP: tomando ideas prácticas para crear herramientas que trabajen bien con agentes, conviene fijarse en tres dimensiones principales: qué endpoints de la API se exponen como herramientas, cómo se validan los parámetros y qué calidad informativa aportan las respuestas. Un buen diseño agrupa operaciones relacionadas, simplifica filtros y ofrece mensajes de error claros para que el agente actúe sin ambigüedades.

Visión general del servidor MCP de Linear: la implementación expone 23 herramientas que cubren los flujos más comunes. Se agrupan en consultas de entidades como listar incidencias, proyectos, equipos, usuarios o etiquetas; lecturas detalladas de entidades individuales; creación de objetos como incidencias o comentarios; actualizaciones; y una herramienta de búsqueda de documentación. Esa selección demuestra que el enfoque fue orientado a completar tareas concretas más que a ofrecer acceso crudo a toda la API.

Relación entre la API y las herramientas MCP: Linear tiene una API GraphQL compleja y la capa MCP no hace un mapeo 1 a 1. Entre las diferencias clave está la simplificación de filtros y parámetros, que aplanan estructuras anidadas para reducir la carga cognitiva y el coste en tokens. Además se incluyen mapeos de valores explícitos para campos como prioridad y una herramienta de búsqueda de documentación que aporta conocimiento operativo fuera del core API. Son decisiones de abstracción útiles para agentes.

Costo de contexto de las definiciones de herramientas: cada herramienta bien documentada paga un coste en tokens. Al añadir el servidor MCP de Linear a un entorno de trabajo se observa un aumento significativo del uso de contexto, fruto de los 23 endpoints con descripciones, validaciones y ejemplos. Ese coste es el precio de disponer de funciones bien definidas, lo que refuerza la necesidad de consolidar operaciones y exponer solo lo esencial para no agotar la ventana de contexto antes de empezar a trabajar.

Validación de parámetros y mensajes de error: la implementación de Linear ofrece validaciones útiles para campos no obligatorios y mensajes claros cuando los identificadores o formatos son incorrectos. Por ejemplo, los cursores de paginación requieren identificadores válidos y los códigos de color deben ser hexadecimal. Para identificadores obligatorios las respuestas indican entornos no encontrados, lo que ayuda al agente a corregir entradas o a reintentar con datos distintos.

Estructura de la salida y calidad de la señal: un punto débil detectado es que muchas respuestas devuelven JSON stringificado dentro de un campo de texto. Desde la perspectiva del modelo esto obliga a deserializar implícitamente, aumentando la complejidad y los tokens necesarios para interpretar datos que en esencia son tablas simples de entidades. Además suele incluirse información de bajo valor como URLs de avatar o timestamps cuando el agente solo necesita el identificador y el nombre para asignar una tarea.

Mejoras recomendadas: 1) soportar contenido estructurado nativo en las respuestas para evitar el coste de serialización; 2) ofrecer modos de respuesta mediante un parámetro de formato que permita respuestas concisas o detalladas según la necesidad; 3) para datos tabulares considerar formatos compactos como CSV o TSV cuando no sea posible devolver estructuras nativas, ya que reducen tokens y son más fáciles de procesar para muchos modelos. También es conveniente priorizar campos de alto valor y omitir metadatos redundantes en respuestas por defecto.

Compatibilidad con modelos clientes: diferentes modelos procesan formatos de forma distinta, por lo que elegir representaciones planas y sencillas suele ser la opción más robusta. La evidencia práctica muestra que la forma en que se presenta la información afecta tanto al coste en tokens como a la precisión de las tareas que ejecuta el agente. Cuando se desconoce qué modelo utilizará el cliente, optar por formatos planos y tablas limpias maximiza la compatibilidad.

Conclusión práctica: el servidor MCP de Linear es un ejemplo de diseño reflexivo que va más allá de envolver mecánicamente una API GraphQL. Simplifica filtros, proporciona herramientas orientadas a tareas y añade documentación interna útil. Para optimizar aún más la experiencia agente es aconsejable reducir información de bajo valor en las respuestas y adoptar formatos de salida más eficientes. Una revisión manual como esta detecta oportunidades claras antes de realizar pruebas dinámicas con agentes reales, aunque el examen definitivo vendrá al medir uso de tokens y comportamientos en escenarios de producción.

En Q2BSTUDIO somos una empresa de desarrollo de software que ofrece aplicaciones a medida y software a medida, con especialización en inteligencia artificial, ciberseguridad y servicios cloud aws y azure. Ayudamos a equipos a integrar agentes IA en flujos de trabajo, automatizar procesos y aprovechar servicios de inteligencia de negocio y power bi para obtener decisiones basadas en datos. Si necesita soluciones de IA para empresas o desarrollar integraciones a medida le invitamos a conocer nuestra oferta de inteligencia artificial en nuestra página de inteligencia artificial y a explorar cómo podemos crear aplicaciones a medida en nuestro servicio de desarrollo de aplicaciones y software multiplataforma. Con servicios que incluyen pentesting, implementación en la nube y soluciones de business intelligence, Q2BSTUDIO acompaña a su organización desde el diseño hasta la puesta en producción.