Cuando descubrí las herramientas MCP model context protocol pensé que bastaría con permitir que modelos como Claude llamaran mis APIs, pero pronto apareció una pregunta clave: qué pasa si la herramienta necesita razonar, resumir, generar contenido creativo o tomar decisiones no deterministas. Frente a ese reto existen tres alternativas: implementar lógica rígida en el servidor, integrar llamadas a mi propio LLM y asumir la responsabilidad de claves y costes, o delegar el razonamiento al modelo conectado mediante muestreo o sampling, que invierte la dinámica y hace que la herramienta llame al modelo para que haga la parte inteligente.

El muestreo consiste en que el servidor MCP entregue al modelo conectado un contexto listo para sintetizar una respuesta. El usuario trae su IA preferida, y la herramienta se encarga de orquestar datos, búsquedas y formatos. Ejemplos como el trabajo publicado por Block muestran cómo varias personalidades de IA pueden debatir mediante múltiples llamadas de muestreo sin que el servidor gestione infraestructura de LLMs. La idea clave es permitir herramientas inteligentes sin poseer ni operar el modelo.

En Cloudflare Workers encontré un reto práctico: la SDK oficial de MCP espera transporte stdio, ideal para procesos locales, mientras que Workers funciona sobre HTTP. La solución fue crear un adaptador HTTP a MCP y diseñar dos patrones de muestreo que funcionan en entornos diferentes: muestreo contexto para servidores HTTP en Workers y muestreo real para servidores locales con stdio.

Enfoque 1 muestreo contexto en Workers Con un servidor HTTP en Workers no es posible mantener una conexión stdio bidireccional, pero sí se puede preparar un contexto perfecto para que el modelo sintetice la respuesta. El flujo habitual es: la herramienta realiza búsqueda semántica o consulta de la base de conocimiento, genera resultados con puntuaciones de similitud y construye un bloque de texto synthesisContext que resume los resultados y contiene instrucciones claras para la síntesis. El modelo cliente recibe ese contexto junto con los resultados sin que el servidor tenga que ejecutar el razonamiento. Ventajas de este patrón incluyen accesibilidad global vía HTTP, latencia al borde sub 50ms y ausencia de gestión de claves de LLM. La concesión es que no es muestreo estricto porque la decisión final de sintetizar recae en el modelo conectado, pero en la práctica funciona muy bien dado que los modelos aprovechan contextos formateados.

Enfoque 2 muestreo real en servidor local Para muestreo real es necesario un servidor MCP con transporte stdio que pueda invocar ctx.sample y llamar de vuelta al modelo. En este caso la herramienta realiza la búsqueda semántica, formatea los resultados y envía prompts de muestreo al modelo mediante la SDK MCP. Esto ofrece un control más fino sobre el flujo de síntesis y permite garantizar comportamientos concretos en las respuestas, pero exige una conexión persistente stdio o un túnel SSH y no es accesible mediante HTTP simple. Es ideal para integraciones de escritorio con Claude, herramientas de desarrollo o flujos internos donde se requiere control estricto.

Cuándo aplicar cada patrón usa muestreo contexto en Workers cuando necesites accesibilidad HTTP global, APIs públicas, baja latencia en el edge y compatibilidad con cualquier IA que el usuario conecte. Usa muestreo real local cuando precises controlar la síntesis, garantizar políticas de respuesta o integrar estrechamente con clientes de escritorio. También es viable una estrategia híbrida que combine ambos patrones: servidor en Workers para producción pública y un servidor local con stdio para desarrollo y pruebas, ambos reutilizando el mismo backend de búsqueda.

Consideraciones de rendimiento y coste Con muestreo contexto la mayor parte del coste y latencia se concentra en la generación de embeddings y la búsqueda vectorial. En despliegues reales en Workers la latencia total de consulta puede estar entre 30 y 50 ms, con la síntesis ocurriendo en el cliente sin añadir tiempo al servidor. El coste operativo es modesto para volúmenes normales, y el modelo queda a cargo del razonamiento, lo que elimina la necesidad de gestionar claves de LLM en el servidor. No obstante, evita muestreo para operaciones deterministas, procesos de alto volumen o rutas críticas de latencia, y úsalo para tareas creativas, análisis de sentimiento o síntesis de datos no estructurados.

En Q2BSTUDIO aplicamos este tipo de patrones cuando diseñamos soluciones de aplicaciones a medida y software a medida que integran inteligencia artificial de forma práctica y escalable. Si tu proyecto necesita asesoría en arquitecturas que combinan edge computing, agentes IA y servicios cloud, contamos con experiencia en despliegues sobre Azure y AWS y en desarrollo de pipelines de búsqueda semántica y vectorial. Conectamos los datos y la orquestación desde el backend y dejamos que la IA conectada haga el razonamiento, una estrategia ideal para empresas que buscan ia para empresas sin introducir vendor lock in.

Si deseas profundizar en cómo integrar inteligencia artificial en tus productos o migrar cargas a la nube, consulta nuestros servicios de inteligencia artificial y nuestras soluciones de servicios cloud aws y azure. En Q2BSTUDIO también desarrollamos proyectos seguros y auditables con enfoque en ciberseguridad y pentesting, y construimos tableros de análisis y reporting con power bi y servicios inteligencia de negocio para extraer valor de tus datos.

Resumen final El muestreo MCP abre la puerta a herramientas que orquestan inteligencia sin gestionar directamente LLMs. En Workers puedes ofrecer muestreo contexto con latencia baja y alcance global. Para control total sobre la síntesis puedes implementar muestreo real en servidores locales con stdio. Combinar ambos te da flexibilidad operativa y una ruta práctica para acelerar proyectos de aplicaciones a medida, agentes IA y soluciones empresariales seguras. Si quieres que te acompañemos en el diseño o la implementación, en Q2BSTUDIO ofrecemos consultoría y desarrollo para llevar tu idea a producción con foco en inteligencia artificial, ciberseguridad y servicios cloud.