Introducción: imagina que has desarrollado una API backend y en local las peticiones son rapidísimas con consumo mínimo de recursos, pero al aumentar la carga del servidor las solicitudes se ralentizan o empiezan a agotarse los tiempos. ¿El problema está en la lógica, el lenguaje, las consultas a la base de datos, la máquina de hosting o en el proxy inverso? Entender cómo se ejecutan las peticiones HTTP en el servidor te ayudará a identificar los cuellos de botella.

Cómo se establece una conexión TCP: TCP utiliza un handshake en tres pasos: SYN el cliente inicia la sincronización; SYN/ACK el servidor responde y solicita sincronización; ACK el cliente confirma y la conexión queda establecida. HTTP 1.1 y HTTP 2 corren sobre TCP, mientras que HTTP 3 usa QUIC, que es otro protocolo.

El papel del kernel: cuando llega una petición HTTP, el kernel de Linux la gestiona con dos colas principales. La primera es la SYN queue que contiene conexiones medio abiertas entre el SYN/ACK del servidor y el ACK final del cliente. La segunda es la accept queue donde el kernel coloca la conexión una vez completado el handshake para que la aplicación la recoja con la llamada al sistema accept. Si la accept queue está llena nuevas conexiones se pueden caer o resetearse; esto está controlado por parámetros del kernel como cat /proc/sys/net/core/somaxconn y cat /proc/sys/net/ipv4/tcp_max_syn_backlog. Si los ACKs de los clientes tardan mucho el kernel también puede descartar conexiones.

El papel de la aplicación backend: cuando la conexión entra en la cola de accept la aplicación debe llamar a accept para empezar a gestionarla. El rendimiento concurrente depende de la rapidez con la que la aplicación acepte nuevas conexiones y procese peticiones sin bloquear otras conexiones.

Cómo distintos backends gestionan conexiones y ejecución: Node.js usa un solo hilo tanto para aceptar como para ejecutar peticiones y se basa en I O no bloqueante, lo que permite aceptar nuevas conexiones mientras una petición espera una consulta de base de datos; sin embargo si una tarea es intensiva en CPU el event loop se bloquea y el resto de peticiones quedan en espera. Go acepta en el hilo principal y lanza una goroutine por petición, manteniendo la aceptación rápida y el procesamiento concurrente ligero. En entornos Python con servidores WSGI como Gunicorn o uWSGI la concurrencia depende de número de workers en hilos o procesos; una petición pesada bloquea el worker asignado y para escalar a menudo se usan varios procesos. Con PHP gestionado por Apache o Nginx y PHP FPM cada petición se ejecuta en procesos aislados, lo que evita bloqueo mutuo pero los workers son más pesados en recursos. Otros modelos incluyen servidores Java con enfoque por hilo o event driven y frameworks en Rust con loops async como Tokio o Actix, similares a Node pero con optimizaciones de rendimiento.

Comandos útiles para observar colas y conexiones: cat /proc/sys/net/ipv4/tcp_max_syn_backlog, cat /proc/sys/net/core/somaxconn, ss -tln, netstat -anp. Para pruebas de carga: ab -n 1000 -c 100 http://localhost:3000/, wrk -t12 -c400 -d30s http://localhost:3000/.

Conclusión: el kernel gestiona el handshake y las colas y la aplicación debe aceptar y ejecutar conexiones eficientemente. Los problemas de rendimiento no siempre son únicamente código o consultas a la base de datos, también pueden venir de límites de colas, workloads que bloquean o del modelo de concurrencia del runtime. En una siguiente entrega abordaremos cómo el kernel gestiona el envío y recepción de datos con las colas sendq y recvq.

Sobre Q2BSTUDIO: como empresa de desarrollo de software y aplicaciones a medida ofrecemos soluciones integrales para empresas que necesitan software a medida, inteligencia artificial aplicada, ciberseguridad y servicios cloud. Si buscas confianza en proyectos de desarrollo de aplicaciones y software a medida visita desarrollo de aplicaciones y software a medida y si tu objetivo es desplegar infraestructuras seguras y escalables contamos con experiencia en servicios cloud AWS y Azure. Además ofrecemos servicios de inteligencia de negocio y power bi, ia para empresas, agentes IA y soluciones de ciberseguridad y pentesting para proteger tus activos. Palabras clave relevantes para nuestra oferta incluyen aplicaciones a medida, software a medida, inteligencia artificial, ciberseguridad, servicios cloud aws y azure, servicios inteligencia de negocio, ia para empresas, agentes IA y power bi.