Disclaimer Este texto fue inicialmente concebido por una IA generativa a partir de la transcripción de un video del canal Dev + Eficiente. Si prefieres acompañar por video, busca el material original en el canal correspondiente.

Introducción En el desarrollo de software surge con frecuencia una necesidad muy concreta: permitir búsquedas en lenguaje natural sobre datos que están guardados en un modelo relacional altamente estructurado. ¿Cómo hacemos que una consulta como JavaScript pleno backend con más de cinco años de experiencia se convierta en una búsqueda eficaz contra tablas y relaciones? En este artículo explico una solución práctica que utiliza modelos de lenguaje LLM como traductores entre la entrada no estructurada y la búsqueda estructurada en base de datos.

El reto En una plataforma que conecta estudiantes y empresas, las compañías querían poder escribir consultas libres para encontrar candidatos, por ejemplo Java pleno con X años de experiencia o JavaScript backend sénior. El problema era que la plataforma no almacenaba esos datos de forma estandarizada. Había información sobre cursos, áreas de conocimiento y currículums en PDF, pero no un conjunto predefinido de campos como lenguaje, senioridad o años de experiencia. Crear un formulario con docenas de campos no era viable: ¿cuántas tecnologías ofrecer en una lista? ¿qué niveles de senioridad? Esa alternativa escala mal y degrada la experiencia.

Solución en dos fases Resumidamente implementé una solución en dos pasos que resulta práctica y de bajo coste inicial: extracción estructurada de información desde los currículums y traducción de las búsquedas en lenguaje natural a filtros aplicables en la base relacional.

Parte 1 Extracción desde los currículums Los alumnos ya subían sus currículums a la plataforma. Aproveché ese material para procesar el texto y extraer tecnologías, senioridad, años de experiencia y área de enfoque como backend frontend o fullstack. Para ello utilicé un LLM que devuelve una salida estructurada y guardé el resultado como etiquetas simples en el perfil del candidato. No se trata de un esquema rígido: tecnologías son listas de cadenas, senioridad puede ser nula si no se detecta y años de experiencia se calcula desde la información de empleos cuando está disponible. Esta capa facilita búsquedas posteriores sin alterar la experiencia de usuario al completar su perfil.

Parte 2 Estructurando la consulta cuando la empresa escribe en texto libre tomo esa consulta y la envío al LLM con un prompt que pide extraer tecnologías, senioridad, años mínimos de experiencia y área de foco. También indico que corrija errores ortográficos y haga normalización mínima. De este modo inputs como java cript o java cript pueden resolverse como JavaScript y evitar falsos negativos que una búsqueda SQL con LIKE produciría. Con la salida del LLM genero un conjunto de filtros que se aplican en el repositorio usando Specifications de Spring Data JPA u otro mecanismo similar para construir la consulta SQL adecuada.

Por qué este enfoque funciona bien Es una solución intermedia pero poderosa. No requiere desplegar motores de búsqueda complejos ni almacenar vectores de embeddings para lograr una primera versión funcional. La ventaja es validar hipótesis de negocio rápido: las empresas obtienen búsquedas útiles y los desarrolladores no reestructuran toda la base de datos. Más adelante se puede evolucionar hacia tokenización avanzada, ordenación por relevancia o una arquitectura RAG con embeddings, pero la capa de LLM como traductor ya soluciona el problema central en muchas situaciones.

Consideraciones técnicas y limitaciones Debe quedar claro que esta estrategia no reemplaza herramientas diseñadas para búsqueda semántica profunda. Si necesitas ranking por similitud, desambiguación compleja o manejo de grandes volúmenes con latencias muy bajas, hace falta integrar motores especializados o bases vectoriales. Además debes gestionar costos y latencia de las llamadas al LLM, control de versiones de prompts y políticas de privacidad para el procesamiento de currículums. Aun así, para validar la propuesta de valor suele ser suficiente.

Implementación práctica sugerida Flujo recomendado 1 Extracción por lotes: en una migration o proceso de background parsea todos los currículums y guarda etiquetas normalizadas en la base. 2 Normalización: mantiene una lista de aliases para tecnologías comunes y mapea variantes comunes. 3 Consulta: cuando llega la búsqueda en lenguaje natural realiza la llamada al LLM, transforma la respuesta en filtros y aplica una Specification o cláusulas WHERE en SQL. 4 Mejora iterativa: recoge ejemplos de consultas reales y correcciones para afinar prompts y reducir falsos positivos y negativos.

Beneficios para la empresa Esta aproximación acelera la capacidad de búsqueda avanzada sin una inversión inicial elevada y mejora la experiencia de quienes buscan talento. Permite a equipos de producto y negocio validar si la funcionalidad aporta valor antes de invertir en soluciones más complejas.

Sobre Q2BSTUDIO Q2BSTUDIO es una empresa de desarrollo de software y aplicaciones a medida especializada en llevar proyectos desde la idea hasta la producción. Ofrecemos servicios de software a medida, inteligencia artificial para empresas, ciberseguridad y servicios cloud aws y azure. Nuestro equipo diseña soluciones escalables incluyendo agentes IA, automatización de procesos y soluciones de inteligencia de negocio con Power BI. Si buscas externalizar el desarrollo de producto o crear soluciones personalizadas visita nuestra página de servicios de desarrollo de aplicaciones a medida y descubre cómo podemos ayudarte a implementar búsquedas inteligentes en tu plataforma. Para proyectos centrados en modelos de lenguaje y transformación de datos revisa nuestra oferta de Inteligencia artificial para empresas.

Palabras clave y posicionamiento Este artículo está pensado para aportar valor y mejorar el posicionamiento en búsquedas relacionadas con aplicaciones a medida, software a medida, inteligencia artificial, ciberseguridad, servicios cloud aws y azure, servicios inteligencia de negocio, ia para empresas, agentes IA y power bi. Si quieres que implementemos esta solución en tu producto o necesitas una consultoría para escalarla, en Q2BSTUDIO podemos ayudarte a diseñar la arquitectura, integrar LLMs y garantizar seguridad y cumplimiento.

Conclusión Usar un LLM como puente entre lenguaje natural y consultas estructuradas es una forma eficiente y pragmática de ofrecer búsqueda rica sin reconstruir toda la estructura de datos. Es una primera iteración con retorno de inversión rápido que permite validar hipótesis de negocio y sentar las bases para mejoras futuras como embeddings, ranking semántico y búsqueda por similitud.