Hace poco desarrollé un agente de prospección en Python para encontrar negocios locales en las páginas de menor rango de Google y ofrecerles servicios SEO. La versión inicial era prometedora pero imperfecta. Intentó vender a sitios de empleo porque no tenían teléfono local, marcó concesionarios Ford como sitio caído cuando en realidad un firewall bloqueó el bot y envió emails robóticos que empezaban con Fail H1 Missing, nada que parezca humano. Para que la herramienta fuera realmente útil tuve que pasar de un simple scraper a un agente inteligente. A continuación explico cómo refactoricé el código para filtrar ruido, rastrear contactos y usar GenAI para escribir campañas personalizadas.

Paso 1 Filtrado del ruido y lista de exclusión

El primer problema al raspar palabras claves genéricas es que muchos resultados no son negocios locales sino directorios, portales de empleo y webs gubernamentales. El script perdía recursos auditando ZipRecruiter y sitios .gov. La solución fue robustecer la función de limpieza con una blocklist estricta y categorizar dominios como bolsas de trabajo, sitios gubernamentales, redes sociales y marcas nacionales que no contratarían una agencia local. Al filtrar esos dominios antes de auditar, la lista pasó de unas 200 URLs a cerca de 70 negocios locales reales.

Paso 2 Auditoría on page más inteligente

Mi versión original comprobaba etiquetas H1 con coincidencia exacta, así que si la keyword era diesel mechanic y la H1 decía Best Diesel Mechanic in Texas el script lo marcaba como fallo. Implementé lógica difusa basada en tokens. Si la H1 contiene más del 50 por ciento de las palabras clave objetivo se considera un ok. Este enfoque reduce falsos positivos y prioriza problemas reales de relevancia semántica.

Paso 3 Distinguir bloqueado de roto

Antes, un 403 Forbidden se marcaba como error de servidor y era un lead accionable. Pitchar diciendo su web está caída cuando solo está protegida por un WAF es contraproducente. Cambié la lógica de peticiones para capturar explícitamente errores 403, 406, 429 y 503 y marcarlos como bloqueados para saltarlos. Solo errores de conexión reales como 500 o problemas SSL se consideran oportunidades para ofrecer servicios de salud del sitio.

Paso 4 Análisis de brecha reputación vs sitio

El cambio estratégico fue integrar datos del perfil de empresa en Google para encontrar gemas ocultas negocios con reputación real excelente pero presencia digital pobre. Clasifico leads según puntuación y número de reseñas de Google Business Profile. Estrategia A reputación alta y sitio débil significa un mensaje centrado en que su web daña su reputación. Estrategia B sin GBP y sitio débil significa que son invisibles online. Este contraste aumenta la relevancia del outreach y la tasa de respuesta.

Paso 5 El rastreador que encuentra el email

Tenía buenos prospectos pero me faltaba lo más importante la dirección de correo. Muchas empresas ocultan el email en contacto. Transformé al agente en un spider que actúa como humano Analiza la home buscando mailto o coincidencias por regex; si no halla contacto puntúa enlaces heurísticamente /contact-us recibe 100 puntos /about 30 puntos y visita la URL con mayor puntuación. Esta heurística recuperó cerca del 40 por ciento de leads que antes se descartaban por falta de contacto.

Paso 6 De plantillas a GenAI para outreach

El email rígido y genérico murió con la integración de modelos generativos. En lugar de plantillas fijas alimenté al modelo con los datos de la auditoría y la información GBP y solicité una secuencia de tres correos personalizados Email 1 gancho referenciando la brecha reputación vs sitio Email 2 valor explicando el problema encontrado Email 3 cierre profesional. El uso de modelos rápidos y económicos permite generar variaciones contextuales que suenan humanas y mejoran aperturas y respuestas.

Métricas y resultados

Después de implementar los cambios el agente opera de forma autónoma escanea SERPs, filtra junk, rastrea emails en varias páginas y usa LLMs para redactar campañas personalizadas. Métricas típicas Raspeo inicial 200 URLs Tras limpieza de directorios 70 negocios Leads accionables con email alrededor de 30 Prospectos de alta calidad

Lección clave

La diferencia entre un script y un agente es la capacidad de manejar la imperfección saltar entre páginas cuando faltan datos entender el contexto y generar salida dinámica. La iteración es fundamental identificar lo que falta y construir componentes que suplan esas carencias convierte una herramienta aceptable en una solución escalable.

En Q2BSTUDIO aplicamos estos mismos principios en proyectos reales ofrecemos desarrollo de software a medida y aplicaciones a medida pensadas para resolver problemas concretos de negocio. Nuestra experiencia en inteligencia artificial y agentes IA nos permite diseñar soluciones que integran rastreadores inteligentes y generación de contenido automatizada. Si tu proyecto necesita una solución personalizada podemos ayudar con el diseño y la implementación de sistemas escalables como este y también con desarrollo de aplicaciones a medida y servicios de inteligencia artificial para empresas. Además ofrecemos ciberseguridad, pentesting, servicios cloud aws y azure, servicios inteligencia de negocio y soluciones con Power BI para transformar datos en decisiones.

Este proyecto sigue evolucionando y hay muchas direcciones para mejorar desde ampliar la detección de señales sociales hasta integrar pipelines más robustos de scoring y A B testing en los mensajes. Si te interesa que desarrollemos un agente IA a medida, integrar automatización con servicios cloud o reforzar la seguridad de tu plataforma en la nube en Q2BSTUDIO estaremos encantados de colaborar. Cuál crees que debería ser el siguiente refinamiento de este agente Inteligencia de datos mayor cobertura de GBP mejores heurísticas de contacto o mayor personalización en los correos Cuéntame tus ideas y podemos convertirlas en un roadmap de producto conjunto.