- Por primera vez en la historia de internet, el tráfico generado por bots y rastreadores supera al humano, redefiniendo cómo se mide el valor, la atención y el impacto digital.
- Lo que parece un problema técnico es, en realidad, un desafío estructural para el marketing y la publicidad: métricas infladas, ROI distorsionado y audiencias que no existen.
- La pregunta clave ya no es cuántas visitas tiene un sitio, sino cuántas de ellas son humanas, y cuántas generan valor real para marcas y medios.
Un fenómeno silencioso pero disruptivo está reconfigurando el ecosistema digital global: el tráfico generado por bots, especialmente aquellos impulsados por inteligencia artificial, ya supera al proveniente de usuarios humanos. Ese dato, reportado por Wired y respaldado por datos de empresas de ciberseguridad, no es un simple número: redefine cómo se mide la atención, se vende publicidad y se concibe la creación de contenido en línea.
👉 Si más de la mitad del tráfico ya no es humano, el problema no es técnico: es estructural.
En Adtech analizamos lo que las métricas tradicionales ya no explican.
Los datos hablan: bots contra humanos en la red
Según el informe 2025 de Cloudflare, el tráfico global de internet aumentó cerca de un 19 % este año, pero una parte significativa de ese crecimiento provino de bots y rastreadores, no de personas, y de éstos:
- Los rastreadores no basados en IA generaron en 2025 alrededor del 50 % de todas las solicitudes HTML, superando en varios puntos porcentuales al tráfico humano.
- Los bots impulsados por IA representaron en promedio un 4.2 % adicional del tráfico HTML, un aumento relevante respecto a años anteriores.
Por su parte, el reporte 2025 de Imperva (Imperva Bad Bot Report) confirma la tendencia: por primera vez en su historia, el tráfico automatizado superó al humano, representando un 51 % del total global.
De ese volumen, hasta 37 % corresponde a "bad bots" o tráfico potencialmente malicioso como scraping de datos, fraudes, ataques a APIs o DDoS.
Este cambio no es incremental: en pocos años la red dejó de ser mayoritariamente humana.

¿Por qué está ocurriendo esto?
1. Escalada de IA y facilidad para desplegar bots
La proliferación de modelos de lenguaje, IA generativa y herramientas de scraping automatizado redujo drásticamente la barrera técnica para crear bots sofisticados, capaces de navegar y extraer contenido de forma masiva.
Hoy, un solo actor puede lanzar bots que "raspan" miles de sitios por minuto, algo impensable hace una década.
2. Necesidades de entrenamiento de modelos y indexación masiva
Empresas de IA y plataformas de búsqueda utilizan crawlers (bots legítimos o semilegítimos) para indexar sitios, recolectar datos para entrenamiento o alimentar sus sistemas. Eso explica por qué servicios como GPTBot figuran entre los rastreadores más activos.
3. Incentivos perversos en economía de la atención
Con publicidad programática, CPM, impresiones y métricas de tráfico como base de monetización, muchos actores tienen incentivos para inflar visitas, y los bots resultan mucho más baratos que usuarios reales. Esto convierte al bot en un "cliente barato" del sistema.

Implicaciones para medios, anunciantes y plataformas
✔️ Métricas infladas, valor real cuestionable
Cuando más de la mitad del tráfico es no humano, métricas como impresiones, clics o visitas pierden valor real. Anunciantes y publishers pagan por audiencias que no existen. Eso distorsiona ROI, atribuciones y decisiones de inversión.
✔️ Distorsión de la competencia y la visibilidad
Los bots no "consumen", no compran, no interactúan como humanos. Aquellos publishers que dependen de ingresos por engagement están viendo caer su monetización real, aun con números "altos".
✔️ Crisis de reputación para modelos de IA y plataformas
Las tecnologías que dependen de scraping masivo (IA, agregadores, motores de búsqueda) se benefician del trabajo no remunerado de creadores de contenido. Esto abre debates éticos: ¿rendición de cuentas, compensación, licenciamiento?
✔️ Riesgo creciente de seguridad y fraude
El aumento de "bad bots" implica más scraping no autorizado, robo de datos, fraudes, ataques a APIs y vulneraciones de privacidad. Esto impacta a retailers, publishers, servicios digitales y cualquier plataforma dependiente de tráfico real.

El dato del 51 % de tráfico de bots representa el momento en que la industria digital (medios, publicidad, plataformas, marketing) debe dejar de depender de métricas de vanidad y empezar a valorar lo que de verdad importa: impacto real, calidad, ética y sostenibilidad.
Esto significa jugar un rol activo:
- Ser puente de conocimiento entre tecnología, data y negocio.
- Exigir transparencia, buenas prácticas, responsabilidad.
- Incentivar un ecosistema donde la audiencia humana real vuelva a ser el centro.
La guerra ya empezó, no contra otros medios, sino contra bots —y solo los que entiendan el juego podrán ganar.
El internet que muchos conocimos, una red construida por y para humanos, ya no es la norma dominante. Con bots superando a personas, las reglas del juego cambiaron.
Quien logre adaptarse, filtrar, medir con rigor y mantener integridad, estará en posición de liderar la próxima era del AdTech. Los demás, inevitablemente, quedarán en el ruido.


