El último informe de Akamai sobre el sector editorial, confirma que la actividad de bots de inteligencia artificial aumentó exponencialmente en el segundo semestre de 2025. Las editoriales concentran el 40% de ese tráfico y reciben un 96% menos de visitas de referencia desde los chatbots que desde la búsqueda tradicional.
Akamai, empresa de ciberseguridad que gestiona una parte significativa del tráfico global, ha publicado su informe “State of the Internet”, centrado en el sector editorial. Los datos describen una aceleración considerable del consumo automatizado de contenidos informativos. Sus hallazgos revelan que la actividad de bots de inteligencia artificial aumentó un 300% en la segunda mitad de 2025.
El sector de los medios ocupa el segundo lugar mundial en concentración de ese tráfico, con un 13% del total, y dentro de ese porcentaje las editoriales representan el 40% de toda la actividad. La razón es funcional. Los sitios con contenido actualizado con frecuencia y estructurado de forma fiable son los que mejor sirven al entrenamiento de los modelos de lenguaje.
El informe distingue dos categorías de agentes automatizados en el tráfico editorial. Los rastreadores de entrenamiento, que capturan contenido para alimentar los modelos de lenguaje de gran escala, representan el 63% de todos los bots de IA dirigidos al sector. Los recuperadores de contenido en tiempo real, conocidos como fetchers, acceden a las noticias de última hora para sintetizarlas en las respuestas de los chatbots sin que el usuario visite el medio original. Suponen el 25% de la actividad total de bots en el sector, y las editoriales concentran el 43% de ese segmento.
La diferencia entre ambos tipos es relevante. Los rastreadores de entrenamiento construyen capacidad a futuro, mientras que los fetchers producen un daño inmediato, ya que sustituyen la visita al medio por un resumen elaborado sin consentimiento y erosionan los ingresos por publicidad y los modelos de suscripción. OpenAI es el actor con mayor impacto. Genera el mayor volumen de tráfico de bots dirigido a medios, y las editoriales representan el 40% de todas sus solicitudes. Meta y ByteDance completan el podio.
Los datos de Akamai se complementan con dos declaraciones recientes que amplían la escala del fenómeno. Kate Johnson, CEO de Lumen Technologies, compañía por cuya infraestructura circula el 65% del tráfico global, afirmó que los bots de inteligencia artificial ya generan el 50% del tráfico web mundial. La cifra coincide con el pronóstico que Matthew Prince, CEO de Cloudflare, hizo en el festival SXSW del pasado marzo, cuando advirtió de que el tráfico automatizado podría superar al humano en 2027.
El dato más relevante del informe no mide lo que entra, sino lo que deja de entrar. Los chatbots generan aproximadamente un 96% menos de tráfico de referencia hacia los medios que la búsqueda tradicional de Google. Cuando un usuario obtiene una respuesta de ChatGPT, Perplexity o Gemini, la probabilidad de que termine visitando el medio que generó esa información es prácticamente nula. El impacto se traduce en menos páginas vistas, menor rendimiento publicitario y suscripciones más difíciles de justificar ante un lector que ya ha obtenido la respuesta antes de llegar al medio.
El panorama no es uniforme. Le Monde, que firmó un acuerdo de licencia con OpenAI en marzo de 2024, ha publicado resultados que matizan el diagnóstico. Su consejero delegado, Louis Dreyfus, declaró a Press Gazette que los artículos del diario francés en ChatGPT convierten suscripciones veinte veces más que en Facebook y cincuenta veces más que en Google Discover. Los tres acuerdos firmados por la cabecera con OpenAI, Perplexity y Meta aportaron 72 millones de euros en 2025, cifra cercana a los 81 millones que cuesta mantener anualmente su redacción.
En paralelo al debate económico ha surgido una dificultad técnica. Google ha activado oficialmente un bot llamado Google-Agent que ignora el archivo “robots.txt”; el mecanismo estándar utilizado por los editores para indicar a los rastreadores qué partes de un sitio pueden o no recorrer. A diferencia de Googlebot, que continúa respetando esas directrices, Google-Agent opera como un recuperador activado por el usuario. La propia compañía justifica la excepción argumentando que, cuando una persona pide a un agente de IA que compare vuelos o busque una noticia, la acción equivale a una visita humana directa al navegador.
La implicación práctica es inmediata. Cualquier contenido protegido únicamente por robots.txt resulta ya accesible para Google-Agent, lo que obliga a los editores a trasladar el control del rastreo a mecanismos más sólidos como la autenticación o las reglas de cortafuegos.
El sector no está inactivo, pero las respuestas avanzan a ritmos desiguales. En el plano contractual, los acuerdos de licencia negociados individualmente, como el de Le Monde, son la vía principal para monetizar el contenido consumido por las plataformas de IA. En el plano regulatorio, la Comisión Europea evalúa la designación de ChatGPT como Very Large Online Search Engine bajo el Digital Services Act, después de que OpenAI reportara 120,4 millones de usuarios mensuales en la UE. Si se concreta, las obligaciones de transparencia y mitigación de riesgos que hoy aplican a Google se extenderán a ChatGPT.
Ninguna de estas vías resulta suficiente por sí sola, y todas comparten un mismo rasgo. Llegan con retraso respecto a la velocidad a la que los sistemas de IA escalan su consumo de contenido editorial, y el caso de Google-Agent ilustra esa asimetría al mostrar que la propia industria tecnológica introduce novedades que debilitan las defensas apenas se consolidan. El reto de los próximos meses es cómo estructurar un ecosistema informativo en el que los productores del contenido reciban una compensación proporcional al valor que su trabajo genera.
La Comisión Europea ha abierto una evaluación formal para determinar si el chatbot de OpenAI…
Una organización sin ánimo de lucro ha diseñado un estándar técnico que permite a cualquier…
El Interactive Advertising Bureau ha presentado ante el Congreso estadounidense un borrador legislativo que obligaría…
La Asamblea Nacional de Francia ha aprobado una propuesta legislativa que obliga a las plataformas…
La compañía de Mountain View está probando en sus resultados de búsqueda titulares generados por…
El último informe del Reuters Institute muestra que los jóvenes no están abandonando la información,…