Novedades

Los bots de IA crecen un 300% en 2025 y el sector editorial es su segundo objetivo global

El último informe de Akamai sobre el sector editorial, confirma que la actividad de bots de inteligencia artificial aumentó exponencialmente en el segundo semestre de 2025. Las editoriales concentran el 40% de ese tráfico y reciben un 96% menos de visitas de referencia desde los chatbots que desde la búsqueda tradicional.

Akamai, empresa de ciberseguridad que gestiona una parte significativa del tráfico global, ha publicado su informe “State of the Internet”, centrado en el sector editorial. Los datos describen una aceleración considerable del consumo automatizado de contenidos informativos. Sus hallazgos revelan que la actividad de bots de inteligencia artificial aumentó un 300% en la segunda mitad de 2025.

El sector de los medios ocupa el segundo lugar mundial en concentración de ese tráfico, con un 13% del total, y dentro de ese porcentaje las editoriales representan el 40% de toda la actividad. La razón es funcional. Los sitios con contenido actualizado con frecuencia y estructurado de forma fiable son los que mejor sirven al entrenamiento de los modelos de lenguaje.

Dos tipos de bots, un mismo efecto

El informe distingue dos categorías de agentes automatizados en el tráfico editorial. Los rastreadores de entrenamiento, que capturan contenido para alimentar los modelos de lenguaje de gran escala, representan el 63% de todos los bots de IA dirigidos al sector. Los recuperadores de contenido en tiempo real, conocidos como fetchers, acceden a las noticias de última hora para sintetizarlas en las respuestas de los chatbots sin que el usuario visite el medio original. Suponen el 25% de la actividad total de bots en el sector, y las editoriales concentran el 43% de ese segmento.

La diferencia entre ambos tipos es relevante. Los rastreadores de entrenamiento construyen capacidad a futuro, mientras que los fetchers producen un daño inmediato, ya que sustituyen la visita al medio por un resumen elaborado sin consentimiento y erosionan los ingresos por publicidad y los modelos de suscripción. OpenAI es el actor con mayor impacto. Genera el mayor volumen de tráfico de bots dirigido a medios, y las editoriales representan el 40% de todas sus solicitudes. Meta y ByteDance completan el podio.

Un fenómeno que ya excede al sector editorial

Los datos de Akamai se complementan con dos declaraciones recientes que amplían la escala del fenómeno. Kate Johnson, CEO de Lumen Technologies, compañía por cuya infraestructura circula el 65% del tráfico global, afirmó que los bots de inteligencia artificial ya generan el 50% del tráfico web mundial. La cifra coincide con el pronóstico que Matthew Prince, CEO de Cloudflare, hizo en el festival SXSW del pasado marzo, cuando advirtió de que el tráfico automatizado podría superar al humano en 2027.

El tráfico que no llega

El dato más relevante del informe no mide lo que entra, sino lo que deja de entrar. Los chatbots generan aproximadamente un 96% menos de tráfico de referencia hacia los medios que la búsqueda tradicional de Google. Cuando un usuario obtiene una respuesta de ChatGPT, Perplexity o Gemini, la probabilidad de que termine visitando el medio que generó esa información es prácticamente nula. El impacto se traduce en menos páginas vistas, menor rendimiento publicitario y suscripciones más difíciles de justificar ante un lector que ya ha obtenido la respuesta antes de llegar al medio.

El panorama no es uniforme. Le Monde, que firmó un acuerdo de licencia con OpenAI en marzo de 2024, ha publicado resultados que matizan el diagnóstico. Su consejero delegado, Louis Dreyfus, declaró a Press Gazette que los artículos del diario francés en ChatGPT convierten suscripciones veinte veces más que en Facebook y cincuenta veces más que en Google Discover. Los tres acuerdos firmados por la cabecera con OpenAI, Perplexity y Meta aportaron 72 millones de euros en 2025, cifra cercana a los 81 millones que cuesta mantener anualmente su redacción.

Google activa un bot que ignora robots.txt

En paralelo al debate económico ha surgido una dificultad técnica. Google ha activado oficialmente un bot llamado Google-Agent que ignora el archivo “robots.txt”; el mecanismo estándar utilizado por los editores para indicar a los rastreadores qué partes de un sitio pueden o no recorrer. A diferencia de Googlebot, que continúa respetando esas directrices, Google-Agent opera como un recuperador activado por el usuario. La propia compañía justifica la excepción argumentando que, cuando una persona pide a un agente de IA que compare vuelos o busque una noticia, la acción equivale a una visita humana directa al navegador.

La implicación práctica es inmediata. Cualquier contenido protegido únicamente por robots.txt resulta ya accesible para Google-Agent, lo que obliga a los editores a trasladar el control del rastreo a mecanismos más sólidos como la autenticación o las reglas de cortafuegos.

Un problema que ya tiene nombre, pero aún no tiene solución

El sector no está inactivo, pero las respuestas avanzan a ritmos desiguales. En el plano contractual, los acuerdos de licencia negociados individualmente, como el de Le Monde, son la vía principal para monetizar el contenido consumido por las plataformas de IA. En el plano regulatorio, la Comisión Europea evalúa la designación de ChatGPT como Very Large Online Search Engine bajo el Digital Services Act, después de que OpenAI reportara 120,4 millones de usuarios mensuales en la UE. Si se concreta, las obligaciones de transparencia y mitigación de riesgos que hoy aplican a Google se extenderán a ChatGPT.

Ninguna de estas vías resulta suficiente por sí sola, y todas comparten un mismo rasgo. Llegan con retraso respecto a la velocidad a la que los sistemas de IA escalan su consumo de contenido editorial, y el caso de Google-Agent ilustra esa asimetría al mostrar que la propia industria tecnológica introduce novedades que debilitan las defensas apenas se consolidan. El reto de los próximos meses es cómo estructurar un ecosistema informativo en el que los productores del contenido reciban una compensación proporcional al valor que su trabajo genera.

Share
Published by
Comunicación

Recent Posts

Bruselas pone a ChatGPT en el punto de mira: ¿debe jugar con las mismas reglas que Google?

La Comisión Europea ha abierto una evaluación formal para determinar si el chatbot de OpenAI…

7 días ago

RSL Collective quiere que los editores cobren por cada uso que la IA hace de sus contenidos. Y tiene un plan concreto para lograrlo

Una organización sin ánimo de lucro ha diseñado un estándar técnico que permite a cualquier…

1 semana ago

Estados Unidos impulsa una ley para que las empresas de inteligencia artificial paguen por el contenido que extraen de los medios

El Interactive Advertising Bureau ha presentado ante el Congreso estadounidense un borrador legislativo que obligaría…

2 semanas ago

El Parlamento francés aprueba por unanimidad una ley para obligar a las grandes tecnológicas a remunerar a los medios de comunicación

La Asamblea Nacional de Francia ha aprobado una propuesta legislativa que obliga a las plataformas…

2 semanas ago

Google modifica los titulares de los medios con IA sin consentimiento de los editores

La compañía de Mountain View está probando en sus resultados de búsqueda titulares generados por…

2 semanas ago

Jóvenes y noticias: no es desconexión, es una reconfiguración del ecosistema informativo

El último informe del Reuters Institute muestra que los jóvenes no están abandonando la información,…

3 semanas ago