Man creates images from text with artificial intelligence. Interacting with an image-creating AI.
El 2 de agosto entra en vigor en la Unión Europea un pilar clave del nuevo Reglamento de Inteligencia Artificial (RIA). Por primera vez, los grandes modelos de IA como ChatGPT, Gemini o Claude estarán obligados a rendir cuentas sobre cómo se entrenan y con qué datos. Una decisión histórica que pone sobre la mesa una pregunta urgente: ¿quién controla la tecnología que lo está transformando todo?
Desde esta semana, los proveedores de modelos de propósito general (GPAI, por sus siglas en inglés) deberán:
Durante años, las grandes tecnológicas han entrenado sus sistemas con contenido extraído sin permiso: artículos de prensa, imágenes de agencias, entrevistas completas. Todo sin preguntar, sin citar y sin pagar. El nuevo reglamento europeo pone límites a estas prácticas y refuerza el derecho de los medios a decidir sobre el uso de sus contenidos. Si un editor ha reservado expresamente sus derechos —como permite la Directiva europea 2019/790—, cualquier uso por parte de una IA deberá contar con su autorización.
No importa dónde se haya entrenado el modelo: si opera en Europa, tendrá que respetar esta norma. Se trata de un cambio estructural que permite a los medios reclamar compensaciones económicas y bloquear usos abusivos.
El reglamento también obliga a que los contenidos generados artificialmente estén debidamente etiquetados. Es decir: que los deepfakes y los textos sintéticos no puedan pasar por reales sin control. Esta medida no solo protege a los lectores, sino que da a los medios nuevas herramientas para combatir la desinformación y verificar con mayor agilidad.
Además, reconoce que los grandes modelos de IA pueden generar riesgos sistémicos para la democracia, la seguridad o la economía. Por eso, introduce obligaciones adicionales: evaluaciones de impacto, informes periódicos de transparencia y notificación de incidentes graves.
Cada vez más medios utilizan herramientas de IA en sus rutinas. Saber cómo funcionan, qué sesgos arrastran y con qué datos se entrenan no es una curiosidad técnica, sino una exigencia ética y profesional. Esta legislación abre por fin una puerta a una IA auditable, comprensible y alineada con los valores del periodismo.
Lo que arranca ahora no es el final del proceso, sino su punto de partida. Algunas disposiciones clave, especialmente las relativas a los modelos más potentes, entrarán plenamente en vigor este 2 de agosto de 2025. Las sanciones llegarán en 2026. El incumplimiento podrá suponer multas de hasta 15 millones de euros o el 3 % de la facturación global.
Para los medios, este calendario no es solo un marco legal. Es una oportunidad. De defender su propiedad intelectual. De reclamar un papel legítimo en el nuevo ecosistema digital. Y de recordar que, en tiempos de algoritmos, el periodismo sigue siendo un pilar irrenunciable de la democracia.
El último informe de Akamai sobre el sector editorial, confirma que la actividad de bots…
La Comisión Europea ha abierto una evaluación formal para determinar si el chatbot de OpenAI…
Una organización sin ánimo de lucro ha diseñado un estándar técnico que permite a cualquier…
El Interactive Advertising Bureau ha presentado ante el Congreso estadounidense un borrador legislativo que obligaría…
La Asamblea Nacional de Francia ha aprobado una propuesta legislativa que obliga a las plataformas…
La compañía de Mountain View está probando en sus resultados de búsqueda titulares generados por…