Novedades

La Comisión Europea publica el primer borrador del Código de buenas prácticas para regular el marcado de contenidos generados por IA

El documento desarrolla las obligaciones de transparencia de la Ley de IA para garantizar que los ciudadanos identifiquen, entre otros, textos sintéticos y deepfakes. Este primer borrador establece un marco técnico para proveedores y una hoja de ruta de responsabilidad para los medios que actúan como implementadores de esta tecnología.

La Oficina de IA de la Comisión Europea ha dado un paso fundamental hacia la integridad del ecosistema informativo con la publicación del primer borrador del Código de buenas prácticas sobre la transparencia de los contenidos generados por IA. Este borrador, fruto de un proceso colaborativo iniciado en noviembre de 2025 con expertos, industria y sociedad civil, busca dotar de herramientas concretas a quienes deben cumplir con la Ley de IA (IA Act). Para los medios de información, este documento no solo define estándares técnicos, sino que protege la función social del periodismo al clarificar los límites de la responsabilidad editorial.

Surge para hacer efectivo el Reglamento 2024/1689 de la UE

El objetivo de este borrador es la implementación de las obligaciones recogidas en el Artículo 50 de la Ley de IA, cuya finalidad es combatir el riesgo de engaño y manipulación mediante la transparencia. El Código se desglosa principalmente en el cumplimiento de tres vertientes:

  • Artículo 50.2: Establece que los proveedores de sistemas de IA que generen audio, imagen, vídeo o texto sintético deben garantizar que sus resultados sean marcados en un formato legible por máquina y detectables como artificiales. Su finalidad es asegurar que la naturaleza del contenido sea siempre identificable.
  • Artículo 50.4: Impone a los actores que usen la IA la obligación de revelar que los contenidos han sido generados o manipulados artificialmente cuando constituyan una falsificación profunda (deepfake) en imagen, audio, vídeo o incluso texto.
  • Artículo 50.5: Exige que la información sobre dicha generación o manipulación se proporcione a las personas físicas de manera clara y distinguible. El objetivo es que la transparencia sea efectiva para el usuario final en el momento de su primera exposición al contenido.

Normativa a cumplir por los proveedores

Para los proveedores tecnológicos, el Código propone un enfoque de múltiples capas, con medidas clave como un marcado legible por máquina, que incluya información sobre la procedencia de la información, marcas de agua, certificados digitales de procedencia y colaboración por parte de los proveedores, para que estos métodos de detección sean accesibles y funcionen a través de diferentes canales de distribución.

Adaptación del Código a los medios de comunicación

Una de las implicaciones más relevantes para nuestro sector es la excepción por responsabilidad editorial. El borrador estipula que la obligación de etiquetar textos generados por IA no se aplica cuando el contenido ha sido sometido a un proceso de revisión humana o control editorial y donde una persona física o jurídica asuma la responsabilidad legal de la publicación. Esto garantiza que el uso de la IA como herramienta de apoyo no degrade la percepción de la noticia.

El Código, además, propone un lenguaje visual común para toda la UE. Se establece una taxonomía de dos niveles para clasificar el contenido, el que está totalmente generado por la IA, y el que es asistido por la IA, es decir, con intervención humana.

Hoja de ruta para consolidar el Código de buenas prácticas

A pesar del avance, el borrador reconoce puntos ciegos que requieren mayor desarrollo técnico, tales como el marcado de textos muy cortos o la aplicación en sistemas de voz, realidad virtual (VR) y código de software. Para agosto de 2026 está previsto que entren en vigor las reglas de transparencia de la Ley de IA en toda la Unión Europea.

Este primer borrador servirá para que plataformas como Meta, Open AI o Google tengan en cuenta la importancia de la señalización de contenido y, en cuanto a los medios, será esencial desarrollar los procesos de revisión humana. La clave radicará en la adaptación técnica de los sistemas de gestión de contenidos y en la formación de las redacciones para gestionar la procedencia sintética. Una implementación operativa y rigurosa permitirá que los medios de información refuercen la responsabilidad editorial, la transparencia y la credibilidad ante el público, aspectos que desde la Asociación de Medios de Información (AMI) consideramos clave.

Share
Published by
Comunicación

Recent Posts

La Comisión Europea marca a Google el camino para cumplir la DMA: abrir sus datos de búsqueda a la competencia

El 16 de abril, la Comisión Europea remitió a Google sus conclusiones preliminares sobre las…

21 horas ago

ChatGPT ya tiene gestor de anuncios. Lo que eso significa para los medios que financian con su contenido esas respuestas

OpenAI acaba de lanzar su plataforma publicitaria propia. Los anunciantes ya pueden comprar espacio dentro…

2 días ago

Los bots de IA crecen un 300% en 2025 y el sector editorial es su segundo objetivo global

El último informe de Akamai sobre el sector editorial, confirma que la actividad de bots…

3 días ago

Bruselas pone a ChatGPT en el punto de mira: ¿debe jugar con las mismas reglas que Google?

La Comisión Europea ha abierto una evaluación formal para determinar si el chatbot de OpenAI…

1 semana ago

RSL Collective quiere que los editores cobren por cada uso que la IA hace de sus contenidos. Y tiene un plan concreto para lograrlo

Una organización sin ánimo de lucro ha diseñado un estándar técnico que permite a cualquier…

1 semana ago

Estados Unidos impulsa una ley para que las empresas de inteligencia artificial paguen por el contenido que extraen de los medios

El Interactive Advertising Bureau ha presentado ante el Congreso estadounidense un borrador legislativo que obligaría…

2 semanas ago