AI generative app. Woman chatting with Artificial Intelligence software in computer laptop. Technology trends
News Media Europe y otras organizaciones del sector cultural critican el enfoque del documento, al que acusan de ofrecer una lectura sesgada de los derechos de autor y de no garantizar una remuneración justa para los creadores.
Tras meses de debates, presiones e incertidumbre, el pasado 10 de julio la Comisión Europea presentó su Código de Buenas Prácticas para modelos de inteligencia artificial de propósito general (GPAI). El documento, elaborado por un grupo de trece expertos con aportaciones de más de mil actores del ecosistema digital, busca orientar a empresas como OpenAI, Microsoft o Google sobre cómo cumplir con el Reglamento de Inteligencia Artificial (AI Act), que entrará en vigor el próximo 2 de agosto.
Se trata de un texto no vinculante, al que los proveedores de IA podrán adherirse de forma voluntaria. Según la Comisión, el Código pretende facilitar una implementación ética, segura y legalmente conforme de los modelos más avanzados, garantizando que su desarrollo sea “seguro, transparente y respetuoso con los derechos fundamentales”.
Henna Virkkunen, vicepresidenta ejecutiva para la Soberanía Tecnológica, la Seguridad y la Democracia, subrayó su importancia:
“Invito a todos los proveedores de modelos de IA de uso general a que se adhieran al Código. De este modo, se les asegurará una ruta clara y colaborativa para el cumplimiento de la Ley de IA de la UE”, afirmó.
Sin embargo, el entusiasmo institucional contrasta con la preocupación creciente de los sectores cultural, creativo y mediático, directamente afectados por el uso masivo de contenidos protegidos para el entrenamiento de modelos de IA. Organizaciones como News Media Europe advierten que el Código no garantiza una protección real de los derechos de autor ni mecanismos eficaces para asegurar la remuneración justa de los creadores.
El Código se estructura en tres capítulos: Transparencia, Derechos de Autor, y Seguridad y Protección. El apartado más controvertido ha sido precisamente el relativo al copyright, que muchos consideran ambiguo, débil y complaciente con los intereses de las grandes tecnológicas.
Este capítulo busca dar cumplimiento al artículo 53 del AI Act, que obliga a respetar la legislación europea sobre derechos de autor, especialmente en lo referente a las reservas de derechos para minería de texto y datos. Para ello, el Código propone una serie de compromisos voluntarios, entre ellos:
Aunque sobre el papel estas medidas suenan razonables, organizaciones como News Media Europe consideran que el Código se queda corto.
La principal crítica apunta al uso preferente del archivo robots.txt como herramienta para excluir contenidos del entrenamiento de IA. Este protocolo, creado hace más de 30 años para regular la indexación de buscadores, no tiene valor legal y ofrece escasa protección técnica frente al uso no autorizado de obras protegidas.
“Está claro que la Comisión quiere dar a robots.txt un trato privilegiado sobre otros métodos de exclusión, por razones que no benefician a los titulares de derechos”, denunció News Media Europe.
Además, se reprocha a la Comisión haber ignorado el espíritu de la Directiva de derechos de autor, que promueve el desarrollo de mercados de licencias que aseguren una compensación equitativa para los creadores. La ausencia de una obligación clara de transparencia sobre los datos utilizados para entrenar los modelos es otra de las debilidades señaladas.
De hecho, ya en marzo pasado, la European Publishers Council y la red Culture Action Europe denunciaron que los borradores del Código no obligaban a los proveedores a revelar públicamente sus políticas de derechos de autor ni a detallar los contenidos utilizados, a pesar de que esta transparencia es exigida por la legislación europea.
El Código deberá ser refrendado por los Estados miembros y será la base para que las empresas tecnológicas puedan demostrar su cumplimiento con el nuevo marco legal de forma simplificada. Aquellos que se adhieran voluntariamente podrán beneficiarse de una menor carga administrativa y una mayor seguridad jurídica.
Sin embargo, el verdadero impacto del Código dependerá de la plantilla de divulgación que deberá desarrollar la Oficina de IA, y que obligará —o no— a las plataformas a revelar cómo, con qué y con quién han entrenado sus modelos. En otras palabras: la transparencia real sigue pendiente.
Desde AMI defendemos una IA que respete el periodismo y garantice la sostenibilidad de los medios de comunicación. La protección de los contenidos no es un obstáculo al desarrollo tecnológico, sino un pilar indispensable para asegurar una innovación justa, democrática y basada en derechos.
El aumento del acoso digital y las amenazas con componente de género sigue marcando el…
Meta ha alcanzado un acuerdo con News Corp para utilizar contenidos de sus medios en…
Más de 1.000 directivos de medios de todo el mundo se reunirán en Marsella del…
Un estudio revela que las respuestas generadas con IA ya aparecen en casi el 30%…
El anteproyecto introduce un tope del 35% a los ingresos procedentes de publicidad institucional y…
El Confidencial celebra 25 años de trayectoria como uno de los grandes referentes del periodismo…