Demanda META

Meta compromete la privacidad de los europeos al usar sus datos personales para entrenar su IA

Desde el pasado 27 de mayo, el gigante tecnológico recopila publicaciones y mensajes públicos de los usuarios en sus redes sociales para entrenar su modelo de inteligencia artificial. Organizaciones de la sociedad civil le han solicitado rectificar su política, al considerarla contraria a la normativa europea.

Meta, empresa matriz de redes sociales como Facebook e Instagram y de aplicaciones de mensajería instantánea como WhatsApp o Messenger, ha comenzado a recopilar datos personales de sus usuarios con el fin de entrenar su modelo de inteligencia artificial: Meta AI.

Tal como anunció en abril en una nota de prensa, desde el 27 de mayo comenzó a utilizar el contenido que considera legítimo para entrenar su IA, es decir, aquel que los usuarios comparten de forma pública: textos, fotos, comentarios, historias e interacciones. También se incluyen las conversaciones que los usuarios mantienen con Meta AI en WhatsApp.

En cualquier caso, Meta no utiliza los mensajes ni publicaciones compartidos de forma privada, con seguidores o círculos cerrados, ni tampoco los mensajes entre contactos en WhatsApp o Messenger. Tampoco utiliza datos de menores de 18 años.

Aunque los usuarios pueden oponerse al uso de su información para entrenar la IA de Meta, deben hacerlo de forma explícita, rellenando un formulario en el que se puede argumentar por qué no desean compartir esta información.

Esta recopilación de datos ha encendido las alarmas entre expertos y organizaciones de la sociedad civil en la Unión Europea, que consideran que esta práctica —para la cual Meta alega tener un “interés legítimo”— podría vulnerar el derecho a la protección de datos personales.

Por ejemplo, la Federación de Consumidores y Usuarios (CECU), que forma parte de la organización europea de consumidores (BEUC), ha solicitado a la compañía “rectificar su política”, al considerarla contraria a la normativa europea sobre protección de datos, competencia y derechos digitales. La organización también se ha reservado el derecho de emprender acciones legales ante los tribunales o las autoridades competentes para garantizar que Meta cumpla con sus obligaciones.

“Consideramos muy grave esta situación, que además podría sentar un precedente para que otras compañías del sector tecnológico actúen de la misma manera”, señaló Anabel Arias, experta en derechos digitales de CECU.

También la ONG NOYB (None of Your Business), liderada por el activista Max Schrems, ha presentado varias quejas desde el anuncio del plan de entrenamiento de IA. En Alemania, la organización de consumidores Verbraucherzentrale ha acudido a la justicia para frenar estas prácticas. Del mismo modo, la organización austriaca NOYB ha enviado una carta a Meta solicitando el cese del uso de información personal en el entrenamiento de su IA, mientras estudia la posibilidad de solicitar medidas cautelares o presentar una demanda colectiva.

Meta llevaba preparando esta iniciativa desde el verano de 2024. Sin embargo, se vio obligada a pausar sus planes tras varias quejas de abogados y organizaciones de la sociedad civil, lo cual llevó a que la Comisión de Protección de Datos de Irlanda (DPC), organismo que supervisa a Meta dentro de la UE, le pidiera revisar el cumplimiento de las leyes europeas sobre privacidad.

En su momento, el organismo irlandés afirmó: “Acogemos con satisfacción la decisión de Meta de pausar sus proyectos para entrenar su modelo de lenguaje grande utilizando contenido público compartido en Facebook e Instagram en toda la UE y el EEE. Esta decisión se produjo tras un intenso diálogo entre la DPC y Meta. La DPC, en cooperación con las autoridades de protección de datos europeas, seguirá colaborando con Meta en esta cuestión”.

Los planes de la empresa se reactivaron después de que, en diciembre de 2024, el Comité Europeo de Protección de Datos (CEPD) emitiera un dictamen en el que señalaba que Meta había cumplido con sus obligaciones legales y con los compromisos adquiridos con la DPC.

La preocupación por un posible uso indebido de los datos de los usuarios para entrenar sistemas de IA se suma a las denuncias previas que diversos sectores de la sociedad civil han presentado contra Meta por utilizar datos personales con fines publicitarios y obtener con ello una ventaja competitiva ilegítima. En diciembre de 2023, la Asociación de Medios de Información interpuso una demanda contra la compañía por estos hechos.

Share
Published by
Comunicación

Recent Posts

El Parlamento Europeo analiza el impacto de la inteligencia artificial en el consumo de información con datos de GfK DAM

Un análisis presentado por  GfK DAM en Bruselas revela que el uso de herramientas de…

2 días ago

El Parlamento Europeo exige a la IA mayor transparencia y un pago justo por el uso de obras protegidas 

La Eurocámara aprobó una moción que insta a la Comisión Europea a adoptar una serie…

4 días ago

El Economista celebra 20 años informando y analizando la economía española

A lo largo de dos décadas, El Economista se ha consolidado como uno de los…

4 días ago

Las mujeres periodistas siguen expuestas a amenazas específicas de género

El aumento del acoso digital y las amenazas con componente de género sigue marcando el…

5 días ago

News Corp y Meta firman un acuerdo de licencia de contenidos para inteligencia artificial valorado en hasta 50 millones de dólares anuales

Meta ha alcanzado un acuerdo con News Corp para utilizar contenidos de sus medios en…

1 semana ago

El World News Media Congress 2026: la gran cita para redefinir el futuro de los medios

Más de 1.000 directivos de medios de todo el mundo se reunirán en Marsella del…

1 semana ago