Meta reconoce que rastreó fotos y publicaciones de los perfiles sociales de sus usuarios australianos para entrenar sus modelos de IA
La directora global de Privacidad de Meta, Melinda Claybaugh, ha admitido que su empresa rastreó las fotos y publicaciones públicas de los usuarios adultos australianos de sus redes sociales para entrenar a sus modelos de inteligencia artificial sin ofrecer una opción de exclusión, “simplemente porque la empresa puede hacerlo”, dado que los reguladores “no se lo han impedido”.
En el trascurso de una investigación del Parlamento de Australia sobre la adopción de la IA, Claybaugh ha aclarado que, en ningún caso, son usuarios menores de 18 años, aunque no detalló qué hacen en el caso de las publicaciones de los usuarios que ahora son adultos y abrieron sus cuentas en redes sociales cuando no habían llegado a la mayoría de edad. Además, remarcó que si un usuario cambia su cuenta a privada para evitar futuros rastreos, no podrá recuperar la privacidad sobre lo que ya se ha utilizado.
Desde distintas organizaciones se ha criticado la postura de Meta. Si bien se podría argumentar que estas publicaciones son públicas y están abiertas a todo el mundo, existe una gran diferencia entre permitir que un perfil sea público para que los usuarios puedan interactuar con esa persona y, por otro lado, dar a una Big Tech “permiso ilimitado para usar el contenido y utilizarlo para crear productos comerciales de IA a su antojo”. Y aunque Meta, dueña de las redes sociales WhatsApp, Facebook e Instagram, podría haber obtenido legalmente el permiso al incluir su derecho a hacerlo en sus términos y condiciones, “no es ni mucho menos un consentimiento explícito o real”.
La legislación de la UE llevó a Meta a cancelar el lanzamiento de sus productos de IA.
Claybaugh reconoció que los usuarios australianos no tienen la opción de excluirse del rastreo como los ciudadanos de la UE, porque la legislación europea es mucho más estricta en materia de datos. “En Europa hay una cuestión jurídica en curso sobre cuál es la interpretación de la legislación vigente en materia de privacidad con respecto a la formación en IA. Por ello, hemos suspendido el lanzamiento de nuestros productos de IA en Europa mientras no haya certidumbre. Por lo tanto, es cierto que ofrecemos una opción de exclusión a los usuarios europeos”, añade Claybaugh.
La directiva de Meta hizo referencia al Reglamento General de Protección de Datos (GDPR) de la Unión Europea y cómo ha creado obstáculos para los planes de Meta de entrenar a su IA con datos de usuarios de la UE, y cómo provocó que, el pasado mes de junio, anunciase que “ponía en pausa” sus planes de desplegar sus modelos de IA.
Durante la investigación, Claybaugh admitió que Meta sólo adoptará un enfoque que dé prioridad a la privacidad si los reguladores le obligan a ello. Un portavoz de Meta dejó claro que los usuarios están a merced de sus reguladores locales. “Si bien actualmente no tenemos una función de exclusión, hemos creado herramientas en la plataforma que permiten a las personas eliminar su información personal de los chats con Meta AI a través de nuestras aplicaciones. Dependiendo de dónde vivan las personas, también pueden oponerse al uso de su información personal para construir y entrenar la IA de acuerdo con las leyes de privacidad locales”.
Esta investigación a Meta en Australia ha mostrado, según medios locales, el relevante y acuciante papel que tienen los reguladores a la hora de proteger a los consumidores ante la rápida proliferación de la IA.