El gigante tecnológico, que desde este lunes ha finalizado oficialmente en Estados Unidos su programa de verificación, ha decidido prescindir de su oficina en Barcelona operada hasta ahora por la multinacional canadiense Telus.
Meta, propietaria de Facebook, Instagram, Threads y WhatsApp, ha optado por cerrar su centro de moderación de contenidos en Barcelona, gestionado a través de la compañía Telus International.
El cierre de esta planta, en funcionamiento en la capital catalana desde 2018, supone un duro golpe para las cerca de 2.000 personas que trabajaban para Telus, cuyo principal cliente era precisamente Meta. Según Telus, el fin del contrato se debe a que la tecnológica estadounidense “está diversificando su presencia y trasladando sus servicios a otras ubicaciones”.
La noticia llega en medio de una reestructuración global del programa de verificadores de Meta, después de que su fundador, Mark Zuckerberg, anunciara en enero su decisión de prescindir de los moderadores acreditados en Estados Unidos, sustituyéndolos por un sistema de anotaciones realizadas por los propios usuarios, conocidas como ‘Notas de la Comunidad’.
Este nuevo modelo comenzó a aplicarse oficialmente en Norteamérica este lunes 7 de abril, fecha a partir de la cual son los propios usuarios —y no verificadores externos e independientes— quienes escriben notas sobre las publicaciones, incluyendo advertencias sobre los contenidos o añadiendo contexto adicional.
“El lunes por la tarde, nuestro programa de verificación de datos en EE. UU. finalizará oficialmente. Esto significa que no habrá nuevas verificaciones ni verificadores. En enero anunciamos la finalización del programa y la eliminación de las sanciones. En lugar de las verificaciones de datos, las primeras ‘Notas de la Comunidad’ empezarán a aparecer gradualmente en Facebook, Threads e Instagram, sin sanciones”, señaló en X Joel Kaplan, director de Políticas Globales de Meta.
Estos movimientos reflejan la tendencia dentro de la compañía a reducir tanto la moderación de contenidos como la verificación de hechos, posiblemente como respuesta a presiones políticas y consideraciones financieras. No obstante, estas decisiones han generado preocupación por el posible incremento de la desinformación y el discurso de odio en las plataformas de Meta.
Por ejemplo, el Center for Countering Digital Hate (CCDH) ha advertido de que las recientes modificaciones en las políticas de la empresa podrían reducir en un 97 % la aplicación de normas contra discursos de odio y otros contenidos perjudiciales.
Ante el riesgo de que Meta replique esta estrategia en Europa, la Comisión Europea recordó en enero que en la UE está en vigor la Ley de Servicios Digitales, que obliga a las plataformas a cumplir ciertos requisitos, como mitigar los riesgos sistémicos derivados de sus servicios, entre ellos la difusión de desinformación o la interferencia en procesos electorales.
Un análisis presentado por GfK DAM en Bruselas revela que el uso de herramientas de…
La Eurocámara aprobó una moción que insta a la Comisión Europea a adoptar una serie…
A lo largo de dos décadas, El Economista se ha consolidado como uno de los…
El aumento del acoso digital y las amenazas con componente de género sigue marcando el…
Meta ha alcanzado un acuerdo con News Corp para utilizar contenidos de sus medios en…
Más de 1.000 directivos de medios de todo el mundo se reunirán en Marsella del…