Novedades

La Inteligencia Artificial como herramienta para frenar las noticias falsas

Investigadores de la Universidad de Sheffield han desarrollado un sistema de inteligencia artificial que predice la probabilidad de que las personas difundan información falsa en función de las palabras que usan.

Los investigadores de la universidad de investigación ubicada en Sheffield (South Yorkshire, Inglaterra) han estudiado 1 millón de tuits de 6.200 usuarios de la red social Twitter y aseguran que gracias a la tecnología de Inteligencia Artificial pueden ayudar a identificar a los usuarios de Twitter que tienen más probabilidades de compartir fuentes de noticias poco fiables. Una tecnología que, según confirman, tiene una tasa de precisión del 79,7%.

Los investigadores Yida Mu y el Dr. Nikos Aletra han encontrado fuertes correlaciones entre patrones específicos de lenguaje y la propensión a compartir información falsa. De esta manera, los usuarios que compartían información dudosa tendían a utilizar las palabras “medios de comunicación”, “gobierno”, “verdad”, “Israel”, “liberal”, “musulmán” e “Islam” en sus tweets, mientras que aquellos usuarios que compartían fuentes de información más fiables tendían a usar palabras más personales como “yo”, “sentir”, “emocionado”, “humor”, “mamá” y “bien”.

Los temas relacionados con la política, como la ideología política, el gobierno y la justicia, se correlacionan con los usuarios que propagan fuentes poco fiables. “También observamos una alta correlación de tales usuarios con el tema relacionado con las caracterizaciones personales maleducadas. Esto corrobora los resultados de un estudio reciente que muestra que la incivilidad política en Twitter está correlacionada con la polarización política”, han descrito los autores del estudio.

Yida Mu y el Dr. Nikos Aletra han basado sus conclusiones en el análisis de más de un millón de tweets de aproximadamente 6.200 usuarios. Estos datos ayudaron a los investigadores a desarrollar “nuevos métodos de procesamiento de lenguaje natural”. Un sistema que tiene una precisión del 79,7%. El equipo espera que esta herramienta proporcione un método novedoso y útil para ayudar a combatir la avalancha de engaños y desinformación.

“Es de suma importancia identificar de manera temprana a aquellos usuarios de las redes sociales que vayan a propagar mensajes desde fuentes poco fiables en algún momento para poder así prevenir la difusión y evitar que la desinformación corra por la red”, han sentenciado los autores.

Share
Published by
Comunicación

Recent Posts

Google invierte 40.000 millones en Anthropic. La situación para los medios cuando dos gigantes se reparten el ecosistema de la IA

El acuerdo anunciado el 24 de abril convierte a Google en el principal financiador de…

46 minutos ago

La Comisión Europea marca a Google el camino para cumplir la DMA: abrir sus datos de búsqueda a la competencia

El 16 de abril, la Comisión Europea remitió a Google sus conclusiones preliminares sobre las…

5 días ago

ChatGPT ya tiene gestor de anuncios. Lo que eso significa para los medios que financian con su contenido esas respuestas

OpenAI acaba de lanzar su plataforma publicitaria propia. Los anunciantes ya pueden comprar espacio dentro…

6 días ago

Los bots de IA crecen un 300% en 2025 y el sector editorial es su segundo objetivo global

El último informe de Akamai sobre el sector editorial, confirma que la actividad de bots…

1 semana ago

Bruselas pone a ChatGPT en el punto de mira: ¿debe jugar con las mismas reglas que Google?

La Comisión Europea ha abierto una evaluación formal para determinar si el chatbot de OpenAI…

2 semanas ago

RSL Collective quiere que los editores cobren por cada uso que la IA hace de sus contenidos. Y tiene un plan concreto para lograrlo

Una organización sin ánimo de lucro ha diseñado un estándar técnico que permite a cualquier…

2 semanas ago