Estudios e Informes

La mitad de las respuestas de los chatbots de IA contienen ‘problemas significativos’, según un estudio

Un reciente informe de Press Gazette ha revelado que el 50% de las respuestas generadas por los chatbots de inteligencia artificial (IA) en el ámbito de las noticias presentan “problemas significativos”.

El estudio evaluó cientos de respuestas proporcionadas por estos chatbots en temas de actualidad, política, economía y ciencia. Los resultados muestran que alrededor del 20% de las respuestas contienen información incorrecta o engañosa, y el 30 % omitía detalles clave que podían llevar a interpretaciones erróneas. Solo la mitad podían considerarse adecuados.

La investigación, que analizó herramientas como ChatGPT, Google Gemini, Microsoft Copilot y Perplexity, entro otros, indica que muchas de sus respuestas contienen errores de contexto, interpretaciones incorrectas o incluso información falsa. Entre los principales fallos detectados se encuentran la distorsión de los hechos, la falta de fuentes verificables y la introducción de sesgos en los contenidos. Esto supone un riesgo para la calidad de la información en una era donde la inmediatez y la automatización están cada vez más presentes en el periodismo. Los autores del estudio destacan que, aunque la IA puede ser una herramienta útil para agilizar la producción de contenidos, no puede sustituir el criterio y la labor de los periodistas. La supervisión humana sigue siendo fundamental para garantizar que las noticias sean veraces y éticas. Sin este control, la proliferación de información errónea podría socavar la confianza en los medios y contribuir a la desinformación.

Uno de los problemas más recurrentes identificados en el informe es la falta de transparencia en las fuentes de información utilizadas por los chatbots. A diferencia del periodismo tradicional, donde los datos pueden ser rastreados hasta su origen, los modelos de IA no siempre especifican de dónde provienen sus afirmaciones. Además, en algunos casos, los chatbots generaban respuestas con un tono de seguridad excesivo, lo que aumentaba el riesgo de que los usuarios los den por válidos.

Los autores del estudio destacan que, aunque la IA puede ser una herramienta útil para agilizar la producción de contenidos y asistir en tareas periodísticas, no puede sustituir la labor de los periodistas humanos sin socavar la confianza en los medios de comunicación y contribuir a la desinformación en un entorno volátil.

Además, el informe plantea dudas sobre el futuro de la IA en el periodismo. Mientras algunas empresas han comenzado a incorporar estos modelos en sus redacciones para generar borradores y automatizar ciertos procesos, otras alertan de los riesgos de depender en exceso de estos sistemas sin regulaciones claras. Sin embargo, la investigación de Press Gazette subraya que el uso indiscriminado de chatbots sin supervisión humana puede comprometer la calidad de la información. La falta de precisión en las respuestas de los chatbots refuerza la necesidad de seguir investigando y mejorando estos modelos antes de confiar plenamente en ellos para la producción de noticias.

Por otro lado, los expertos señalan que la IA generativa todavía tiene dificultades para diferenciar hechos de opiniones lo que genera más problemas a la hora de la verificación de las noticias y amplia el escenario de la desinformación.

A medida que la IA se integra en las redacciones, surgen debates sobre la necesidad de regulaciones y estándares éticos para su uso. A este respecto algunos medios ya han implementado políticas internas como Reuters y El New York Times.

Deborah Turness, directora ejecutiva de noticias de la BBC, ha advertido sobre los peligros potenciales de la distorsión de noticias por parte de la IA y ha instado a las empresas tecnológicas para abordar estas inexactitudes. Turness aboga por una colaboración entre la industria de noticias, las empresas tecnológicas y el gobierno para garantizar la precisión de la información proporcionada por estos sistemas.

Por otro lado, empresas como OpenAI y Google están invirtiendo en mejorar la precisión de sus modelos y desarrollar herramientas que permitan verificar la información antes de publicarla. Sin embargo, el informe de Press Gazette indica que esto es insuficiente.

En conclusión, la inteligencia artificial tiene un gran potencial en el ámbito informativo, pero su uso debe ir acompañado de una verificación rigurosa. Para que la IA sea una aliada del periodismo en lugar de un riesgo para la credibilidad de la información, es imprescindible combinar la tecnología con la responsabilidad y el criterio humano.

 

Share
Published by
Comunicación

Recent Posts

La Comisión Europea marca a Google el camino para cumplir la DMA: abrir sus datos de búsqueda a la competencia

El 16 de abril, la Comisión Europea remitió a Google sus conclusiones preliminares sobre las…

3 días ago

ChatGPT ya tiene gestor de anuncios. Lo que eso significa para los medios que financian con su contenido esas respuestas

OpenAI acaba de lanzar su plataforma publicitaria propia. Los anunciantes ya pueden comprar espacio dentro…

4 días ago

Los bots de IA crecen un 300% en 2025 y el sector editorial es su segundo objetivo global

El último informe de Akamai sobre el sector editorial, confirma que la actividad de bots…

5 días ago

Bruselas pone a ChatGPT en el punto de mira: ¿debe jugar con las mismas reglas que Google?

La Comisión Europea ha abierto una evaluación formal para determinar si el chatbot de OpenAI…

2 semanas ago

RSL Collective quiere que los editores cobren por cada uso que la IA hace de sus contenidos. Y tiene un plan concreto para lograrlo

Una organización sin ánimo de lucro ha diseñado un estándar técnico que permite a cualquier…

2 semanas ago

Estados Unidos impulsa una ley para que las empresas de inteligencia artificial paguen por el contenido que extraen de los medios

El Interactive Advertising Bureau ha presentado ante el Congreso estadounidense un borrador legislativo que obligaría…

2 semanas ago