AI chat bot, Programmer using generative artificial intelligence for software development inside office. Virtual chatBot technology trend
Un reciente informe de Press Gazette ha revelado que el 50% de las respuestas generadas por los chatbots de inteligencia artificial (IA) en el ámbito de las noticias presentan “problemas significativos”.
El estudio evaluó cientos de respuestas proporcionadas por estos chatbots en temas de actualidad, política, economía y ciencia. Los resultados muestran que alrededor del 20% de las respuestas contienen información incorrecta o engañosa, y el 30 % omitía detalles clave que podían llevar a interpretaciones erróneas. Solo la mitad podían considerarse adecuados.
La investigación, que analizó herramientas como ChatGPT, Google Gemini, Microsoft Copilot y Perplexity, entro otros, indica que muchas de sus respuestas contienen errores de contexto, interpretaciones incorrectas o incluso información falsa. Entre los principales fallos detectados se encuentran la distorsión de los hechos, la falta de fuentes verificables y la introducción de sesgos en los contenidos. Esto supone un riesgo para la calidad de la información en una era donde la inmediatez y la automatización están cada vez más presentes en el periodismo. Los autores del estudio destacan que, aunque la IA puede ser una herramienta útil para agilizar la producción de contenidos, no puede sustituir el criterio y la labor de los periodistas. La supervisión humana sigue siendo fundamental para garantizar que las noticias sean veraces y éticas. Sin este control, la proliferación de información errónea podría socavar la confianza en los medios y contribuir a la desinformación.
Uno de los problemas más recurrentes identificados en el informe es la falta de transparencia en las fuentes de información utilizadas por los chatbots. A diferencia del periodismo tradicional, donde los datos pueden ser rastreados hasta su origen, los modelos de IA no siempre especifican de dónde provienen sus afirmaciones. Además, en algunos casos, los chatbots generaban respuestas con un tono de seguridad excesivo, lo que aumentaba el riesgo de que los usuarios los den por válidos.
Los autores del estudio destacan que, aunque la IA puede ser una herramienta útil para agilizar la producción de contenidos y asistir en tareas periodísticas, no puede sustituir la labor de los periodistas humanos sin socavar la confianza en los medios de comunicación y contribuir a la desinformación en un entorno volátil.
Además, el informe plantea dudas sobre el futuro de la IA en el periodismo. Mientras algunas empresas han comenzado a incorporar estos modelos en sus redacciones para generar borradores y automatizar ciertos procesos, otras alertan de los riesgos de depender en exceso de estos sistemas sin regulaciones claras. Sin embargo, la investigación de Press Gazette subraya que el uso indiscriminado de chatbots sin supervisión humana puede comprometer la calidad de la información. La falta de precisión en las respuestas de los chatbots refuerza la necesidad de seguir investigando y mejorando estos modelos antes de confiar plenamente en ellos para la producción de noticias.
Por otro lado, los expertos señalan que la IA generativa todavía tiene dificultades para diferenciar hechos de opiniones lo que genera más problemas a la hora de la verificación de las noticias y amplia el escenario de la desinformación.
A medida que la IA se integra en las redacciones, surgen debates sobre la necesidad de regulaciones y estándares éticos para su uso. A este respecto algunos medios ya han implementado políticas internas como Reuters y El New York Times.
Deborah Turness, directora ejecutiva de noticias de la BBC, ha advertido sobre los peligros potenciales de la distorsión de noticias por parte de la IA y ha instado a las empresas tecnológicas para abordar estas inexactitudes. Turness aboga por una colaboración entre la industria de noticias, las empresas tecnológicas y el gobierno para garantizar la precisión de la información proporcionada por estos sistemas.
Por otro lado, empresas como OpenAI y Google están invirtiendo en mejorar la precisión de sus modelos y desarrollar herramientas que permitan verificar la información antes de publicarla. Sin embargo, el informe de Press Gazette indica que esto es insuficiente.
En conclusión, la inteligencia artificial tiene un gran potencial en el ámbito informativo, pero su uso debe ir acompañado de una verificación rigurosa. Para que la IA sea una aliada del periodismo en lugar de un riesgo para la credibilidad de la información, es imprescindible combinar la tecnología con la responsabilidad y el criterio humano.
La Eurocámara aprobó una moción que insta a la Comisión Europea a adoptar una serie…
A lo largo de dos décadas, El Economista se ha consolidado como uno de los…
El aumento del acoso digital y las amenazas con componente de género sigue marcando el…
Meta ha alcanzado un acuerdo con News Corp para utilizar contenidos de sus medios en…
Más de 1.000 directivos de medios de todo el mundo se reunirán en Marsella del…
Un estudio revela que las respuestas generadas con IA ya aparecen en casi el 30%…