La Inteligencia Artificial distorsiona las noticias, según  estudio europeo.

Una investigación internacional encabezada por la Unión Europea de Radiodifusión (UER) y la BBC, con la colaboración del medio público canadiense CBC/Radio-Canada, advierte que los principales asistentes de inteligencia artificial (IA) distorsionan la información de las noticias en casi una de cada dos respuestas. El estudio fue publicado el 22 de octubre de 2025 y expone las limitaciones de estas herramientas en la entrega de información fiable.

El análisis examinó 3.000 respuestas generadas por diferentes asistentes virtuales, entre ellos ChatGPT (OpenAI), Copilot (Microsoft), Gemini (Google) y Perplexity, evaluando su precisión, atribución de fuentes y su capacidad para distinguir hechos de opiniones. La investigación se realizó en 14 idiomas y reunió a 22 medios públicos de 18 países, incluidos Francia, Alemania, España, Reino Unido, Ucrania, Estados Unidos y Canadá.

Los resultados son contundentes: el 45 % de las respuestas de IA contenían errores graves, mientras que el 81 % mostraban algún tipo de imprecisión. Además, el 33 % de las respuestas presentaban problemas relacionados con la fuente de la información, como ausencia de atribución o citaciones erróneas.

El informe también destaca que Gemini fue el asistente con más inconsistencias en este aspecto: en el 72 % de los casos, su información carecía de claridad sobre el origen de los datos, una cifra muy superior al promedio del resto de sistemas, que se mantuvo por debajo del 25 %. En cuanto a la precisión factual, se detectaron errores en un 20 % de las respuestas. Algunos ejemplos mencionados incluyen afirmaciones incorrectas sobre leyes relacionadas con los vapeadores y errores en la identificación de figuras públicas —como atribuir todavía el papado a Francisco meses después de su fallecimiento—.

El estudio advierte sobre los riesgos democráticos y de confianza pública asociados al uso de estas herramientas para consumir noticias. Según el Informe de Noticias Digitales 2025 del Instituto Reuters, aproximadamente el 7 % de los usuarios de noticias en línea y el 15 % de los menores de 25 años ya recurren a asistentes de IA para informarse, en lugar de acudir a medios tradicionales o motores de búsqueda.

“Cuando las personas dejan de saber en qué fuentes pueden confiar, terminan sin confiar en ninguna”, señaló Jean Philip De Tender, director de medios de la UER, quien alertó que esta tendencia podría debilitar la participación democrática y la credibilidad de la información pública. Las compañías responsables de los asistentes mencionados respondieron que están trabajando para reducir los errores conocidos como “alucinaciones”, es decir, cuando los modelos de IA inventan o distorsionan información.

OpenAI y Microsoft reconocieron que estas imprecisiones suelen deberse a limitaciones en los datos o en el contexto disponible, y aseguraron que están desarrollando mecanismos de verificación más sólidos. Por su parte, Google afirmó a través de su asistente Gemini que valora los comentarios de los usuarios y busca mejorar la calidad y utilidad de sus respuestas. Perplexity, en tanto, indicó en su web que uno de sus modos de investigación alcanza una precisión factual del 93,9 %.

El informe concluye que las empresas de inteligencia artificial deben aplicar estándares de transparencia y verificación similares a los de los medios periodísticos, que cuentan con protocolos para identificar, corregir y reconocer errores. “Es fundamental garantizar el mismo nivel de responsabilidad en los asistentes de IA que en las organizaciones de noticias”, subraya la UER, advirtiendo que la expansión de estas herramientas puede redefinir la relación entre tecnología, información y confianza ciudadana.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *