ChatGPT mentiroso: está citando estudios y artículos que no existen y que nunca fueron publicados

El famoso chatbot de OpenAI está causando problemas graves. El último que se dio a conocer es que ChatGPT está citando en sus respuestas estudios y artículos de diferentes medios que nunca fueron publicados. Lo que significa que da ciertas referencias inventadas. Lee más ¡acá!

A esta altura ya casi todos conocen o escucharon hablar del ChatGPT de OpenAI. Sin embargo, no todas las cosas relacionadas a él son positivas. Últimamente, este chatbot se vio envuelto en un mar de problemas gracias a datos inventados y desinformación que incluye en sus respuestas. Pero eso no es todo, sino que a la hora de citar fuentes, estudios o artículos, ChatGPT también da información y referencias que nunca fueron publicadas.

Si bien ChatGPT ofrece información útil y relevante y ayuda en determinados casos, el chatbot de IA también está respondiendo a los usuarios datos inventados y se los atribuye a medios y profesionales reales que nunca dijeron/escribieron eso. Y, gracias a la seguridad con la que los informa ChatGPT, esta desinformación puede convertirse rápidamente en un problema muy grave.

Les traemos varios ejemplos de esto. El más reciente lo comunicó Chris Moran, el jefe de innovación editorial de The Guardian, en un artículo. En él, Moran contó que los periodistas del medio notaron que el chatbot de IA había inventado artículos completos y firmas que en realidad nunca fueron publicados. El problema es que ni los usuarios que piden la información, ni el propio ChatGPT son capaces de distinguir de manera confiable la verdad de la ficción.

Moran escribió: “Se ha escrito mucho sobre la tendencia de la IA generativa de fabricar hechos y eventos. Pero esta peculiaridad específica, la invención de las fuentes, es particularmente preocupante para las organizaciones de noticias y para los periodistas, cuya inclusión agrega legitimidad y peso a una fantasía escrita de manera persuasiva”.

Y para los lectores y el ecosistema de la información más amplio, abre preguntas completamente nuevas sobre si se puede confiar en las citas de alguna manera. Y bien podría alimentar teorías de conspiración sobre sobre la eliminación misteriosa de artículos sobre temas delicados que nunca existieron en primer lugar”, continuó el jefe de innovación editorial de The Guardian.

Pero el problema no termina ahí. Otros escritores fueron descubriendo (o les avisaron) que sus nombres estaban siendo erróneamente citados en las respuestas de ChatGPT. Kate Crawford, investigadora de IA y autora de “Atlas of AI“, fue contactada por una periodista de Insider a quien ChatGPT le había dicho que Crawford era una de las principales críticas del podcaster Lex Fridman. Para darle más seguridad, el chatbot le ofreció una serie de enlaces y citas que vinculan a Crawford con Fridman. Sin embargo, Crawford aseguró que todo es falso.

Otro caso se dio a conocer el mes pasado, cuando los periodistas de USA Today descubrieron que el chatbot de IA había presentado citas de estudios de investigación completos sobre cómo el acceso a las armas no aumenta el riesgo de mortalidad infantil. En la nota escribieron: “ChatGPT usó los nombres de investigadores de armas de fuego y revistas académicas reales para crear todo un universo de estudios ficticios en apoyo de la tesis completamente errónea de que las armas no son peligrosas para los niños”.

Además, para empeorar más la situación, cuando le repreguntaron sobre esos datos, el chatbot de IA respondió: “Le puedo asegurar que las referencias que proporcioné son genuinas y provienen de revistas científicas revisadas por pares”. Algo que ya queda claro que no es verdad.

Probablemente, estos son solo algunos de los tantos casos similares que deben estar dando vueltas. Si bien muchos medios y periodistas se están dando cuenta de estos errores, la cosa parece que no va a cambiar hasta que OpenAI y las demás herramientas de IA solucionen el problema. Hasta entonces, las personas que usen el chatbot deberían tomar con pinzas la información que les da ChatGPT.

Posteos relacionados

Renaper niega el hackeo a la base de datos del organismo o una nueva filtración de información

Adobe Express incorporó el generador de IA Firefly a su aplicación para celulares y ya se puede usar en Android y iPhone

Golden Axe de Sega tendrá una serie animada y será una comedia

3 comentarios

Elon Musk estaría trabajando en TruthGPT, una “IA que busca la máxima verdad y trata de comprender la naturaleza del universo” – Flipr 19 abril, 2023 - 11:01
[…] casualidad que Elon Musk esté trabajando en una IA que busque la “máxima verdad” justo cuando ChatGPT está en medio de una polémica por mentir e inventar estudios. Según comentó el magnate en la entrevista, TruthGPT sería como una corrección de rumbo para […]
Unrecord: ¿Qué se sabe sobre este shooter hiperrealista que captó la atención de las redes sociales? - Cultura Geek 21 abril, 2023 - 12:59
[…] no para de sorprendernos día a día. Algunos ejemplos de esto pueden ser las innovaciones con ChatGPT, que demuestra la evolución de las Inteligencias Artificiales en el último tiempo y, desde el […]
ChatGPT prohibido momentáneamente en Italia y ¿próximamente en otros países de Europa? – Flipr 22 abril, 2023 - 17:01
[…] vez ChatGPT en el ojo de la tormenta. Recientemente les contamos que este chatbot de OpenAI está citando estudios y artículos que nunca fueron publicados, es decir inventando información. Pero ese no es su único problema. A fines de marzo, Italia […]
Add Comment