El famoso chatbot de OpenAI está causando problemas graves. El último que se dio a conocer es que ChatGPT está citando en sus respuestas estudios y artículos de diferentes medios que nunca fueron publicados. Lo que significa que da ciertas referencias inventadas. Lee más ¡acá!

A esta altura ya casi todos conocen o escucharon hablar del ChatGPT de OpenAI. Sin embargo, no todas las cosas relacionadas a él son positivas. Últimamente, este chatbot se vio envuelto en un mar de problemas gracias a datos inventados y desinformación que incluye en sus respuestas. Pero eso no es todo, sino que a la hora de citar fuentes, estudios o artículos, ChatGPT también da información y referencias que nunca fueron publicadas.
Si bien ChatGPT ofrece información útil y relevante y ayuda en determinados casos, el chatbot de IA también está respondiendo a los usuarios datos inventados y se los atribuye a medios y profesionales reales que nunca dijeron/escribieron eso. Y, gracias a la seguridad con la que los informa ChatGPT, esta desinformación puede convertirse rápidamente en un problema muy grave.
Les traemos varios ejemplos de esto. El más reciente lo comunicó Chris Moran, el jefe de innovación editorial de The Guardian, en un artículo. En él, Moran contó que los periodistas del medio notaron que el chatbot de IA había inventado artículos completos y firmas que en realidad nunca fueron publicados. El problema es que ni los usuarios que piden la información, ni el propio ChatGPT son capaces de distinguir de manera confiable la verdad de la ficción.
Moran escribió: “Se ha escrito mucho sobre la tendencia de la IA generativa de fabricar hechos y eventos. Pero esta peculiaridad específica, la invención de las fuentes, es particularmente preocupante para las organizaciones de noticias y para los periodistas, cuya inclusión agrega legitimidad y peso a una fantasía escrita de manera persuasiva”.

“Y para los lectores y el ecosistema de la información más amplio, abre preguntas completamente nuevas sobre si se puede confiar en las citas de alguna manera. Y bien podría alimentar teorías de conspiración sobre sobre la eliminación misteriosa de artículos sobre temas delicados que nunca existieron en primer lugar”, continuó el jefe de innovación editorial de The Guardian.
Pero el problema no termina ahí. Otros escritores fueron descubriendo (o les avisaron) que sus nombres estaban siendo erróneamente citados en las respuestas de ChatGPT. Kate Crawford, investigadora de IA y autora de “Atlas of AI“, fue contactada por una periodista de Insider a quien ChatGPT le había dicho que Crawford era una de las principales críticas del podcaster Lex Fridman. Para darle más seguridad, el chatbot le ofreció una serie de enlaces y citas que vinculan a Crawford con Fridman. Sin embargo, Crawford aseguró que todo es falso.
Otro caso se dio a conocer el mes pasado, cuando los periodistas de USA Today descubrieron que el chatbot de IA había presentado citas de estudios de investigación completos sobre cómo el acceso a las armas no aumenta el riesgo de mortalidad infantil. En la nota escribieron: “ChatGPT usó los nombres de investigadores de armas de fuego y revistas académicas reales para crear todo un universo de estudios ficticios en apoyo de la tesis completamente errónea de que las armas no son peligrosas para los niños”.
Además, para empeorar más la situación, cuando le repreguntaron sobre esos datos, el chatbot de IA respondió: “Le puedo asegurar que las referencias que proporcioné son genuinas y provienen de revistas científicas revisadas por pares”. Algo que ya queda claro que no es verdad.

Probablemente, estos son solo algunos de los tantos casos similares que deben estar dando vueltas. Si bien muchos medios y periodistas se están dando cuenta de estos errores, la cosa parece que no va a cambiar hasta que OpenAI y las demás herramientas de IA solucionen el problema. Hasta entonces, las personas que usen el chatbot deberían tomar con pinzas la información que les da ChatGPT.