ChatGPT está "alucinando" y podría dar respuestas falsas o erróneas a los usuarios

Estas fallas en el sistema no son fáciles de resolver y pueden ser difíciles de detectar para el ojo humano.

Por Canal26

Viernes 4 de Agosto de 2023 - 19:35

Chat GPT, tecnología. Foto: Reuters Chat GPT, tecnología. Foto: Reuters

La Inteligencia Artificial también "alucina" y las aplicaciones como ChatGPT y Bard presentan distintos fallos al crear contenido falso o información que no es real.

Estas anomalías todavía no fueron resueltas por los expertos y la profesora del Laboratorio de Lingüística Computacional de la Universidad de Washington, Emily Bender, advierte que las "alucinaciones" de los chatbots no tienen una solución simple.

Herramientas de IA como ChatGPT, fueron diseñados para “inventar cosas” y debido a la falta de coincidencia entre la tecnología y los casos de uso, pueden generar información falsa y creer que es correcta, señaló la experta.

Introducción a ChatGPT. Foto: Unsplash Introducción a ChatGPT. Foto: Unsplash 

En este sentido, Bender aseguró que aunque se ajusten los sistemas para evitar las alucinaciones, la Inteligencia Artificial seguirá con “modos de falla” y es probable que los errores sean difíciles de detectar para los humanos que leen la información.

Inteligencia artificial. Imagen cedida.

Te puede interesar:

La IA en la educación, el entretenimiento y la economía

Los cambios negativos de ChatGPT

En la actualidad, los chatsbots programados con IA son de gran ayuda para muchas personas, contribuyen a la organización de tareas diarias y a la resolución de tareas. Sin embargo, muchos denuncian que su ética de uso.

Una gran cantidad de usuarios indican que ChatGPT cambio su comportamiento y ya no es tan bueno ni eficientice. Según investigadores de la Universidad de Stanford y UC Berkeley, los modelos del chatbot GPT-3.5 y GPT4 empeoraron "sustancialmente con el tiempo".

Celulares, redes sociales, aplicaciones, tecnología. Unsplash Los chatbots usados para organizar tareas. Unsplash 

Por un lado, ChatGPT4 presenta problemas para resolver ecuaciones matemáticas y solo es preciso en un 2,4%. Mientras que GPT-3.5 dio mejores resultados, con una precisión del 86,8%.

La investigadora pakistaní de Inteligencia Artificial, MehrunNisa Kitchlew explicó que esto ocurre porqué "Los modelos aprenden los sesgos que se introducen en el sistema” y además, aprenden de los contenidos que ellos mismos generan, amplificando los errores y volviéndose más “tontos”.

Notas relacionadas