El creador de ChatGPT busca eliminar las “alucinaciones” de los chatbots
A pesar de todo el entusiasmo en torno a ChatGPT y chatbots similares impulsados por IA , las herramientas basadas en texto todavía tienen algunos problemas graves que deben resolverse.
Entre ellos está su tendencia a inventar cosas y presentarlas como un hecho cuando no sabe la respuesta a una pregunta, un fenómeno que se conoce como "alucinación". Como puedes imaginar, presentar falsedades como un hecho a alguien que usa uno de los poderosos chatbots de la nueva ola podría tener graves consecuencias.
Tal problema se destacó en un incidente reciente en el que un abogado experimentado de la ciudad de Nueva York citó casos, sugeridos por ChatGPT , que resultaron nunca haber ocurrido. El abogado puede enfrentarse a sanciones como consecuencia de su actuación.
Otro incidente recibió mucha atención en abril cuando ChatGPT aparentemente reescribió la historia al decir que un alcalde australiano había sido encarcelado por soborno mientras trabajaba para un banco cuando en realidad había sido un denunciante en el caso.
Para hacer que su tecnología de chatbot sea más confiable, los ingenieros de OpenAI han revelado que actualmente se están enfocando en mejorar su software para reducir y, con suerte, eliminar estas ocurrencias problemáticas.
En un artículo de investigación publicado el miércoles y recogido por CNBC , OpenAI dijo que los chatbots "muestran una tendencia a inventar hechos en momentos de incertidumbre", y agregó: "Estas alucinaciones son particularmente problemáticas en dominios que requieren un razonamiento de varios pasos, ya que un solo lógico el error es suficiente para descarrilar una solución mucho más grande”.
Para abordar los pasos en falso del chatbot, los ingenieros de OpenAI están trabajando en formas para que sus modelos de IA se recompensen por generar datos correctos al avanzar hacia una respuesta, en lugar de recompensarse solo en el punto de conclusión. El sistema podría conducir a mejores resultados, ya que incorpora un procedimiento de cadena de pensamiento más similar al humano, según los ingenieros.
Pero algunos expertos expresaron dudas sobre el trabajo y le dijeron a CNBC que es de poca utilidad hasta que se incorpore a ChatGPT, que mientras tanto seguirá alucinando. OpenAI no ha dicho si podría incorporar su trabajo en sus herramientas de IA generativa y cuándo.
Si bien es bueno saber que OpenAI está trabajando para resolver el problema, podría pasar un tiempo antes de que veamos alguna mejora. Mientras tanto, como dice el propio OpenAI, ChatGPT puede generar ocasionalmente información incorrecta, así que asegúrese de confirmar sus respuestas si son parte de alguna tarea importante.