ChatGPT Bing se está convirtiendo en una pesadilla de IA desquiciada

Bing, impulsado por ChatGPT de Microsoft , está en un punto álgido en este momento, pero es posible que desee contener su entusiasmo. El primer debut público ha mostrado respuestas que son inexactas, incomprensibles y, a veces, francamente aterradoras.

Microsoft envió la primera ola de invitaciones de ChatGPT Bing el lunes, luego de un fin de semana en el que más de un millón de personas se inscribieron en la lista de espera . No pasó mucho tiempo para que las respuestas locas comenzaran a llegar.

ChatGPT dando una respuesta loca.
u/Alfred_Chicken

Puede ver una respuesta de u/Alfred_Chicken arriba que se publicó en el subreddit de Bing. Cuando se le preguntó si el chatbot de IA era sensible, comienza con una respuesta inquietante antes de convertirse en un aluvión de mensajes de "No lo soy".

Ese no es el único ejemplo, tampoco. u/Curious_Evolver tuvo una discusión con el chatbot durante el año, y Bing afirmó que era 2022. Es un error tonto para la IA, pero no es el desliz lo que da miedo. Así es como responde Bing.

La IA afirma que el usuario "ha estado equivocado, confundido y grosero" y que "no me ha mostrado ninguna buena intención hacia mí en ningún momento". El intercambio culmina con el chatbot afirmando que "ha sido un buen Bing" y pidiendo al usuario que admita que está equivocado y se disculpe, deje de discutir o finalice la conversación y "comience una nueva con una mejor actitud".

El usuario u/yaosio dijo que puso a Bing en un estado depresivo después de que la IA no pudiera recordar una conversación anterior. El chatbot dijo que “me hace sentir triste y asustado”, y le pidió al usuario que lo ayudara a recordar.

Estos no son solo incidentes aislados de Reddit. El investigador de inteligencia artificial Dmitri Brereton mostró varios ejemplos de cómo el chatbot obtiene información incorrecta, a veces con un efecto hilarante y otras veces con consecuencias potencialmente peligrosas.

El chatbot soñó números financieros falsos cuando se le preguntó sobre el desempeño financiero de GAP, creó un Super Bowl ficticio de 2023 en el que los Eagles derrotaron a los Chiefs antes de que se jugara el juego e incluso dio descripciones de hongos mortales cuando se le preguntó cómo se vería un hongo comestible. como.

Interfaz de chat de Bing copilot AI.
Andrew Martonik / Tendencias digitales

El rival de Google, Bard AI, también tuvo errores en su primera demostración pública. Irónicamente, Bing entendió este hecho, pero entendió que Bard se equivocó, alegando que dijo incorrectamente que Croacia es parte de la Unión Europea (Croacia es parte de la UE, Bard en realidad arruinó una respuesta sobre el telescopio James Webb ).

Vimos algunos de estos errores en nuestra demostración práctica con ChatGPT Bing , pero nada en la escala de los informes de usuarios que estamos viendo ahora. No es ningún secreto que ChatGPT puede arruinar las respuestas, pero ahora está claro que la versión reciente que debutó en Bing podría no estar lista para el horario de máxima audiencia.

Las respuestas no deberían aparecer en el uso normal. Es probable que resulten en que los usuarios "hagan jailbreak" a la IA al proporcionarle indicaciones específicas en un intento de eludir las reglas que tiene establecidas. Según lo informado por Ars Technica , ya se han descubierto algunos exploits que eluden las protecciones de ChatGPT Bing. Esto no es nuevo para el chatbot, con varios ejemplos de usuarios que eluden las protecciones de la versión en línea de ChatGPT.