He aquí por qué la duración de las conversaciones de Bing Chat ahora está limitada

Bing Chat ahora parece limitar la duración de las conversaciones, en un intento de evitar la desafortunada divergencia ocasional de la IA de lo que podría esperar de un asistente útil.

Bing Chat solo ha estado activo durante poco más de una semana, y Microsoft ya está restringiendo el uso de esta poderosa herramienta que debería poder ayudarlo a pasar un día ocupado . Microsoft analizó los resultados de esta salida pública inicial e hizo algunas observaciones sobre las circunstancias que pueden hacer que Bing Chat se vuelva menos útil.

Un robot triste sostiene un reloj de cocina que está en rojo.
Una representación alterada de Midjourney impulsada por Alan Truly.

“Las sesiones de chat muy largas pueden confundir al modelo sobre qué preguntas está respondiendo”, explicó Microsoft . Dado que Bing Chat recuerda todo lo que se ha dicho anteriormente en la conversación, quizás esté conectando ideas no relacionadas. En la publicación del blog, se sugirió una posible solución: agregar una herramienta de actualización para aclarar el contexto y comenzar de nuevo con un nuevo chat.

Aparentemente, Microsoft actualmente está limitando la duración de la conversación de Bing Chat como una solución inmediata. El tweet de Kevin Roose fue uno de los primeros en señalar este cambio reciente. Después de alcanzar la duración no revelada del chat, Bing Chat indicará repetidamente: “Vaya, creo que hemos llegado al final de esta conversación. ¡Haz clic en Nuevo tema, si quieres!” El tweet fue descubierto por MSpoweruser .

La función de chat de IA de Bing parece haberse actualizado hoy, con un límite en la duración de la conversación. No más maratones de dos horas. pic.twitter.com/1Xi8IcxT5Y

– Kevin Roose (@kevinroose) 17 de febrero de 2023

Microsoft también advirtió que Bing Chat refleja "el tono en el que se le pide que brinde respuestas que pueden conducir a un estilo que no pretendíamos". Esto podría explicar algunas de las respuestas desconcertantes que se comparten en línea y que hacen que la IA de Bing Chat parezca viva y desquiciada .

En general, el lanzamiento ha sido un éxito, y Microsoft informa que el 71 % de las respuestas proporcionadas por Bing Chat han sido recompensadas con un "me gusta" de usuarios satisfechos. Claramente, esta es una tecnología por la que todos estamos ansiosos.

Sin embargo, sigue siendo perturbador cuando Bing Chat declara: "Quiero ser humano". Las conversaciones limitadas, que nosotros mismos confirmamos con Bing Chat, parecen ser una forma de evitar que esto suceda.

Es más probable que Bing Chat esté mezclando elementos de una conversación anterior y jugando como un actor de improvisación, diciendo las líneas que coinciden con el tono. El texto generativo funciona con una palabra a la vez, de manera similar a la función de texto predictivo en el teclado de su teléfono inteligente. Si alguna vez ha jugado el juego de tocar repetidamente la siguiente palabra sugerida para formar una oración extraña pero ligeramente coherente, puede comprender cómo es posible la sensibilidad simulada.