Microsoft puede haber ignorado las advertencias sobre las respuestas desquiciadas de Bing Chat
Bing Chat de Microsoft está en un lugar mucho mejor que cuando se lanzó en febrero, pero es difícil pasar por alto los problemas que tuvo el chatbot con tecnología GPT-4 cuando se lanzó. Después de todo, nos dijo que quería ser humano y, a menudo, se desmoronaba en respuestas desquiciadas. Y según un nuevo informe, Microsoft fue advertido sobre este tipo de respuestas y decidió lanzar Bing Chat de todos modos.
Según el Wall Street Journal , OpenAI, la compañía detrás de ChatGPT y el modelo GPT-4 que impulsa Bing Chat, advirtió a Microsoft sobre la integración de su primer modelo de IA en Bing Chat. Específicamente, OpenAI marcó respuestas "inexactas o extrañas", que Microsoft parece haber ignorado.
El informe describe una tensión única entre OpenAI y Microsoft, que han entrado en una especie de asociación abierta en los últimos años. Los modelos de OpenAI se basan en hardware de Microsoft (incluidas miles de GPU Nvidia ), y Microsoft aprovecha la tecnología de la empresa en Bing, Microsoft Office y el mismo Windows. A principios de 2023, Microsoft incluso invirtió 10.000 millones de dólares en OpenAI, y estuvo a punto de comprar la empresa por completo.
A pesar de esto, el informe alega que los empleados de Microsoft tienen problemas con el acceso restringido a los modelos de OpenAI, y que les preocupaba que ChatGPT eclipsara al Bing Chat inundado por IA. Para empeorar las cosas, el Wall Street Journal informa que tanto OpenAI como Microsoft venden la tecnología de OpenAI, lo que lleva a situaciones en las que los proveedores tratan con contactos en ambas empresas.
El mayor problema, según el informe, es que Microsoft y OpenAI están tratando de ganar dinero con un producto similar. Con el respaldo de Microsoft, pero sin controlar OpenAI, el desarrollador de ChatGPT es libre de asociarse con otras empresas, algunas de las cuales pueden competir directamente con los productos de Microsoft.
Según lo que hemos visto, las advertencias informadas de OpenAI se mantuvieron firmes. Poco después de lanzar Bing Chat, Microsoft limitó la cantidad de respuestas que los usuarios podían recibir en una sola sesión. Y desde entonces, Microsoft ha levantado lentamente la restricción a medida que se refina el modelo GPT-4 en Bing Chat. Los informes sugieren que algunos empleados de Microsoft a menudo hacen referencia a "Sydney", burlándose de los primeros días de Bing Chat (cuyo nombre en clave es Sydney) y sus respuestas.