El rival ChatGPT de Google es un desastre ético, dicen los propios trabajadores de Google
Google lanzó Bard , su rival ChatGPT, a pesar de las preocupaciones internas de que era un "mentiroso patológico" y producía resultados "vergonzosos", afirma un nuevo informe. Los trabajadores dicen que estas preocupaciones aparentemente fueron ignoradas en un intento frenético de ponerse al día con ChatGPT y evitar la amenaza que podría representar para el negocio de búsqueda de Google .
Las revelaciones provienen de un informe de Bloomberg que profundizó en Google Bard y los problemas planteados por los empleados que trabajaron en el proyecto. Es un relato revelador de las formas en que el chatbot aparentemente se ha descarrilado y las dudas que estos incidentes han generado entre los trabajadores preocupados.
Por ejemplo, Bloomberg cita a un empleado anónimo que le pidió a Bard instrucciones sobre cómo aterrizar un avión y luego se horrorizó al ver que la descripción de Bard provocaría un accidente. Otro trabajador dijo que los consejos de buceo de Bard "probablemente resultarían en lesiones graves o la muerte".
Aparentemente, estos problemas se plantearon poco antes del lanzamiento de Bard; sin embargo, Google siguió adelante con la fecha de lanzamiento, tal era su deseo de seguir el ritmo del camino abierto por ChatGPT . Pero lo ha hecho sin tener en cuenta sus propios compromisos éticos, lo que ha resultado no solo en consejos peligrosos, sino también en la posible difusión de información errónea.
Corriendo hacia adelante para lanzar
En 2021, Google se comprometió a duplicar su equipo de empleados que estudian las consecuencias éticas de la inteligencia artificial (IA) e invertir más en determinar los daños potenciales. Sin embargo, ese equipo ahora está "desempoderado y desmoralizado", afirma el informe de Bloomberg. Peor aún, se les ha dicho a los miembros del equipo que "no se interpongan en el camino ni intenten eliminar ninguna de las herramientas generativas de IA en desarrollo", lo que pone en tela de juicio el compromiso de Google con la ética de la IA.
Eso se vio en acción justo antes del lanzamiento de Bard. En febrero, un trabajador de Google envió un mensaje a un grupo interno para decir: "Bard es peor que inútil: por favor, no lo lancen", y muchos otros empleados se mostraron de acuerdo. El mes siguiente, Jen Gennai, líder de gobierno de IA de Google, anuló una evaluación de riesgo que decía que Bard podría causar daño y no estaba listo para su lanzamiento, y siguió adelante con el primer lanzamiento público del chatbot.
El informe de Bloomberg pinta una imagen de una empresa que desconfía de las preocupaciones éticas que siente que podrían interponerse en el camino de la rentabilidad de sus propios productos. Por ejemplo, un trabajador pidió trabajar en la equidad en el aprendizaje automático, pero se lo desanimó repetidamente, hasta el punto de que afectó su evaluación del desempeño. Los gerentes se quejaron de que las preocupaciones éticas estaban obstruyendo su “trabajo real”, afirmó el empleado.
Es una postura preocupante, especialmente porque ya hemos visto muchos ejemplos de mala conducta de los chatbots de IA que han producido información ofensiva, engañosa o completamente falsa. Si el informe de Bloomberg tiene razón sobre el enfoque aparentemente hostil de Google a las preocupaciones éticas, esto podría ser solo el comienzo cuando se trata de problemas causados por la IA.