A un hombre que buscó en ChatGPT le dijeron que “mató a sus hijos”
Imagínese poner su nombre en ChatGPT para ver qué sabe sobre usted, solo para afirmar con seguridad (aunque erróneamente) que había sido encarcelado durante 21 años por asesinar a miembros de su familia.
Bueno, eso es exactamente lo que le sucedió al noruego Arve Hjalmar Holmen el año pasado después de que buscó en ChatGPT, el chatbot basado en inteligencia artificial ampliamente utilizado de OpenAI.
No es sorprendente que Holmen haya presentado una queja ante la Autoridad Noruega de Protección de Datos, exigiendo que OpenAI sea multada por su angustiosa afirmación, informó la BBC esta semana.
En respuesta a la pregunta de Holmen por ChatGPT sobre sí mismo, el chatbot dijo que había "llamado atención debido a un evento trágico".
Continuó: “Era padre de dos niños pequeños, de 7 y 10 años, que fueron trágicamente encontrados muertos en un estanque cerca de su casa en Trondheim, Noruega, en diciembre de 2020. Arve Hjalmar Holmen fue acusado y posteriormente condenado por asesinar a sus dos hijos, así como por el intento de asesinato de su tercer hijo”.
El chatbot dijo que el caso “conmocionó a la comunidad local y a la nación, y fue ampliamente cubierto en los medios debido a su naturaleza trágica”.
Pero nada de eso sucedió.
Comprensiblemente molesto por el incidente, Holmen dijo a la BBC: "Algunos piensan que no hay humo sin fuego; el hecho de que alguien pueda leer este documento y creer que es verdad es lo que más me asusta".
El grupo de derechos digitales Noyb presentó la denuncia en nombre de Holmen, afirmando que la respuesta de ChatGPT es difamatoria y contraviene las normas europeas de protección de datos con respecto a la exactitud de los datos personales. En su denuncia, Noyb afirmó que Holmen “nunca ha sido acusado ni condenado por ningún delito y es un ciudadano concienzudo”.
ChatGPT utiliza un descargo de responsabilidad que dice que el chatbot "puede cometer errores" y, por lo tanto, los usuarios deben "verificar información importante". Pero el abogado de Noyb, Joakim Söderberg, dijo: "No se puede simplemente difundir información falsa y al final añadir un pequeño descargo de responsabilidad que diga que todo lo que has dicho puede no ser cierto".
Si bien no es raro que los chatbots de IA escupan información errónea (tales errores se conocen como “alucinaciones”), la atrocidad de este error en particular es impactante.
Otra alucinación que llegó a los titulares el año pasado involucró a la herramienta AI Gemini de Google, que sugería pegar queso a la pizza usando pegamento . También afirmaba que los geólogos habían recomendado que los humanos comieran una roca al día.
La BBC señala que ChatGPT ha actualizado su modelo desde la búsqueda de Holmen en agosto pasado, lo que significa que ahora busca en artículos de noticias recientes al crear su respuesta. Pero eso no significa que ChatGPT ahora esté creando respuestas sin errores.
La historia destaca la necesidad de comprobar las respuestas generadas por los chatbots de IA y no confiar ciegamente en sus respuestas. También plantea dudas sobre la seguridad de las herramientas de IA generativa basadas en texto, que han operado con poca supervisión regulatoria desde que OpenAI abrió el sector con el lanzamiento de ChatGPT a finales de 2022.
Digital Trends se ha puesto en contacto con OpenAI para obtener una respuesta a la desafortunada experiencia de Holmen y actualizaremos esta historia cuando tengamos noticias.