La demanda contra ChatGPT alega que la empresa asesoró a un tirador sobre cómo y dónde atacar.

El fiscal general de Florida ha iniciado una investigación penal contra OpenAI, alegando que ChatGPT ayudó a planificar el tiroteo masivo en la Universidad Estatal de Florida que dejó dos muertos el año pasado.

Según The Washington Post , el fiscal general James Uthmeier hizo el anuncio en una conferencia de prensa el martes, afirmando que el chatbot brindó asesoramiento táctico al presunto tirador. "El chatbot le aconsejó al tirador sobre qué tipo de arma usar, qué munición correspondía a cada arma y si un arma sería útil o no a corta distancia", dijo Uthmeier.

Tampoco se anduvo con rodeos respecto a las implicaciones: "Si hubiera una persona al otro lado de la pantalla, la estaríamos acusando de asesinato". Su oficina también ha enviado citaciones a OpenAI, solicitando a la empresa que explique sus políticas sobre cómo maneja las conversaciones de los usuarios que implican amenazas de violencia.

¿Es OpenAI responsable de lo que los usuarios hagan con ella?

OpenAI ha respondido con firmeza. La portavoz Kate Waters declaró: «El tiroteo masivo del año pasado en la Universidad Estatal de Florida fue una tragedia, pero ChatGPT no es responsable de este terrible crimen».

La empresa afirma que ChatGPT proporcionaba respuestas veraces a preguntas que se podían encontrar en cualquier lugar de Internet y que no fomentaba ni promovía actividades ilegales.

¿Esto es solo el principio?

Esta investigación forma parte de la creciente preocupación en torno a los chatbots de IA . OpenAI ya está bajo escrutinio tras un tiroteo masivo en Canadá y varias demandas de familias que afirman que ChatGPT contribuyó al suicidio de sus seres queridos.

Los expertos en IA señalan que las medidas de seguridad de los chatbots son imperfectas. Como afirmó Ramayya Krishnan, profesor de Carnegie Mellon: «Estas medidas no son 100% efectivas».

La cuestión de si OpenAI puede ser considerada penalmente responsable es algo que deben responder los tribunales, pero nadie puede negar que estos chatbots de IA pueden tener graves consecuencias para la salud mental de una persona y que solo deben utilizarse con mucha precaución.