Abogado pide disculpas por citaciones judiciales falsas creadas por ChatGPT

Se ha hablado mucho en los últimos meses acerca de cómo la nueva ola de chatbots impulsados ​​por IA, ChatGPT entre ellos , podría revolucionar numerosas industrias, incluida la profesión legal.

Sin embargo, a juzgar por lo que sucedió recientemente en un caso en la ciudad de Nueva York, parece que podría pasar un tiempo antes de que los abogados altamente capacitados sean dejados de lado por la tecnología.

El extraño episodio comenzó cuando Roberto Mata demandó a una aerolínea colombiana luego de afirmar que sufrió una lesión en un vuelo a la ciudad de Nueva York.

La aerolínea, Avianca, le pidió al juez que desestimara el caso, por lo que el equipo legal de Mata preparó un escrito citando media docena de casos similares que habían ocurrido en un esfuerzo por persuadir al juez para que permitiera que el caso de su cliente siguiera adelante, informó el New York Times .

El problema fue que los abogados de la aerolínea y el juez no pudieron encontrar ninguna prueba de los casos mencionados en el escrito. ¿Por qué? Porque ChatGPT los había inventado todos.

El creador del informe, Steven A. Schwartz, un abogado con mucha experiencia en la firma Levidow, Levidow & Oberman, admitió en una declaración jurada que había usado el célebre chatbot ChatGPT de OpenAI para buscar casos similares, pero dijo que había "revelado en sí misma como poco confiable.”

Schwartz le dijo al juez que no había usado ChatGPT antes y "por lo tanto, no estaba al tanto de la posibilidad de que su contenido pudiera ser falso".

Al crear el informe, Schwartz incluso le pidió a ChatGPT que confirmara que los casos realmente ocurrieron. El siempre útil chatbot respondió afirmativamente, diciendo que la información sobre ellos se podía encontrar en "bases de datos legales acreditadas".

El abogado en el centro de la tormenta dijo que "lamenta mucho" haber usado ChatGPT para crear el informe e insistió en que "nunca lo haría en el futuro sin una verificación absoluta de su autenticidad".

Mirando lo que describió como una presentación legal llena de “decisiones judiciales falsas, con citas falsas y citaciones internas falsas”, y describiendo la situación como sin precedentes, el juez Castel ordenó una audiencia para principios del próximo mes para considerar posibles sanciones.

Si bien impresionan por la forma en que producen texto fluido de alta calidad, ChatGPT y otros chatbots similares también son conocidos por inventar cosas y presentarlas como si fueran reales, algo que Schwartz ha aprendido a su costa. El fenómeno se conoce como "alucinación" y es uno de los mayores desafíos que enfrentan los desarrolladores humanos detrás de los chatbots mientras buscan resolver este pliegue tan problemático.

En otro ejemplo reciente de alucinaciones con una herramienta de IA generativa, un alcalde australiano acusó a ChatGPT de crear mentiras sobre él, incluido que fue encarcelado por soborno mientras trabajaba para un banco hace más de una década.

El alcalde, Brian Hood, fue en realidad un denunciante en el caso y nunca fue acusado de ningún delito, por lo que estaba bastante molesto cuando la gente comenzó a informarle sobre la reescritura de la historia por parte del chatbot.