Microsoft Word incorpora un agente legal con IA, lo cual suena útil hasta que recordamos los malos resultados que se han obtenido anteriormente. El nuevo agente legal puede revisar contratos, sugerir ediciones, comparar versiones y señalar cláusulas de riesgo dentro de Word. En teoría, estas funciones parecen bastante útiles y prácticas; sin embargo, casos de herramientas de IA generativa que, mediante alucinaciones, inventan casos, citas y referencias completas de la nada, han causado problemas legales a personas reales.
¿Qué puede hacer el agente legal de Microsoft?
Microsoft afirma que Legal Agent está disponible a través de Copilot en Word para los usuarios de su programa Frontier en EE. UU. Actualmente funciona en Word para Windows. No se requiere ninguna aplicación ni instalación adicional, aunque algunos usuarios podrían necesitar reiniciar Word para que aparezca el agente.
Legal Agent está diseñado para la revisión de contratos y documentos. Microsoft afirma que puede cotejar cláusula por cláusula de un contrato con un manual legal, revisar un acuerdo completo, comparar diferentes versiones, identificar riesgos y obligaciones, y sugerir ediciones con control de cambios. Además, conserva intactos el formato original, las tablas, las listas y el historial de negociación.
La empresa también intenta evitar el peor escenario posible, tanto para sus usuarios como para sí misma. La función incluye medidas de seguridad integradas, como la provisión de citas vinculadas al texto original, para que los revisores puedan consultar las sugerencias antes de utilizarlas. Además, se incluyen avisos legales claros que indican que no ofrece asesoramiento jurídico, que puede generar contenido inexacto y que, aun así, requiere la revisión de un profesional jurídico cualificado antes de su uso.
¿Por qué deberían seguir estando nerviosos los abogados?
Ya existen precedentes de IA descontrolada en el ámbito legal: en 2023, dos abogados neoyorquinos fueron sancionados y multados con 5000 dólares tras presentar un documento judicial que incluía casos falsos generados por ChatGPT. Michael Cohen, exabogado de Donald Trump, también admitió haber proporcionado, sin saberlo, a su abogado citas falsas generadas por Google Bard. Si bien Cohen no fue sancionado, el juez calificó el incidente de vergonzoso e hizo hincapié en la necesidad de ser escépticos al utilizar la IA en el trabajo jurídico.
No se trata de casos aislados, ya que los jueces han cuestionado o sancionado a abogados en múltiples ocasiones relacionadas con presentaciones asistidas por IA, y un científico de datos y abogado francés identificó cientos de documentos judiciales que contenían citas falsas y referencias inexistentes durante el último año.
El mayor problema es que las alucinaciones persisten . Los chatbots de IA aún pueden ofrecer respuestas que suenan seguras, aunque sean parcial o totalmente erróneas. En el ámbito legal, esto es especialmente peligroso, ya que una cita inventada o un caso ficticio pueden acabar en una demanda y acarrear graves consecuencias.
Microsoft ha implementado numerosas medidas de seguridad en Legal Agent para prevenir estos problemas; sin embargo, la lección ya está plasmada en los registros judiciales. La IA puede agilizar el trabajo legal, pero la responsabilidad de verificar los hechos sigue recayendo en el abogado.
