Cuando el seguro de vida le brinda IA, ¿debería hacer limonada?

Una tendencia creciente se refiere a las compañías de seguros que utilizan inteligencia artificial en sus operaciones. Los anuncios sobre esos métodos a menudo mencionan cómo los clientes pueden suscribirse a las pólizas más rápido, presentar reclamos de manera más eficiente y obtener asistencia las 24 horas, los 7 días de la semana, todo gracias a la inteligencia artificial.

Sin embargo, un hilo de Twitter reciente de Lemonade, una marca de seguros que utiliza inteligencia artificial, arroja luz sobre los problemas potenciales de esta práctica. La gente lo vio, luego decidió que el enfoque de Lemonade AI destaca cómo la tecnología puede dañar y ayudar, dependiendo de su aplicación.

La transparencia de Twitter genera alarma

Muchas empresas no divulgan detalles sobre cómo utilizan la IA. La idea es que mantener la IA envuelta en un misterio da la impresión de una oferta futurista al tiempo que protege la tecnología patentada de una empresa.

Cuando Lemonade utilizó Twitter para brindar a las personas información sobre cómo funciona su inteligencia artificial, las comunicaciones comenzaron explicando cómo usa la información. Por ejemplo, un tuit de Lemonade confirmó que recopila aproximadamente 100 veces más datos que las compañías de seguros tradicionales.

El hilo continuó explicando cómo el chatbot de IA de la compañía hace 13 preguntas a los clientes. Al hacerlo, recopila más de 1.600 puntos de datos. Eso se compara con los 20-40 que obtienen otras aseguradoras, continuó el tuit. La compañía utiliza esta información para medir el riesgo asociado de un cliente, lo que ayuda a Lemonade a reducir sus costos operativos y su índice de pérdidas.

El cuarto tweet de la cadena de siete mensajes entró en un territorio aún más sorprendente, lo que sugiere que los análisis de Lemonade AI detectan señales no verbales asociadas con afirmaciones fraudulentas. El proceso de la compañía involucra a los clientes que usan sus teléfonos para grabar videos que explican lo que sucedió.

Los usuarios de Twitter cuestionaron la ética de ese enfoque, señalando los problemas con las computadoras que no rinden cuentas al tomar decisiones sobre afirmaciones que alteran la vida, como las de casas incendiadas. Uno llamó a la práctica "una versión aún más abiertamente pseudocientífica de una prueba tradicional del detector de mentiras".

La IA también comete errores

La detección de fraudes se extiende más allá de los métodos de IA de seguros para encontrar signos y patrones sospechosos . Por ejemplo, muchos bancos lo utilizan para señalar cargos extraños. Sin embargo, la tecnología podría percibir mal las situaciones, y lo hace. Incluso los programadores más hábiles no pueden completar un trabajo impecable.

La mayoría de las personas se enfrentan ocasionalmente a la situación embarazosa de intentar comprar un artículo y escuchar al cajero decirles que la transacción falló, a pesar de que tenían mucho dinero en sus cuentas. Arreglar la situación suele ser tan simple como que el titular de la tarjeta se comunique con el emisor para explicar la situación y aprobar el cargo.

Sin embargo, podría decirse que la situación se vuelve más grave cuando se trata de un reclamo por la propiedad esencial de alguien. ¿Qué pasa si la IA se equivoca y categoriza la catástrofe legítima de un asegurado como fraudulenta? Alguien que paga fielmente los costos de su seguro, esperando que la cobertura le brinde tranquilidad después de situaciones desastrosas, podría encontrarse sin protección después de todo. Un error causado por humanos durante la programación puede resultar en un resultado incorrecto para el cliente de una compañía de seguros de IA.

Lemonade permite a los clientes cancelar en cualquier momento y recibir reembolsos por cualquier período de pago restante de una póliza. Una vez que la gente leyó su hilo ofensivo de Twitter, muchos indicaron públicamente que querían cambiar de proveedor. Es demasiado pronto para saber cuántos pueden seguir adelante.

¿Beneficiarse a expensas de los clientes?

Otra parte de la cadena de tweets de Lemonade mencionó cómo la compañía tuvo una pérdida de ganancias del 368% en el primer trimestre de 2017. Sin embargo, para el primer trimestre de 2021, fue solo del 71%. La compañía de seguros no es la única que aumenta su inversión en inteligencia artificial para ayudar a las ganancias.

Los pasos que toman los líderes de la empresa para implementar la IA tienen un impacto en los resultados. Un estudio de BDO mostró un crecimiento promedio de los ingresos del 16% al invertir más en TI durante la implementación de la IA. Sin embargo, el aumento promedio fue solo del 5% sin dedicar más recursos a TI.

Independientemente de los pasos específicos que tome el líder de una empresa al utilizar la inteligencia artificial, el fiasco de Lemonade provocó preocupaciones comprensibles en el público. Una de las principales desventajas de la IA es que los algoritmos a menudo no pueden explicar los factores que les hicieron concluir algo.

Incluso los profesionales de la tecnología que los construyen no pueden confirmar los diversos aspectos que hacen que una herramienta de IA tome una decisión determinada sobre otra. Esa es una realidad preocupante para los productos de IA de seguros y todas las demás industrias que utilizan la inteligencia artificial para tomar decisiones críticas. Algunos analistas de IA, en HDSR , defienden comprensiblemente contra el uso innecesario de modelos de caja negra.

El sitio web de Lemonade menciona cómo AI toma un porcentaje significativo de sus decisiones de reclamos en segundos. Esas son buenas noticias si el resultado favorece al cliente. Sin embargo, puede imaginarse la presión adicional que se ejerce sobre una persona asegurada que ya está estresada si la IA tarda menos de un minuto en denegar una reclamación válida. Es posible que a Lemonade y otras aseguradoras impulsadas por la inteligencia artificial no les importe si ese sistema les ayuda a obtener ganancias, pero a los clientes sí les importará si la tecnología de la compañía da juicios injustos.

Pedales traseros de limonada

Los representantes de Lemonade eliminaron rápidamente su controvertida cadena de tweets, intercambiándola con una disculpa. El mensaje decía que Lemonade AI nunca niega automáticamente las afirmaciones y no las evalúa en función de características como el género o la apariencia de una persona.

Los usuarios señalaron rápidamente que el tweet original de la compañía mencionaba el uso de IA para evaluar señales no verbales. La situación se volvió aún más dudosa cuando una publicación del blog de Lemonade afirmó que la compañía no usa inteligencia artificial para rechazar reclamos basados ​​en características físicas o personales.

La publicación discutió cómo Lemonade usa el reconocimiento facial para marcar casos en los que la misma persona hace reclamos bajo múltiples identidades. Sin embargo, el tweet inicial mencionó señales no verbales, que parecen diferentes de estudiar el rostro de una persona para autenticar quiénes son.

Decir algo como "Lemonade AI utiliza el reconocimiento facial para verificar la identidad durante el proceso de reclamación" evitaría que muchas personas lleguen a conclusiones aterradoras. El blog también mencionó cómo la investigación del comportamiento sugiere que las personas mienten con menos frecuencia si se ven a sí mismas hablar, como a través de la cámara selfie de un teléfono. Dice que el enfoque permite pagar "reclamos legítimos más rápido mientras se mantienen bajos los costos". Sin embargo, es probable que otras compañías de seguros usen la inteligencia artificial de manera diferente.

Una posible preocupación de cualquier herramienta de seguros de inteligencia artificial es que las personas que la usan pueden mostrar características bajo estrés que reflejan las de las personas falsas. Un asegurado puede tartamudear, hablar rápidamente, repetirse o mirar a su alrededor mientras crea un video de reclamos. Podrían mostrar esos signos debido a una gran angustia, no necesariamente por deshonestidad. El sector de recursos humanos también utiliza IA mientras realiza entrevistas. Un riesgo asociado es que cualquier persona bajo presión a menudo se comporta de manera diferente a sí misma.

Uso de IA y potencial de violación de datos

El rendimiento del algoritmo de IA generalmente mejora a medida que una herramienta obtiene acceso a más información. Los tweets originales de Lemonade afirmaban un proceso de recopilación de más de 1,600 puntos de datos por cliente. Esa enorme cantidad genera preocupaciones.

Primero, podría preguntarse qué sabe el algoritmo y si llegó a conclusiones incorrectas. Otra preocupación surge de si Lemonade y otras compañías de seguros de inteligencia artificial protegen adecuadamente los datos.

Relacionado: Los mejores servicios de supervisión y protección contra robo de identidad

Los ciberdelincuentes tienen como objetivo hacer el peor daño posible cuando se dirigen a las víctimas. Eso a menudo significa intentar infiltrarse en redes y herramientas con la mayor cantidad de datos disponibles. Los perpetradores en línea también saben cómo la IA requiere mucha información para funcionar bien. Del mismo modo, les gusta robar datos para luego venderlos en la web oscura.

En un incidente de febrero de 2020, una empresa de reconocimiento facial llamada Clearview AI sufrió una violación de datos. CPO informa que partes no autorizadas accedieron a su lista completa de clientes e información sobre las actividades de esas entidades. La empresa contaba con agencias estatales y federales, incluidos el FBI y el Departamento de Seguridad Nacional, entre sus clientes.

Las violaciones de datos perjudican a los clientes al erosionar su confianza y ponerlos en riesgo de robo de identidad. Dado que los incidentes de datos robados o mal manejados ocurren con tanta frecuencia, muchas personas pueden resistirse a permitir que una herramienta de seguros de inteligencia artificial recopile información sobre ellos en segundo plano. Eso es especialmente cierto si una empresa no especifica sus políticas de protección de datos y ciberseguridad.

Comodidad unida a preocupación

La IA utilizada en el sector de los seguros tiene numerosos aspectos útiles. A muchas personas les encanta escribir consultas en chatbots y obtener respuestas casi instantáneas en lugar de pasar un tiempo precioso en el teléfono para comunicarse con un agente.

Si una herramienta de IA para reclamaciones de seguros saca las conclusiones correctas y los representantes de la empresa mantienen los datos protegidos, existen beneficios obvios. Sin embargo, esta descripción general recuerda a las personas que la inteligencia artificial no es una solución infalible y que las empresas pueden hacer un mal uso de ella para aumentar las ganancias. A medida que más aseguradoras exploran la inteligencia artificial, los analistas tecnológicos y los consumidores deben mantener a esas entidades honestas y éticas planteando sus vacilaciones válidas. Hacerlo ayudará a garantizar que los datos de los usuarios estén seguros contra el ciberdelito.