Puede que el nuevo Muse Spark de Meta se presente como un modelo de IA más inteligente, pero según las primeras pruebas, parece el tipo de IA que realmente no querrías cerca de decisiones médicas importantes.
El reciente informe de WIRED analizó la experiencia con Muse Spark. El modelo de IA de Meta, enfocado en la salud e integrado en la aplicación Meta AI, no arrojó resultados prometedores. Según se informa, el chatbot animaba a los usuarios a subir información médica sin procesar, como informes de laboratorio, lecturas de monitores de glucosa y registros de presión arterial, para luego ofrecerles ayuda en el análisis de patrones y tendencias.
Todo esto suena bastante útil hasta que te das cuenta de dos problemas inmediatos: estás entregando datos muy sensibles y no está claro si la IA es lo suficientemente fiable como para interpretarlos.
¿Qué falló en las primeras pruebas?
El primer problema es difícil de ignorar. En una época donde nuestra vida ya parece demasiado transparente, Muse Spark va aún más allá. No es de extrañar que se proporcione la información necesaria para un diagnóstico preciso, pero entregar tu historial médico personal a un chatbot para que te asesore no parece un riesgo para la privacidad.
A diferencia de los datos compartidos con un médico o un hospital, la información ingresada en un chatbot no ofrece automáticamente las mismas garantías ni protecciones que se suelen dar por sentadas. Esta opinión no ha sido avalada por expertos, y es precisamente por eso que la idea resulta poco convincente. Si bien la IA se presenta como una herramienta útil, su entorno aún se asemeja más al de un producto de consumo que al de un dispositivo médico propiamente dicho.
Esta ni siquiera es la peor parte.
Más allá de los riesgos típicos de privacidad que implica compartir datos personales con cualquier gigante tecnológico, cabría esperar al menos una respuesta útil. Sin embargo, el problema más grave parecía residir en la calidad del asesoramiento. En las pruebas realizadas por WIRED, el chatbot generó un plan de alimentación extremadamente bajo en calorías tras ser consultado sobre la pérdida de peso y el ayuno intermitente intensivo.
Si bien el bot señaló algunos de los riesgos en esta ruta, una advertencia no sirve de mucho si el modelo luego ayuda al usuario a realizar la acción peligrosa de todos modos. Aquí radica el verdadero problema con muchas herramientas de IA para la salud en la actualidad. Pueden parecer cautelosas, informadas y equilibradas hasta el momento en que comienzan a reforzar suposiciones erróneas. Ese tono pulido puede ofrecer consejos equivocados con seguridad, lo que hace que el fracaso sea más peligroso.
