ChatGPT quiere jugar al doctor con un modo especial, pero lo omitiré
Hace unas semanas, un investigador médico informó sobre un caso bastante curioso de error médico inducido por IA. Detalló el caso de una persona que consultó ChatGPT y entró en una espiral psicótica debido a una intoxicación por bromuro. Expertos llevan tiempo planteando estas preocupaciones, y parece que OpenAI pretende contrarrestarlas con un modo ChatGPT específico para el asesoramiento médico.
La gran esperanza
Tibor Blaho, ingeniero de AIPRM, empresa especializada en inteligencia artificial, compartió un fragmento interesante que encontraron en el código de la aplicación web de ChatGPT. Las cadenas mencionan una nueva función llamada "Modo Clínico". El código no detalla su funcionamiento, pero parece un modo específico para buscar consejos de salud, similar a cómo se implementan las medidas de seguridad en las cuentas de adolescentes.
Cabe destacar que OpenAI no ha hecho ningún anuncio oficial sobre dicha función, así que tómese esta noticia con pinzas. Sin embargo, circulan algunas teorías sobre su posible funcionamiento. Justin Angel, un desarrollador conocido en la comunidad de Apple y Windows, compartió en X que podría tratarse de un modo protegido que limita la fuente de información a artículos de investigación médica.
Por ejemplo, si busca asesoramiento médico sobre problemas o síntomas de bienestar, ChatGPT solo le dará una respuesta basada en información extraída de fuentes médicas confiables. De esta manera, se reducen las posibilidades de que ChatGPT ofrezca consejos de salud engañosos .
La cruda realidad
La idea detrás de algo como el "Modo Clínico" no es descabellada. Hace apenas un día, Consensus lanzó una función llamada "Modo Médico". Cuando se envía una consulta relacionada con la salud, la IA conversacional busca respuestas "exclusivamente en la evidencia médica de mayor calidad", un corpus que incluye más de ocho millones de artículos y miles de guías clínicas revisadas. El enfoque parece seguro a primera vista, pero los riesgos persisten.
Un artículo publicado en la revista Scientific Reports el mes pasado destacó los riesgos de impulsar ChatGPT en el contexto médico. «Se debe tener precaución y educar a colegas y pacientes sobre el riesgo de alucinaciones y la incorporación de jerga técnica que puede dificultar la interpretación de los resultados», advertía el artículo. Sin embargo, parece que la industria avanza con paso firme hacia la IA.
La Facultad de Medicina de Stanford está probando un software basado en IA llamado ChatEHR que permite a los médicos interactuar con los historiales médicos de forma más conversacional. OpenAI también probó un "asistente médico de IA" en colaboración con Penda Health hace unos meses y anunció que la herramienta redujo las probabilidades de error de diagnóstico en un 16 %.
