La IA de Reddit aparentemente cree que un narcótico mortal es un buen consejo para la salud.
Qué pasó: El nuevo chatbot de inteligencia artificial de Reddit ya está causando estragos. El bot, llamado "Respuestas", supuestamente ayuda a la gente resumiendo información de publicaciones antiguas. Según un informe de 404media, el nuevo chatbot de Reddit sugiere narcóticos fuertes para tratar el dolor crónico.
- Cuando alguien le preguntó sobre cómo lidiar con el dolor crónico, señaló un comentario de un usuario que decía: “La heroína, irónicamente, me ha salvado la vida en esos casos”.
- Y la cosa empeora. Alguien más le hizo una pregunta y recomendó kratom, un extracto de hierbas prohibido en algunos lugares y vinculado a graves problemas de salud.
- Lo más aterrador es que Reddit está probando este bot directamente en las conversaciones activas, por lo que sus pésimos consejos aparecen a la vista de todos. Los moderadores de estas comunidades dijeron que ni siquiera podían desactivar la función.
Por qué es importante: Este es un ejemplo perfecto, aunque aterrador, de uno de los mayores problemas de la IA en la actualidad.
- El bot no entiende nada. Simplemente es muy bueno encontrando y repitiendo lo que otros han escrito en línea, y no distingue entre un consejo útil, una broma sarcástica o una sugerencia realmente peligrosa.
- El verdadero peligro es que se coloca esta información en medio de conversaciones en las que personas reales y vulnerables buscan ayuda y se presenta la información como si fuera un hecho.
¿Por qué debería importarme? Entonces, ¿por qué te importa esto? Porque demuestra lo arriesgadas que pueden ser estas herramientas de IA cuando se usan sin control, especialmente cuando se trata de algo tan serio como tu salud. Aunque nunca le pedirías consejo médico a un chatbot, sus malas sugerencias pueden empezar a contaminar las comunidades en línea, dificultando saber en quién o en qué confiar.
¿Qué sigue?: Después de que la gente (con razón) se alarmó, Reddit confirmó que retirarán el bot de cualquier discusión relacionada con la salud. Sin embargo, han guardado silencio sobre si están implementando filtros de seguridad reales en el bot. Así que, por ahora, el problema está parcheado, no necesariamente resuelto.
