Una investigación antrópica afirma que la IA puede exponer masivamente cuentas anónimas de Internet.

Una nueva investigación, en la que participaron científicos de Anthropic y la ETH de Zúrich, sugiere que los sistemas modernos de inteligencia artificial podrían identificar las identidades reales tras cuentas de internet supuestamente anónimas. El estudio, publicado como preimpresión en arXiv , muestra que los grandes modelos lingüísticos (LLM) podrían analizar la actividad en línea y vincular perfiles seudónimos con individuos reales a gran escala.

La investigación, titulada "Desanonimización en línea a gran escala con LLM", explora cómo los agentes de IA pueden automatizar el proceso de desanonimización: el acto de conectar cuentas en línea anónimas o seudónimas con identidades reales. Tradicionalmente, este proceso requería una investigación manual exhaustiva por parte de analistas que revisaban publicaciones, estilos de escritura y pistas dispersas en línea. Sin embargo, los investigadores demuestran que los modelos de IA modernos pueden realizar muchos de estos pasos automáticamente.

En el estudio, el sistema de IA analizó textos públicos de plataformas en línea y extrajo señales de identidad, como intereses personales, indicios demográficos, estilo de escritura y detalles incidentales revelados en las publicaciones. Posteriormente, la IA buscó perfiles coincidentes en la web y evaluó si las pistas coincidían con individuos conocidos.

Para probar el método, los investigadores crearon varios conjuntos de datos con identidades de verdad fundamental conocidas.

Un experimento intentó vincular a los usuarios de Hacker News con sus perfiles de LinkedIn, incluso tras eliminar identificadores obvios como nombres y nombres de usuario. Otro conjunto de datos consistió en vincular cuentas seudónimas de Reddit en diferentes comunidades. Un tercer conjunto de datos dividió el historial de publicaciones de un usuario en dos perfiles separados para comprobar si la IA podía identificar que pertenecían a la misma persona.

Los resultados mostraron que los sistemas basados ​​en LLM superaron significativamente las técnicas tradicionales de desanonimización. En algunos casos, los modelos alcanzaron una tasa de recuperación de hasta el 68 % con una precisión cercana al 90 %, lo que significa que la IA identificó correctamente muchas cuentas, manteniendo tasas de error relativamente bajas. En los mismos experimentos, los métodos convencionales tuvieron un éxito prácticamente nulo.

Los investigadores afirman que los hallazgos resaltan cómo la IA puede replicar tareas que antes requerían horas de trabajo por parte de investigadores humanos. Un sistema de IA puede extraer automáticamente características de identidad del texto, buscar posibles coincidencias entre miles de perfiles y determinar qué candidato tiene más probabilidades de ser el correcto.

Este avance es significativo porque el anonimato se ha considerado durante mucho tiempo una protección básica para muchos usuarios de Internet.

Las cuentas seudónimas son ampliamente utilizadas por periodistas, denunciantes, activistas y personas comunes que desean discutir temas delicados sin revelar sus identidades reales.

El estudio sugiere que esta capa de protección, a veces denominada «oscuridad práctica», podría estar debilitándose a medida que los sistemas de IA mejoran su capacidad para conectar pistas digitales entre plataformas. Si las herramientas automatizadas pueden realizar esta tarea de forma rápida y económica, la barrera para identificar a usuarios anónimos podría reducirse drásticamente.

Los investigadores estiman que el costo de identificar una cuenta en línea usando su proceso experimental podría oscilar entre 1 y 4 dólares por perfil, lo que significa que podrían realizarse investigaciones a gran escala de manera relativamente barata.

Sin embargo, los autores también señalan que la investigación se realizó en entornos controlados con datos públicos. El artículo aún no ha sido revisado por pares, y los investigadores ocultaron intencionalmente algunos detalles técnicos para reducir el riesgo de uso indebido.

Aun así, los hallazgos ya han provocado un debate entre expertos en privacidad y tecnólogos.

El trabajo sugiere que las personas podrían necesitar reconsiderar cuánta información personal revelan en línea, incluso en espacios aparentemente anónimos. De cara al futuro, los investigadores afirman que se necesita más investigación para comprender tanto los riesgos como las posibles defensas contra la desanonimización impulsada por IA. Las posibles soluciones podrían incluir herramientas de privacidad mejoradas, protecciones más sólidas en las plataformas o sistemas de IA diseñados para anonimizar datos confidenciales antes de que se compartan públicamente.

A medida que la inteligencia artificial se vuelve más capaz de analizar volúmenes masivos de contenido en línea, el estudio destaca un desafío creciente: equilibrar el poder del descubrimiento impulsado por IA con la necesidad de proteger la privacidad personal en la era digital.

La investigación antrópica dice que la IA puede exponer masivamente cuentas anónimas de Internet apareció primero en Digital Trends .