Durante años, los expertos en seguridad advirtieron que la IA acabaría dando a los hackers una nueva y peligrosa ventaja. Ese momento ha llegado.
El Grupo de Inteligencia de Amenazas de Google ha publicado un informe que confirma que un grupo de hackers criminales utilizó un modelo de IA para descubrir una vulnerabilidad de día cero y estuvo a punto de perpetrar un ciberataque masivo. Google afirma haber detectado y detenido el ataque antes de que los hackers pudieran desplegarlo a gran escala.
¿Qué ocurrió exactamente y cuán grave fue?
La vulnerabilidad estaba dirigida a una popular herramienta de administración de sistemas basada en web y de código abierto, del tipo que utilizan las empresas para gestionar de forma remota servidores, cuentas de empleados y configuraciones de seguridad.
De haber pasado desapercibido, habría permitido a los piratas informáticos eludir la autenticación de dos factores, que suele ser la última línea de defensa para proteger las cuentas.
Los atacantes planeaban desplegar la herramienta en un ataque masivo dirigido a varias organizaciones a la vez. Google alertó al desarrollador a tiempo para que se publicara un parche antes de que se produjera algún daño.
La compañía se negó a revelar el nombre del grupo de hackers, el software específico al que atacaron o qué modelo de IA se utilizó, pero confirmó que no se trataba del Gemini de Google.
Según Google, grupos vinculados a China y Corea del Norte también han mostrado un gran interés en utilizar herramientas de IA como OpenClaw para el descubrimiento de vulnerabilidades.
¿Se está convirtiendo la IA en el mayor punto débil de la ciberseguridad?
El ataque a Google es alarmante, pero dista mucho de ser un caso aislado. Investigadores del Instituto Tecnológico de Georgia descubrieron recientemente VillainNet, una puerta trasera oculta que se integra en la inteligencia artificial de los coches autónomos y funciona el 99% de las veces cuando se activa.
Mientras tanto, un equipo de investigación coreano demostró que los modelos de IA pueden ser sometidos a ingeniería inversa de forma remota mediante una pequeña antena que atraviesa paredes , sin necesidad de acceso al sistema. Recientemente, un grupo de usuarios de Discord eludió los controles de acceso para acceder al modelo restringido Mythos de Anthropic a través de un entorno de un proveedor externo.
En el ámbito de la defensa, está surgiendo una disciplina en auge llamada pentesting de IA para poner a prueba el comportamiento de los modelos de lenguaje cuando se exponen a entradas adversarias, pero este campo aún se encuentra en sus primeras etapas.
