Los piratas informáticos están utilizando IA para propagar malware peligroso en YouTube
YouTube es la última frontera donde el contenido generado por IA se utiliza para engañar a los usuarios para que descarguen malware que puede robar su información personal.
A medida que la generación de IA se vuelve cada vez más popular en varias plataformas, también lo hace el deseo de sacar provecho de ella de manera maliciosa. La firma de investigación CloudSEK ha observado un aumento del 200 % al 300 % en la cantidad de videos en YouTube que incluyen enlaces a fuentes de malware populares como Vidar, RedLine y Raccoon directamente en las descripciones desde noviembre de 2022.
Los videos están configurados como tutoriales para descargar versiones descifradas de software que normalmente requieren una licencia paga para su uso, como Photoshop, Premiere Pro, Autodesk 3ds Max, AutoCAD, entre otros.
Los malos actores se benefician al crear videos generados por IA en plataformas como Synthesia y D-ID . Crean videos que presentan humanos con características universalmente familiares y confiables. Esta tendencia popular se ha utilizado en las redes sociales y se ha utilizado durante mucho tiempo en material de reclutamiento, educativo y promocional, señaló CloudSEK.
La combinación de los métodos mencionados anteriormente hace que los usuarios puedan ser fácilmente engañados para que hagan clic en enlaces maliciosos y descarguen el malware infostealer. Cuando se instala, tiene acceso a los datos privados del usuario, incluidas "contraseñas, información de tarjetas de crédito, números de cuentas bancarias y otros datos confidenciales", que luego se pueden cargar en el servidor de Comando y Control del malhechor.
Otra información privada que podría estar en riesgo para el malware infostealer incluye datos del navegador, datos de billetera Crypto, datos de Telegram, archivos de programa como .txt e información del sistema como direcciones IP.
Si bien hay muchos antivirus y sistemas de detección de puntos finales además de esta nueva marca de malware generado por IA, también hay muchos desarrolladores de ladrones de información para garantizar que el ecosistema permanezca vivo y en buen estado. Aunque CloudSEK señaló que los malos actores surgieron junto con la revolución de la IA en noviembre de 2022, algunos de losprimeros medios de atención de los piratas informáticos que utilizan el código ChatGPT para crear malware no surgieron hasta principios de febrero.
Los desarrolladores de ladrones de información también reclutan y colaboran con traficantes, otros actores que pueden encontrar y compartir información sobre víctimas potenciales a través de mercados clandestinos, foros y canales de Telegram. Los traffers suelen ser los que proporcionan sitios web falsos, correos electrónicos de phishing, tutoriales de YouTube o publicaciones en redes sociales en las que los desarrolladores de ladrones de información pueden adjuntar su malware. También ha habido una estafa similar con malos actores que alojan anuncios falsos en las redes sociales y sitios web para la versión paga de ChatGPT.
Sin embargo, en YouTube se están apoderando de las cuentas y subiendo varios videos a la vez para llamar la atención de los seguidores del creador original. Los malos actores se harán cargo tanto de las cuentas populares como de las cuentas que se actualizan con poca frecuencia para diferentes propósitos.
Tomar el control de una cuenta con más de 100,000 suscriptores y cargar entre cinco y seis videos con malware seguramente obtendrá algunos clics antes de que el propietario obtenga el control de su cuenta nuevamente. Los espectadores pueden identificar el video como infame e informarlo a YouTube, que finalmente lo eliminará. Una cuenta menos popular podría tener videos infectados en vivo y es posible que el propietario no se dé cuenta durante algún tiempo.
Agregar comentarios falsos y enlaces bit.ly y cutt.ly abreviados a los videos también los hace parecer más válidos.