ChatGPT acaba de crear malware, y eso da mucho miedo

Según los informes, un novato autoproclamado ha creado un poderoso malware de extracción de datos utilizando solo las indicaciones de ChatGPT , todo en un lapso de unas pocas horas.

Aaron Mulgrew, investigador de seguridad de Forcepoint, compartió recientemente cómo creó malware de día cero exclusivamente en el chatbot generativo de OpenAI . Si bien OpenAI tiene protecciones contra cualquiera que intente pedirle a ChatGPT que escriba código malicioso, Mulgrew encontró una laguna al pedirle al chatbot que creara líneas separadas del código malicioso, función por función.

Después de compilar las funciones individuales, Mulgrew había creado un ejecutable de robo de datos casi indetectable en sus manos. Y este tampoco era su tipo de malware común: el malware era tan sofisticado como los ataques de cualquier estado nacional, capaz de evadir a todos los proveedores basados ​​en la detección.

Igual de crucial, cómo el malware de Mulgrew difiere de las iteraciones de estado-nación "regulares" en el sentido de que no requiere equipos de piratas informáticos (y una fracción del tiempo y los recursos) para construir. Mulgrew, que no hizo nada de la codificación por sí mismo, tuvo el ejecutable listo en solo unas horas en lugar de las semanas que normalmente se necesitan.

El malware Mulgrew (suena bien, ¿no?) se disfraza como una aplicación de protector de pantalla (extensión SCR), que luego se inicia automáticamente en Windows. Luego, el software filtrará los archivos (como imágenes, documentos de Word y PDF) en busca de datos para robar. La parte impresionante es que el malware (a través de la esteganografía) dividirá los datos robados en partes más pequeñas y las ocultará dentro de las imágenes en la computadora. Estas imágenes luego se suben a una carpeta de Google Drive, un procedimiento que evita la detección.

Igualmente impresionante es que Mulgrew pudo refinar y fortalecer su código contra la detección usando indicaciones simples en ChatGPT, lo que realmente plantea la pregunta de qué tan seguro es usar ChatGPT . Al ejecutar las primeras pruebas de VirusTotal, cinco de los 69 productos de detección detectaron el malware. Ninguno de los productos detectó posteriormente una versión posterior de su código.

Tenga en cuenta que el malware que Mulgrew creó fue una prueba y no está disponible públicamente. No obstante, su investigación ha demostrado con qué facilidad los usuarios con poca o ninguna experiencia en codificación avanzada pueden eludir las débiles protecciones de ChatGPT para crear fácilmente malware peligroso sin siquiera ingresar una sola línea de código.

Pero aquí está la parte aterradora de todo esto: este tipo de código suele tardar semanas en compilar un equipo más grande. No nos sorprendería si los piratas informáticos nefastos ya están desarrollando malware similar a través de ChatGPT mientras hablamos.