No se deje engañar: las estafas de ChatGPT están proliferando en las redes sociales
El malware y las estafas para ChatGPT continúan siendo más frecuentes a medida que aumenta el interés en el chatbot desarrollado por OpenAI.
Ha habido una serie de casos de malos actores que se han aprovechado de la popularidad de ChatGPT desde su presentación en noviembre de 2022. Muchos han estado usando interfaces falsas de ChatGPT para estafar a usuarios móviles desprevenidos con dinero o infectar dispositivos con malware. La amenaza más reciente es una combinación de ambas, con piratas informáticos que se dirigen a los usuarios de Windows y Android a través de páginas de phishing y buscan robar sus datos privados, que podrían incluir tarjetas de crédito y otra información bancaria, según Bleeping Computer .
El investigador de seguridad Dominic Alvieri observó por primera vez la actividad sospechosa de chat-gpt-pc.online , un dominio que alojaba un malware de robo de información llamado Redline, que se hacía pasar por una descarga de ChatGPT para escritorio de Windows. El sitio web, que presentaba la marca ChatGPT, se anunciaba en una página de Facebook como un enlace legítimo de OpenAI para persuadir a las personas de que accedieran al nefasto sitio.
Alvieri descubrió que también había aplicaciones falsas de ChatGPT en Google Play y otras tiendas de aplicaciones de Android de terceros, que podían enviar malware a los dispositivos si se descargaban.
Otros investigadores han respaldado las afirmaciones iniciales y han encontrado otro malware que ejecuta diferentes campañas maliciosas. Los investigadores de Cyble descubrieron chatgpt-go.online , que envía malware que "roba contenido del portapapeles", incluido el ladrón de Aurora . Otro dominio llamado chat-gpt-pc[.]online envía un malware llamado Lumma Stealer. Otro más llamado openai-pc-pro[.]online , malware que aún no ha sido identificado.
Cyble también ha conectado el dominio pay.chatgptftw.com a una página de robo de tarjetas de crédito que se hace pasar por una página de pago para ChatGPT Plus .
Mientras tanto, Cyble dijo que ha descubierto más de 50 aplicaciones móviles dudosas que se hacen pasar por ChatGPT usando su marca o un nombre que podría confundir fácilmente a los usuarios. El equipo de investigación dijo que se ha determinado que todos son falsos y dañinos para los dispositivos. Una es una aplicación llamada chatGPT1 , que es una aplicación de fraude de facturación por SMS que probablemente roba información de la tarjeta de crédito similar a la descrita anteriormente. Otra aplicación es AI Photo , que aloja el malware Spynote que puede acceder y "robar registros de llamadas, listas de contactos, SMS y archivos" desde un dispositivo.
La afluencia de malware y estafadores pagados comenzó cuando OpenAI comenzó a limitar las velocidades y el acceso a ChatGPT debido a su creciente popularidad. Las primeras aplicaciones móviles pagas falsas llegaron a las tiendas Apple App y Google Play en diciembre de 2022, pero no atrajeron la atención de los medios durante casi un mes, a mediados de enero. El primer gran hackeo conocido de ChatGPT pronto siguió a mediados de febrero. Los malos actores usaron la API OpenAI GPT-3 para crear unaversión oscura de ChatGPT que puede generar correos electrónicos de phishing y scripts de malware. Los bots funcionan a través de la aplicación de mensajería Telegram.
Ahora, parece ser temporada abierta para falsificaciones y alternativas desde que OpenAI introdujo su nivel ChatGPT Plus pagado por $ 20 por mes a partir del 10 de febrero. Sin embargo, los usuarios deben tener cuidado de que el chatbot siga siendo una herramienta basada en navegador a la que solo se puede acceder como chat.openai.com. Actualmente no hay aplicaciones móviles o de escritorio disponibles para ChatGPT en ningún sistema.