El 81% piensa que ChatGPT es un riesgo de seguridad, según una encuesta
ChatGPT ha sido un invento polarizador, con respuestas al chatbot de inteligencia artificial (IA) oscilando entre la emoción y el miedo. Ahora, una nueva encuesta muestra que la desilusión con ChatGPT podría estar alcanzando nuevos máximos.
Según una encuesta de la firma de seguridad Malwarebytes , el 81% de los encuestados están preocupados por los riesgos de seguridad que plantea ChatGPT. Es un hallazgo notable y sugiere que las personas están cada vez más preocupadas por los actos nefastos que el chatbot de OpenAI aparentemente es capaz de llevar a cabo.
Malwarebytes pidió a los suscriptores de su boletín que respondieran a la frase "Estoy preocupado por los posibles riesgos de seguridad y/o seguridad que plantea ChatGPT", un sentimiento con el que el 81 % estuvo de acuerdo. Además, el 51 % no estuvo de acuerdo con la afirmación "ChatGPT y otras herramientas de IA mejorarán la seguridad en Internet", mientras que solo el 7 % estuvo de acuerdo, lo que sugiere que existe una preocupación generalizada sobre el impacto que tendrá ChatGPT en la seguridad en línea.
El descontento con los chatbots de IA no se limitó a problemas de seguridad. Solo el 12% de las personas encuestadas estuvo de acuerdo con la frase "La información producida por ChatGPT es precisa", mientras que el 55% de las personas no estuvo de acuerdo. Hasta el 63% de las personas no confiaba en las respuestas de ChatGPT, y solo el 10% las consideró confiables.
Generación de malware
Este tipo de respuesta no es del todo sorprendente, dada la serie de malos actos de alto perfil para los que se ha utilizado ChatGPT en los últimos meses. Hemos visto casos en los que se ha implementado para todo tipo de acciones cuestionables, desde escribir malware hasta presentar a los usuarios claves gratuitas de Windows 11 .
En mayo de 2023, hablamos con varios expertos en seguridad sobre las amenazas que plantea ChatGPT . Según Martin Zugec, director de soluciones técnicas de Bitdefender, "la calidad del código de malware producido por los chatbots tiende a ser baja, lo que lo convierte en una opción menos atractiva para los creadores de malware experimentados que pueden encontrar mejores ejemplos en los repositorios de códigos públicos".
Aún así, eso no ha aliviado la ansiedad del público sobre para qué se podría usar ChatGPT. Está claro que a la gente le preocupa que incluso los escritores de malware novatos puedan encargar a los chatbots de IA que sueñen con un virus devastador o un ransomware irrompible, incluso si algunos expertos en seguridad creen que es poco probable.
Pausa en el desarrollo
¿Entonces, qué puede hacerse? Cuando Malwarebytes preguntó a sus lectores qué pensaban sobre la declaración "El trabajo en ChatGPT y otras herramientas de inteligencia artificial deben pausarse hasta que las regulaciones se pongan al día", el 52 % estuvo de acuerdo, mientras que un poco menos del 24 % no estuvo de acuerdo.
Esta llamada del público se une a varias cartas abiertas de destacados líderes tecnológicos para detener el desarrollo de chatbots de IA debido a sus "riesgos a gran escala". Tal vez sea hora de que los tomadores de decisiones comiencen a prestar atención.