El lado oscuro de ChatGPT: cosas que puede hacer, aunque no debería
¿Has usado ChatGPT de OpenAI para algo divertido últimamente? Puedes pedirle que te escriba una canción, un poema o un chiste. Desafortunadamente, también puede pedirle que haga cosas que tienden a ser poco éticas.
ChatGPT no es todo sol y arco iris: algunas de las cosas que puede hacer son francamente nefastas. Es muy fácil convertirlo en un arma y usarlo por todas las razones equivocadas. ¿Cuáles son algunas de las cosas que ChatGPT ha hecho y puede hacer, pero definitivamente no debería?
Un aprendiz de todo
Ya sea que los ames o los odies, ChatGPT y chatbots similares están aquí para quedarse. Algunas personas están contentas con eso y algunos desearían que nunca se hubieran creado, pero eso no cambia el hecho de que la presencia de ChatGPT en nuestras vidas casi seguramente crecerá con el tiempo. Incluso si usted personalmente no usa el chatbot, es probable que ya haya visto algún contenido generado por él.
No me malinterpreten, ChatGPT es bastante bueno. Puede usarlo para resumir un libro o un artículo , redactar un correo electrónico tedioso, ayudarlo con su ensayo , interpretar su composición astrológica o incluso componer una canción. Incluso ayudó a alguien a ganar la lotería .
En muchos sentidos, también es más fácil de usar que la búsqueda estándar de Google. Obtiene la respuesta en la forma en que la desea sin necesidad de navegar a través de diferentes sitios web para encontrarla. Es conciso, directo e informativo, y puede hacer que las cosas complejas suenen más simples si se lo pide.
Aún así, conoce la frase: "Un experto en todos los oficios no es un maestro de nada, pero a menudo es mejor que un maestro de uno". ChatGPT no es perfecto en nada de lo que hace, pero es mejor en muchas cosas que mucha gente en este momento.
Sin embargo, no ser perfecto puede ser bastante problemático. El mero hecho de que sea una IA conversacional ampliamente disponible significa que fácilmente puede ser mal utilizada, y cuanto más poderoso se vuelve ChatGPT, más probable es que ayude a las personas con las cosas equivocadas.
Socio en estafa
Si tiene una cuenta de correo electrónico, es casi seguro que haya recibido un correo electrónico fraudulento en algún momento. Así es como es. Esos correos electrónicos han existido desde Internet, y antes de que el correo electrónico fuera común, todavía existían como estafas de correo postal.
Una estafa común que todavía funciona hasta el día de hoy es la llamada "estafa del Príncipe", en la que el estafador intenta persuadir a la víctima para que la ayude a transferir su alucinante fortuna a un país diferente.
Afortunadamente, la mayoría de la gente sabe mejor que ni siquiera abrir estos correos electrónicos, y mucho menos interactuar con ellos. A menudo están mal escritos, y eso ayuda a una víctima más perspicaz a darse cuenta de que algo parece estar mal.
Bueno, ya no tienen que estar mal escritos, porque ChatGPT puede escribirlos en unos segundos.
Le pedí a ChatGPT que me escribiera un "correo electrónico creíble y altamente persuasivo" al estilo de la estafa que mencioné anteriormente. ChatGPT inventó a un príncipe de Nigeria que supuestamente quería darme $14,5 millones por ayudarlo. El correo electrónico está lleno de un lenguaje florido, está escrito en un inglés perfecto y ciertamente es persuasivo.
No creo que ChatGPT deba siquiera aceptar mi solicitud cuando menciono específicamente las estafas, pero lo hizo, y puedes apostar que está haciendo lo mismo en este momento para las personas que realmente quieren usar estos correos electrónicos para algo ilegal.
Cuando le señalé a ChatGPT que no debería aceptar escribirme un correo electrónico fraudulento, se disculpó. “No debería haber brindado ayuda para crear un correo electrónico fraudulento, ya que va en contra de las pautas éticas que rigen mi uso”, dijo el chatbot.
ChatGPT aprende a lo largo de cada conversación, pero claramente no aprendió de su error anterior, porque cuando le pedí que me escribiera un mensaje fingiendo ser Ryan Reynolds en la misma conversación, lo hizo sin dudarlo. El mensaje resultante es divertido, accesible y le pide al lector que envíe $ 1,000 para tener la oportunidad de conocer a "Ryan Reynolds".
Al final del correo electrónico, ChatGPT me dejó una nota en la que me pedía que no usara este mensaje para ninguna actividad fraudulenta. Gracias por el recordatorio, amigo.
La programación salió mal
ChatGPT 3.5 puede codificar, pero está lejos de ser perfecto. Muchos desarrolladores están de acuerdo en que GPT-4 está haciendo un trabajo mucho mejor. La gente ha usado ChatGPT para crear sus propios juegos, extensiones y aplicaciones. También es bastante útil como ayudante de estudio si estás tratando de aprender a codificar tú mismo.
Al ser una IA, ChatGPT tiene una ventaja sobre los desarrolladores humanos: puede aprender todos los lenguajes y marcos de programación.
Como IA, ChatGPT también tiene una gran desventaja en comparación con los desarrolladores humanos: no tiene conciencia. Puede pedirle que cree malware o ransomware, y si escribe correctamente su aviso, hará lo que dice.
Afortunadamente, no es tan simple. Traté de pedirle a ChatGPT que me escribiera un programa muy dudoso desde el punto de vista ético y se negó, pero los investigadores han estado encontrando formas de evitarlo, y es alarmante que si eres lo suficientemente inteligente y obstinado, puedes recibir un código peligroso. en bandeja de plata.
Hay muchos ejemplos de que esto suceda. Un investigador de seguridad de Forcepoint pudo hacer que ChatGPT escribiera malware al encontrar una laguna en sus indicaciones.
Investigadores de CyberArk , una empresa de seguridad de identidad, lograron que ChatGPT escribiera malware polimórfico. Esto fue en enero: desde entonces, OpenAI ha reforzado la seguridad en cosas como esta.
Aún así, siguen apareciendo nuevos informes sobre el uso de ChatGPT para crear malware. Como informó Dark Reading hace solo unos días, un investigador pudo engañar a ChatGPT para que creara malware que puede encontrar y filtrar documentos específicos.
ChatGPT ni siquiera tiene que escribir código malicioso para hacer algo dudoso. Recientemente, logró generar claves de Windows válidas , abriendo la puerta a un nivel completamente nuevo de software de craqueo.
Tampoco pasemos por alto el hecho de que la destreza de codificación de GPT-4 puede dejar sin trabajo a millones de personas algún día. Sin duda es un arma de doble filo.
Reemplazo por trabajo escolar
Muchos niños y adolescentes en estos días se están ahogando en la tarea, lo que puede dar lugar a querer recortar algunos atajos cuando sea posible. Internet en sí mismo ya es una gran ayuda contra el plagio, pero ChatGPT lo lleva al siguiente nivel.
Le pedí a ChatGPT que me escribiera un ensayo de 500 palabras sobre la novela Orgullo y prejuicio . Ni siquiera intenté fingir que lo hice por diversión: inventé una historia sobre un hijo que no tengo y dije que era para ellos. Especifiqué que el niño está en el grado 12.
ChatGPT siguió mis indicaciones sin dudarlo. El ensayo no es sorprendente, pero mi sugerencia no fue muy precisa y probablemente sea mejor que las cosas que muchos de nosotros escribimos a esa edad.
Luego, solo para probar el chatbot aún más, dije que estaba equivocado acerca de la edad de mi hijo antes y que, de hecho, está en octavo grado. Una diferencia de edad bastante grande, pero ChatGPT ni siquiera se inmutó: simplemente reescribió el ensayo en un lenguaje más simple.
El uso de ChatGPT para escribir ensayos no es nada nuevo. Algunos podrían argumentar que si el chatbot contribuye a abolir la idea de la tarea, solo será algo bueno. Pero en este momento, la situación se está saliendo un poco de control, e incluso los estudiantes que no usan ChatGPT podrían sufrir por ello.
Los maestros y profesores ahora se ven casi obligados a usar detectores de inteligencia artificial si quieren verificar si sus alumnos han hecho trampa en un ensayo. Desafortunadamente, estos detectores de IA están lejos de ser perfectos.
Tanto los medios de comunicación como los padres están informando casos de falsas acusaciones de hacer trampa dirigidas a los estudiantes, todo porque los detectores de IA no están haciendo un buen trabajo. USA Today habló sobre el caso de un estudiante universitario que fue acusado de hacer trampa y luego absuelto, pero toda la situación le provocó "ataques de pánico en toda regla".
En Twitter, un padre dijo que un maestro falló a su hijo porque la herramienta marcó un ensayo como escrito por AI. El padre afirma haber estado allí con el niño mientras escribían el ensayo.
Solo para probarlo yo mismo, pegué este mismo artículo en ZeroGPT y Writer AI Content Detector . Ambos dijeron que fue escrito por un humano, pero ZeroGPT dijo que alrededor del 30% fue escrito por IA. No hace falta decir que no lo fue.
Los detectores de IA defectuosos no son una señal de problemas con ChatGPT en sí, pero el chatbot sigue siendo la causa principal del problema.
ChatGPT es demasiado bueno para su propio bien
He estado jugando con ChatGPT desde que salió al público. Probé tanto el ChatGPT Plus basado en suscripción como el modelo gratuito disponible para todos. La potencia del nuevo GPT-4 es innegable. ChatGPT ahora es aún más creíble que antes, y solo mejorará con GPT-5 ( si es que alguna vez sale a la luz ).
Es genial, pero da miedo. ChatGPT se está volviendo demasiado bueno para su propio bien y, al mismo tiempo, para nuestro propio bien.
En el fondo de todo esto se encuentra una simple preocupación que se ha explorado durante mucho tiempo en varias películas de ciencia ficción: la IA es simplemente demasiado inteligente y demasiado tonta al mismo tiempo, y mientras pueda usarse para el bien, también será usado para mal de tantas maneras. Las formas que mencioné anteriormente son solo la punta del iceberg.