ChatGPT está violando su privacidad, dice una importante queja del RGPD
Desde que las primeras herramientas de inteligencia artificial (IA) generativa irrumpieron en la escena tecnológica, ha habido dudas sobre de dónde obtienen sus datos y si están recopilando sus datos privados para entrenar sus productos. Ahora, el fabricante de ChatGPT, OpenAI, podría estar en problemas exactamente por estas razones.
Según TechCrunch , se presentó una queja ante la Oficina Polaca de Protección de Datos Personales alegando que ChatGPT viola una gran cantidad de reglas que se encuentran en el Reglamento General de Protección de Datos (GDPR) de la Unión Europea. Sugiere que la herramienta de OpenAI ha estado recopilando datos de los usuarios de todo tipo de formas cuestionables.
La queja dice que OpenAI ha violado las reglas del GDPR sobre bases legales, transparencia, equidad, derechos de acceso a datos y privacidad por diseño.
Estas parecen ser acusaciones graves. Después de todo, el demandante no alega que OpenAI simplemente haya violado una o dos reglas, sino que ha contravenido una multitud de protecciones diseñadas para evitar que los datos privados de las personas sean utilizados y abusados sin su permiso. Visto desde un punto de vista, podría interpretarse como un incumplimiento casi sistemático de las normas que protegen la privacidad de millones de usuarios.
Chatbots en la línea de fuego
No es la primera vez que OpenAI se encuentra en la mira. En marzo de 2023, entró en conflicto con los reguladores italianos, lo que llevó a que ChatGPT fuera prohibido en Italia por violar la privacidad del usuario. Es otro dolor de cabeza para el chatbot de IA generativa viral en un momento en que rivales como Google Bard están levantando la cabeza.
Y OpenAI no es el único fabricante de chatbots que plantea preocupaciones sobre la privacidad. A principios de agosto de 2023, Meta, propietario de Facebook, anunció que comenzaría a crear sus propios chatbots , lo que generó temores entre los defensores de la privacidad sobre qué datos privados recopilaría la empresa notoriamente adversa a la privacidad.
Las infracciones del RGPD pueden dar lugar a multas de hasta el 4% de la facturación anual global para las empresas sancionadas, lo que podría llevar a que OpenAI se enfrente a una multa enorme si se aplica. Si los reguladores fallan en contra de OpenAI, es posible que tenga que modificar ChatGPT hasta que cumpla con las reglas, como sucedió con la herramienta en Italia.
Podrían venir multas enormes
La queja polaca fue presentada por un investigador de seguridad y privacidad llamado Lukasz Olejnik, quien se preocupó por primera vez cuando usó ChatGPT para generar una biografía de sí mismo, que descubrió que estaba llena de afirmaciones e información objetivamente inexactas.
Luego se puso en contacto con OpenAI, pidió que se corrigieran las imprecisiones y también solicitó que le enviaran información sobre los datos que OpenAI había recopilado sobre él. Sin embargo, afirma que OpenAI no proporcionó toda la información que exige el RGPD, lo que sugiere que no estaba siendo ni transparente ni justo.
El RGPD también establece que se debe permitir a las personas corregir la información que una empresa tiene sobre ellos si es inexacta. Sin embargo, cuando Olejnik le pidió a OpenAI que rectificara la biografía errónea que ChatGPT escribió sobre él, dice que OpenAI afirmó que no podía hacerlo. La denuncia sostiene que esto sugiere que OpenAI "ignora completamente la regla del GDPR en la práctica".
No es una buena imagen para OpenAI, ya que parece estar infringiendo numerosas disposiciones de una parte importante de la legislación de la UE. Dado que podría afectar potencialmente a millones de personas, las sanciones podrían ser muy elevadas. Esté atento a cómo se desarrolla esto, ya que podría generar cambios masivos no solo para ChatGPT, sino también para los chatbots de IA en general.