Meta está entrenando IA con sus datos. Los usuarios dicen que darse de baja no funciona.
Imagine un gigante tecnológico que le dice que quiere que sus publicaciones de Instagram y Facebook entrenen sus modelos de IA. Y eso también, sin ningún incentivo. Sin embargo, puede optar por no participar, según la empresa. Pero a medida que avanzas con las herramientas oficiales para dar marcha atrás y evitar que la IA se trague tu contenido social, simplemente no funcionan.
Esto es lo que ahora informan los usuarios de Facebook e Instagram. Nate Hake, editor y jefe fundador de Travel Lemming, compartió que recibió un correo electrónico de Meta sobre el uso de su contenido de redes sociales para el entrenamiento de IA. Sin embargo, el enlace al formulario de exclusión proporcionado por Meta no funciona.
Pero esa no es la peor parte. Meta aseguró recientemente que respetará la elección de los usuarios que no quieren que sus datos se utilicen para el entrenamiento de IA. Hake afirma que Meta no tomará ninguna medida ante su solicitud. En cambio, recibió una respuesta que decía que la empresa “no puede tomar más medidas” según su deseo.
¿Lo que está sucediendo?

En 2018, cuando Meta se llamaba Facebook, la compañía reveló que estaba entrenando algoritmos de inteligencia artificial utilizando millones de imágenes compartidas en Instagram. Los modelos epónimos Meta AI y Llama AI no existían en ese momento. Pero ya era un mal augurio para lo que vendría.
Si avanzamos hasta 2025, tenemos un gigante de las redes sociales que está apostando todo por la IA, que está notoriamente hambrienta de poder y más datos de entrenamiento. Los usuarios de metaplataformas, como Instagram y Facebook, ahora están descubriendo que sus datos están siendo enviados a una IA y que la herramienta de exclusión voluntaria bloqueada por región simplemente no funciona.
Meta ha estado capacitándose sobre contenido compartido por usuarios durante años, pero dada la pendiente resbaladiza de las leyes de derechos de autor y la privacidad de los usuarios, la empresa enfrentó mucha presión regulatoria. Finalmente, en junio del año pasado, la compañía dijo que suspendería sus planes para entrenar su sistema de inteligencia artificial con los datos sociales de los usuarios que residen en la región de la UE.

Sin embargo, menos de un año después, la compañía reveló que comenzará a recopilar contenido de usuario como fotos, videos, comentarios y chats con Meta AI de usuarios que viven en la UE y el Reino Unido . Meta razonó que este es un modus operandi estándar que ha estado siguiendo durante años en todo el mundo.
"Estamos siguiendo el ejemplo de otros, incluidos Google y OpenAI, que ya han utilizado datos de usuarios europeos para entrenar sus modelos de IA", dijo la compañía en una publicación de blog oficial.
Que opten por no participar, si pueden.
A mediados de abril de este año, Meta dijo que comenzaría a informar a los usuarios del bloque de la UE y del Reino Unido sobre su cambio en la política de capacitación en IA. La compañía señaló que informaría a los usuarios mediante una notificación en la aplicación y les enviaría un correo electrónico oficial.
"Estas notificaciones también incluirán un enlace a un formulario donde las personas podrán oponerse a que sus datos sean utilizados de esta manera en cualquier momento", dijo la compañía. Meta aseguró que el formulario de objeción sería fácil de localizar para los usuarios de Instagram y Facebook y proporcionaría toda la información necesaria en un lenguaje sencillo.

Según Hake, el enlace de exclusión proporcionado por Meta no funciona. Varios usuarios que respondieron a su publicación también mencionaron una situación similar, criticando a Meta por su conducta turbia. No está claro si el formulario de exclusión voluntaria que no responde es un problema técnico o algo así.
Hake, sin embargo, señala el absoluto desprecio por la elección del usuario y el aparente cambio de sentido por parte de la empresa. Meta prometió hace poco más de una semana que "aceptaría todos los formularios de objeción que ya hemos recibido, así como los recién enviados".
Según Hake, cuando se comunicó con Meta con la solicitud y el problema del formulario de exclusión voluntaria, el ejecutivo de la compañía respondió que no tomarían ninguna medida adicional con respecto a su solicitud. Meta afirma que se enorgullece de su enfoque transparente hacia el uso de contenido social para la capacitación en IA, pero parece que la compañía no vigila si está ejecutando esos compromisos de manera justa.