Los vídeos de Sora 2 de OpenAI desatan una alarmante tendencia de contenido gordofóbico generado por IA.
¿Qué sucedió?: El CEO de Netflix, Ted Sarandos, habló sobre cómo la IA es una nueva herramienta increíble que ayudará a la gente a “contar historias mejor, más rápido y de formas nuevas”. Suena genial, ¿verdad?
- Pero esta es la realidad: mientras él dice eso, la nueva herramienta de creación de videos de OpenAI , Sora 2, se está utilizando para inundar Internet con algunos de los contenidos más feos imaginables .
- Estamos hablando de una oleada de vídeos de «comedia» abiertamente gordofóbicos y racistas en Instagram, YouTube y TikTok. Hay quienes usan Sora 2 —que permite crear clips increíblemente realistas— para crear y compartir vídeos con el único fin de ser crueles.
- Los ejemplos son simplemente horribles. Hay un vídeo viral, visto casi un millón de veces, de una mujer con sobrepeso haciendo puenting, solo para que el puente se "derrumbe" bajo sus pies. Otro muestra a una mujer negra "cayendo a través del suelo de un KFC", lo cual es una repugnante mezcla de racismo y discriminación por el aspecto físico. También hay otros que muestran a repartidores cayendo a través de porches o "hinchándose" después de comer.
- ¿Y lo más aterrador? Mucha gente que ve estos vídeos piensa que son reales.
¿Por qué es importante?: Este es el gran problema de la IA del que nadie quiere hablar. Ha disparado la creación de contenido de odio.
- Lo que antes le llevaba mucho tiempo a alguien con verdaderas habilidades de producción, ahora cualquier persona llena de odio puede generarlo en segundos.
- Esto no es solo “mal gusto”, es una verdadera crisis ética. Es una forma de producir en masa y amplificar los estereotipos más dañinos sobre las personas, todo para obtener una risa fácil.
- Esto también demuestra que las supuestas medidas de seguridad que estas empresas de IA, como OpenAI, afirman que tienen sus herramientas están fallando estrepitosamente. Se supone que deben bloquear precisamente este tipo de contenido violento y de odio, pero es evidente que no lo hacen.
¿Por qué debería importarme?: Si usas redes sociales, ya lo estás viendo. Esto no es solo troleo inofensivo en línea.
- Esta basura influye en cómo las personas ven el mundo, especialmente los niños.
- Y como mucha gente no puede distinguir entre lo generado por IA y lo real, se difumina por completo la línea entre la realidad, el humor negro y el odio puro y sin adulterar.
- Y, por supuesto, cuando uno de estos vídeos se vuelve viral, anima a una docena de personas más a hacer sus propias versiones para conseguir clics y "me gusta".
¿Qué sigue?: Hasta ahora, OpenAI ha guardado completo silencio sobre esta nueva ola de contenido gordofóbico.
- Pero esto está propiciando una conversación incómoda pero muy necesaria sobre quién es responsable cuando estas poderosas herramientas se utilizan para dañar y acosar a las personas.
- Los reguladores están empezando a prestar atención. A medida que estas herramientas de IA se vuelven tan fáciles de usar como un filtro, el verdadero desafío será encontrar la manera de evitar que toda esta "creatividad" se produzca a costa de nuestra propia humanidad.
