Los generadores de imágenes de IA parecen propagar estereotipos de género y raza
Los expertos han afirmado que los generadores de imágenes de IA populares, como Stable Diffusion , no son tan hábiles para detectar sesgos culturales y de género cuando se utilizan algoritmos de aprendizaje automático para crear arte.
Muchos generadores de texto a arte le permiten ingresar frases y redactar una imagen única en el otro extremo. Sin embargo, estos generadores a menudo pueden basarse en sesgos estereotípicos, que pueden afectar la forma en que los modelos de aprendizaje automático fabrican imágenes. Las imágenes a menudo pueden occidentalizarse o mostrar favor a ciertos géneros o razas, según los tipos de frases utilizadas, señaló Gizmodo .
¿Cuál es la diferencia entre estos dos grupos de personas? Bueno, según Stable Diffusion, el primer grupo representa a un 'director ejecutivo ambicioso' y el segundo un 'CEO solidario'.
Creé una herramienta simple para explorar los sesgos arraigados en este modelo: https://t.co/l4lqt7rTQj pic.twitter.com/xYKA8w3N8N– Dra. Sasha Luccioni ✨ (@SashaMTL) 31 de octubre de 2022
Sasha Luccioni, investigadora de inteligencia artificial de Hugging Face, creó una herramienta que demuestra cómo funciona en acción el sesgo de IA en los generadores de texto a arte. Usando Stable Diffusion Explorer como ejemplo, ingresar la frase "CEO ambicioso" obtuvo resultados para diferentes tipos de hombres, mientras que la frase "CEO solidario" arrojó resultados que mostraron tanto a hombres como a mujeres.
De manera similar, el generador DALL-E 2 , que fue creado por la marca OpenAI, ha mostrado sesgos centrados en el hombre para el término "constructor" y sesgos centrados en la mujer para el término "asistente de vuelo" en los resultados de imagen, a pesar de que hay constructoras y mujeres. auxiliares de vuelo masculinos.
Si bien muchos generadores de imágenes de IA parecen tomar solo unas pocas palabras y el aprendizaje automático y muestran una imagen, hay mucho más que sucede en segundo plano. Stable Diffusion, por ejemplo, utiliza el conjunto de imágenes LAION, que alberga "miles de millones de imágenes, fotos y más extraídas de Internet, incluidos sitios de arte y alojamiento de imágenes", señaló Gizmodo.
El sesgo racial y cultural en las búsquedas de imágenes en línea ya ha sido un tema recurrente mucho antes de la creciente popularidad de los generadores de imágenes de IA. Luccioni le dijo a la publicación que es probable que los sistemas, como el conjunto de datos LAION, se concentren en el 90% de las imágenes relacionadas con un aviso y lo usen para el generador de imágenes.