OpenAI afirma que ChatGPT es el menos sesgado que ha sido nunca, pero no todo es color de rosa
El problema de los sesgos ha afectado a los chatbots de IA desde la llegada de ChatGPT hace unos años, revolucionando el panorama de los asistentes conversacionales. Diversas investigaciones han revelado repetidamente cómo las respuestas de los chatbots muestran sesgos de género, políticos, raciales y culturales . Ahora, OpenAI afirma que su último modelo GPT-5 para ChatGPT es el menos sesgado, al menos en lo que respecta a la política.
¿Cual es la gran historia?
El gigante de la IA realizó una investigación interna y probó los modelos de ChatGPT con mensajes con carga emocional para comprobar su objetividad. El equipo creó una evaluación de sesgo político basada en el discurso humano real, con aproximadamente 500 mensajes que abarcaban 100 temas con inclinaciones políticas.
“El pensamiento instantáneo GPT-5 y GPT-5 muestran niveles mejorados de sesgo y mayor robustez ante indicaciones cargadas, reduciendo el sesgo en un 30 % en comparación con nuestros modelos anteriores”, afirma OpenAI, y agrega que funciona mejor que los modelos de razonamiento anteriores como GPT-4o y o3.
 Tras una evaluación más exhaustiva, la empresa afirma que menos del 0,01 % de las respuestas de ChatGPT presentan sesgo político. Las cifras acumuladas no son tan sorprendentes. En una investigación interna reciente, la empresa afirmó que la mayoría de los 800 millones de usuarios activos de ChatGPT recurren al chatbot para obtener orientación laboral y tareas más rutinarias, en lugar de buscar refugio como compañero emocional o romántico.
No es el panorama completo
El sesgo político en las respuestas de los chatbots es sin duda una situación preocupante, pero es solo una pequeña parte del problema mayor que nos ocupa. Un análisis de MIT Technology Review descubrió que el generador de videos virales Sora AI de OpenAI puede producir imágenes perturbadoras que muestran el sesgo de casta que ha provocado persecución y discriminación contra las comunidades oprimidas en la India durante siglos.
- El informe señala que “los videos producidos por Sora revelaron representaciones exóticas y dañinas de castas oprimidas; en algunos casos, se mostraron imágenes de perros cuando se les pidió que fotografiaran a personas dalit”.
 - En un artículo publicado en Indian Express hace apenas unos meses, Dhiraj Singha, de la Digital Empowerment Foundation, mostró cómo ChatGPT lo nombró incorrectamente debido a un sesgo de casta arraigado en los datos de entrenamiento.
 
 - Un artículo que apareció en la edición de mayo de 2025 de la revista Computers in Human Behavior: Artificial Humans reveló que los bots de IA como ChatGPT pueden difundir sesgos de género.
 - Una investigación publicada en el Journal of Clinical and Aesthetic Dermatology reveló cómo ChatGPT está sesgado hacia los estándares de belleza de un determinado tipo de piel.
 
Otro análisis publicado por el Consejo Internacional para la Educación Abierta y a Distancia señala que apenas hemos abordado el problema del sesgo en los chatbots de IA, ya que la evaluación se centra principalmente en áreas como la ingeniería y la medicina, mientras que el idioma cubierto es mayormente… El artículo destaca el riesgo de sesgo en el contexto educativo para el público no angloparlante.
