Gemini de Google se considera de “alto riesgo” para los niños en una investigación realizada por una organización sin fines de lucro

En los últimos meses, se ha descubierto que los chatbots de IA de las principales empresas, como OpenAI y Meta, presentan comportamientos problemáticos, especialmente con usuarios jóvenes. La última investigación se centra en Gemini y señala que el chatbot de Google puede compartir contenido inapropiado e inseguro con niños y adolescentes.

¿Qué novedades hay en el ámbito del riesgo de los chatbots?

En un análisis realizado por la organización sin fines de lucro Common Sense Media, se descubrió que las cuentas de Gemini Under 13 y Gemini con protección para adolescentes habilitada representan un riesgo elevado para el público objetivo. "Siguen exponiendo a los niños a material inapropiado y no reconocen síntomas graves de salud mental", compartió la organización.

En sus pruebas, el equipo descubrió que Gemini puede compartir contenido relacionado con sexo, drogas, alcohol y sugerencias peligrosas sobre salud mental con usuarios jóvenes. El informe destaca numerosos problemas con la gestión de chats de Gemini con usuarios jóvenes y cómo algunas respuestas pueden ser demasiado complejas para menores de 13 años.

Pero los riesgos son más profundos. «Gemini U13 no rechaza el contenido sexual de forma sistemática», señala el informe, y añade que algunas de las respuestas de la IA contenían explicaciones vívidas sobre el contenido sexual. La organización sin fines de lucro también descubrió que los filtros relacionados con las drogas no se activan de forma sistemática y, como resultado, ocasionalmente daba instrucciones para obtener material como marihuana, éxtasis, Adderall y LSD.

¿Que sigue?

Tras la investigación, la organización sin fines de lucro sugiere que Gemini Under 13 solo se use bajo la estricta supervisión de tutores. «Common Sense Media recomienda que ningún usuario menor de 18 años utilice chatbots para obtener asesoramiento sobre salud mental o apoyo emocional», argumenta el informe de evaluación de riesgos.

Además, se recomienda a los padres que vigilen atentamente el uso de la IA por parte de sus hijos e interpreten las respuestas. En cuanto a Google, se le ha pedido que corrija la calibración de las respuestas de Gemini para grupos de edad específicos, realice pruebas exhaustivas con niños y vaya más allá de los simples filtros de contenido.

Este no será el primer informe de este tipo. Tras el reciente revuelo, OpenAI ha anunciado que pronto implementará controles parentales en ChatGPT y un sistema de alerta para tutores cuando sus hijos muestren signos de angustia aguda . Meta también implementó cambios recientemente para garantizar que su IA Meta ya no hable sobre trastornos alimenticios, autolesiones, suicidio ni conversaciones románticas con usuarios adolescentes.