ChatGPT introduce normas de seguridad para proteger a los adolescentes y fomentar las relaciones humanas a través de amigos virtuales.
OpenAI acaba de actualizar su "Especificación de Modelo" (básicamente, el reglamento de su IA) con un conjunto específico de Principios Sub-18 (U18) diseñados para cambiar la forma en que ChatGPT se comunica con adolescentes de entre 13 y 17 años. Esta medida supone una clara admisión de que los adolescentes no son solo "adultos en miniatura"; tienen diferentes necesidades emocionales y de desarrollo que requieren medidas de seguridad más estrictas, especialmente cuando las conversaciones se vuelven intensas o arriesgadas.
Un nuevo marco para las interacciones de IA centradas en los adolescentes
Esta actualización explica con precisión cómo ChatGPT debe gestionar a los usuarios adolescentes, respetando las normas generales aplicables al resto de la comunidad. OpenAI afirma que el objetivo es crear una experiencia más segura y apropiada para cada edad, priorizando la prevención y la transparencia.
Estas tampoco son simplemente reglas aleatorias; los Principios U18 se basan en la ciencia del desarrollo y fueron examinados por expertos externos, incluida la Asociación Americana de Psicología.
El marco se basa en cuatro promesas principales: poner la seguridad de los adolescentes por encima de todo lo demás (incluso si eso hace que la IA sea menos "útil" en el momento), impulsar a los adolescentes hacia el apoyo del mundo real en lugar de permitirles depender de un chatbot, tratarlos como adolescentes reales en lugar de niños pequeños o adultos, y ser honesto acerca de las limitaciones de la IA.
Estos principios formalizan cómo ChatGPT interviene con extra precaución cuando surgen temas como autolesiones, juegos de roles sexuales, desafíos peligrosos, uso de sustancias, problemas de imagen corporal o solicitudes de guardar secretos sobre comportamientos inseguros.
Qué significa esto para las familias y qué viene después
Esto es importante porque la IA se está convirtiendo rápidamente en una herramienta estándar para que los jóvenes aprendan y encuentren respuestas. Sin límites claros, existe un peligro real de que los adolescentes recurran a la IA en momentos en que realmente necesitan la ayuda de un padre, un médico o un consejero.
OpenAI afirma que estas nuevas reglas garantizan que, cuando una conversación se torna peligrosa, el asistente ofrecerá alternativas más seguras, establecerá límites estrictos y le indicará al adolescente que busque a un adulto de confianza. Si la situación parece una emergencia inmediata, el sistema está configurado para dirigirlo a líneas telefónicas de crisis o servicios de emergencia.
Para los padres, esto ofrece un poco más de tranquilidad. OpenAI está vinculando estos nuevos principios con su Plan de Seguridad para Adolescentes y los controles parentales existentes. Las protecciones también se están ampliando para incluir funciones más recientes como los chats grupales , el navegador ChatGPT Atlas y la aplicación Sora, además de recordatorios integrados para tomar un descanso y que los niños no estén pegados a la pantalla.
De cara al futuro, OpenAI está empezando a implementar una herramienta de predicción de edad para cuentas personales de ChatGPT. Este sistema intentará determinar si un usuario es menor de edad y activará automáticamente estas protecciones para adolescentes.
Si no está seguro, se configura automáticamente la experiencia más segura para menores de 18 años, por si acaso. La compañía afirma que no se trata de una solución única; planean seguir ajustando estas protecciones basándose en nuevas investigaciones y comentarios, dejando claro que la seguridad de los adolescentes será un proyecto a largo plazo.
La publicación ChatGPT establece reglas de seguridad para proteger a los adolescentes y fomentar las relaciones humanas a través de amigos virtuales apareció primero en Digital Trends .
