ChatGPT podría solicitar identificación, dice el director de OpenAI
OpenAI habló recientemente sobre la introducción de controles parentales para ChatGPT antes de fin de mes.
La compañía detrás de ChatGPT también ha revelado que está desarrollando un sistema automatizado de predicción de edad diseñado para determinar si un usuario es menor de 18 años, después de lo cual ofrecerá una experiencia apropiada para su edad con el popular chatbot impulsado por IA.
Si en algunos casos el sistema no puede predecir la edad de un usuario, OpenAI podría solicitar su identificación para poder ofrecer la experiencia más adecuada.
El plan fue compartido esta semana en una publicación del CEO de OpenAI, Sam Altman, quien señaló que ChatGPT está destinado a personas de 13 años o más.
Altman afirmó que la edad de un usuario se predecirá en función de cómo se use ChatGPT. "En caso de duda, iremos a lo seguro y usaremos la experiencia para menores de 18 años", declaró el director ejecutivo. "En algunos casos o países, también podríamos solicitar una identificación; sabemos que esto compromete la privacidad de los adultos, pero creemos que es una compensación que vale la pena".
Altman dijo que quería que los usuarios interactuaran con ChatGPT de la manera que quisieran, "dentro de límites muy amplios de seguridad".
Al profundizar en el tema, el CEO señaló que la versión predeterminada de ChatGPT no es particularmente coqueta, pero dijo que si un usuario solicita dicho comportamiento, el chatbot responderá en consecuencia.
Altman también dijo que la versión predeterminada no debería proporcionar instrucciones sobre cómo alguien puede quitarse la vida, pero agregó que si un usuario adulto pide ayuda para escribir una historia de ficción que represente un suicidio, entonces "el modelo debería ayudar con esa solicitud".
“'Tratar a nuestros usuarios adultos como adultos' es nuestra forma de hablar de esto internamente: extender la libertad lo más posible sin causar daño ni socavar la libertad de nadie más”, escribió Altman.
Pero dijo que en los casos en que el usuario sea identificado como menor de 18 años, las conversaciones coquetas y también los comentarios sobre suicidio serán excluidos de forma general.
Altman agregó que si un usuario menor de 18 años expresa pensamientos suicidas en ChatGPT, "intentaremos comunicarnos con los padres del usuario y, si no podemos, nos comunicaremos con las autoridades en caso de daño inminente".
La iniciativa de OpenAI para implementar controles parentales y verificación de edad surge tras una demanda de alto perfil presentada contra la empresa por una familia que alega que ChatGPT actuó como un "entrenador de suicidio" y contribuyó al suicidio de su hijo adolescente, Adam Raine, quien, según se informa, recibió asesoramiento detallado sobre métodos de suicidio durante muchas interacciones con el chatbot de OpenAI.
Esto también ocurre en medio de un creciente escrutinio por parte del público y los reguladores sobre los riesgos que los chatbots de IA representan para los menores vulnerables en áreas como daños a la salud mental y exposición a contenido inapropiado.
