OpenAI quiere contratar a alguien para gestionar los riesgos de ChatGPT que no se pueden predecir

OpenAI apuesta fuerte por un puesto diseñado para frenar los riesgos de la IA antes de que se agraven. La compañía ha anunciado un nuevo puesto sénior llamado Jefe de Preparación, un puesto centrado en identificar y reducir los peligros más graves que podrían surgir de los chatbots de IA avanzados. Esta responsabilidad incluye una remuneración de 555.000 dólares, más acciones, que llamará la atención.

En una publicación pública que anunciaba la apertura, Sam Altman la calificó como "un rol crítico en un momento importante", y señaló que si bien los modelos de IA ahora son capaces de "muchas cosas grandiosas", también están "comenzando a presentar algunos desafíos reales".

Lo que realmente hará el Jefe de Preparación

La persona que ocupe este puesto se centrará en los riesgos extremos, pero realistas, de la IA, incluyendo el uso indebido, las amenazas a la ciberseguridad, las preocupaciones biológicas y los daños sociales más amplios. Sam Altman afirmó que OpenAI necesita ahora una comprensión más matizada de cómo se podría abusar de las crecientes capacidades sin bloquear los beneficios.

Tampoco edulcoró el trabajo. "Este será un trabajo estresante", escribió Altman, y añadió que quien lo acepte se lanzará "al agua casi de inmediato".

La contratación llega en un momento delicado para OpenAI , que se ha enfrentado a un creciente escrutinio regulatorio sobre la seguridad de la IA durante el último año . Esta presión se ha intensificado ante las acusaciones que vinculan las interacciones de ChatGPT con varios casos de suicidio, lo que genera una preocupación más amplia sobre el impacto de la IA en la salud mental .

En un caso, los padres de un joven de 16 años demandaron a OpenAI después de alegar que el chatbot alentó a su hijo a planificar su propio suicidio, lo que llevó a la compañía a implementar nuevas medidas de seguridad para usuarios menores de 18 años .

Otra demanda afirma que ChatGPT alimentó delirios paranoicos en un caso separado que terminó en asesinato y suicidio, lo que llevó a OpenAI a decir que está trabajando en mejores formas de detectar angustia, reducir la intensidad de las conversaciones y dirigir a los usuarios al soporte del mundo real.

El impulso de seguridad de OpenAI llega en un momento en el que millones de personas informan de una dependencia emocional de ChatGPT y los reguladores están investigando los riesgos para los niños , lo que subraya por qué la preparación es importante más allá de la ingeniería.

La publicación OpenAI quiere contratar a alguien para manejar los riesgos de ChatGPT que no se pueden predecir apareció primero en Digital Trends .