El creador de ChatGPT lanza un programa de recompensas por errores con recompensas en efectivo
ChatGPT aún no es tan inteligente como para encontrar sus propios defectos, por lo que su creador está recurriendo a los humanos en busca de ayuda.
OpenAI presentó el martes un programa de recompensas por errores, alentando a las personas a localizar y reportar vulnerabilidades y errores en sus sistemas de inteligencia artificial, como ChatGPT y GPT-4 .
En una publicación en su sitio web que describe los detalles del programa, OpenAI dijo que las recompensas por los informes oscilarán entre $ 200 por hallazgos de baja gravedad hasta $ 20,000 por lo que llamó "descubrimientos excepcionales".
La compañía respaldada por Microsoft dijo que su ambición es crear sistemas de IA que “beneficien a todos”, y agregó: “Con ese fin, invertimos mucho en investigación e ingeniería para garantizar que nuestros sistemas de IA estén seguros y protegidos. Sin embargo, como con cualquier tecnología compleja, entendemos que pueden surgir vulnerabilidades y fallas”.
Dirigiéndose a los investigadores de seguridad interesados en involucrarse en el programa, OpenAI dijo que reconoce “la importancia crítica de la seguridad y la ve como un esfuerzo de colaboración. Al compartir sus hallazgos, jugará un papel crucial para hacer que nuestra tecnología sea más segura para todos”.
Con más y más personas probando ChatGPT y otros productos de OpenAI, la compañía desea rastrear rápidamente cualquier problema potencial para garantizar que los sistemas funcionen sin problemas y evitar que se exploten las debilidades con fines nefastos. Por lo tanto, OpenAI espera que al comprometerse con la comunidad tecnológica pueda resolver cualquier problema antes de que se convierta en un problema más grave.
La empresa con sede en California ya ha tenido un susto en el que una falla expuso los títulos de las conversaciones de algunos usuarios cuando deberían haberse mantenido en privado.
Sam Altman, director ejecutivo de OpenAI, dijo después del incidente del mes pasado que consideraba el percance de privacidad como un "problema importante", y agregó: "Nos sentimos muy mal por esto". Ahora se ha arreglado.
El error se convirtió en un problema mayor para OpenAI cuando Italia expresó su seria preocupación por la violación de la privacidad y decidió prohibir ChatGPT mientras lleva a cabo una investigación exhaustiva. Las autoridades italianas también exigen detalles de las medidas que OpenAI pretende tomar para evitar que vuelva a suceder.