OpenAI está construyendo un nuevo equipo para evitar que la IA superinteligente se vuelva rebelde

Si las personas que están a la vanguardia de la tecnología de inteligencia artificial están comentando sobre los efectos potencialmente catastróficos de los sistemas de IA altamente inteligentes, entonces probablemente sea prudente sentarse y prestar atención.

Hace solo un par de meses, Geoffrey Hinton, un hombre considerado uno de los "padrinos" de la IA por su trabajo pionero en el campo, dijo que el rápido ritmo de desarrollo de la tecnología significaba que "no era inconcebible" que la IA superinteligente, considerada por ser superior a la mente humana, podría acabar acabando con la humanidad.

Y Sam Altman, CEO de OpenAI, la compañía detrás del chatbot viral ChatGPT , admitió estar "un poco asustado" por los efectos potenciales de los sistemas avanzados de IA en la sociedad.

Altman está tan preocupado que el miércoles su compañía anunció que creará una nueva unidad llamada Superalignment con el objetivo de garantizar que la IA superinteligente no termine causando caos o algo mucho peor.

“La superinteligencia será la tecnología más impactante que la humanidad haya inventado y podría ayudarnos a resolver muchos de los problemas más importantes del mundo”, dijo OpenAI en una publicación que presenta la nueva iniciativa. “Pero el vasto poder de la superinteligencia también podría ser muy peligroso y podría llevar a la pérdida de poder de la humanidad o incluso a la extinción humana”.

OpenAI dijo que aunque la IA superinteligente puede parecer que está muy lejos, cree que podría desarrollarse para 2030. Y admite fácilmente que en el momento actual, no existe ningún sistema "para dirigir o controlar una IA potencialmente superinteligente, y evitar que volviéndose pícaro.”

Para hacer frente a la situación, OpenAI quiere construir un "investigador de alineación automatizado de nivel aproximadamente humano" que realice controles de seguridad en una IA superinteligente, y agrega que la gestión de estos riesgos también requerirá nuevas instituciones para la gobernanza y la resolución del problema de la alineación de superinteligencia.

Para que Superalignment tenga efecto, OpenAI necesita reunir un equipo de primera de los mejores investigadores e ingenieros de aprendizaje automático.

La compañía parece muy franca sobre su esfuerzo, describiéndolo como un "objetivo increíblemente ambicioso" y al mismo tiempo admitiendo que "no está garantizado que tenga éxito". Pero agrega que es "optimista que un esfuerzo concentrado y concertado pueda resolver este problema".

Las nuevas herramientas de IA como ChatGPT de OpenAI y Bard de Google, entre muchas otras, son tan revolucionarias que los expertos están seguros de que incluso en este nivel previo a la superinteligencia, el lugar de trabajo y la sociedad en general enfrentan cambios fundamentales a corto plazo.

Es por eso que los gobiernos de todo el mundo se esfuerzan por ponerse al día, moviéndose apresuradamente para imponer regulaciones a la industria de IA en rápido desarrollo en un intento por garantizar que la tecnología se implemente de manera segura y responsable. Sin embargo, a menos que se forme un solo organismo, cada país tendrá sus propios puntos de vista sobre la mejor manera de utilizar la tecnología, lo que significa que esas regulaciones podrían variar ampliamente y conducir a resultados marcadamente diferentes. Y son estos diferentes enfoques los que harán que el objetivo de Superalignment sea aún más difícil de lograr.