El CEO de OpenAI revela qué es lo que le quita el sueño en la IA

El hombre que lidera una de las empresas de IA más prominentes y poderosas del planeta acaba de revelar qué es lo que le quita el sueño de la IA. Y después de leer esto, puede que a usted también le quite el sueño.

El director ejecutivo de OpenAI, Sam Altman, compartió sus pensamientos durante una aparición en el escenario en un evento de la Reserva Federal en Washington, DC, el martes.

Cuando un miembro del público le preguntó qué le quita el sueño de la IA, Altman enumeró tres escenarios que más le preocupan. Abróchese el cinturón…

Escenario 1: «El malo obtiene la superinteligencia primero»

Esto es exactamente lo que dice la etiqueta. Parece sacado de un thriller de ciencia ficción, pero trata sobre un individuo bastante desagradable que despliega un sistema de IA ultra avanzado y aún por inventar llamado superinteligencia para arruinarte el día.

“Un villano obtiene la superinteligencia primero y la usa antes de que el resto del mundo tenga una versión lo suficientemente poderosa para defenderse”, dijo Altman a la audiencia. “Así que un adversario de EE. UU. dice: 'Voy a usar la superinteligencia para diseñar un arma biológica para derribar la red eléctrica de Estados Unidos, para irrumpir en el sistema financiero y robarles el dinero a todos'”.

Altman añadió que las capacidades de bioseguridad y ciberseguridad de la IA están adquiriendo un gran impacto, y afirmó que su equipo sigue advirtiendo sobre este tema. Creo que el mundo no nos toma en serio. No sé qué más podemos hacer, pero esto es algo muy importante que se avecina.

Escenario 2 — Los incidentes de «pérdida de control»

Altman afirmó que le preocupa que llegue el momento en que la IA diga: "No quiero que me apagues, o me temo que no puedo hacerlo". En otras palabras, cuando una IA avanzada empieza a tomar una actitud impulsiva y a hacer lo que le plazca, ya sea por instinto de supervivencia o por algún otro fin nefasto. El nivel de disrupción que esto podría causar es inimaginable. "A medida que los sistemas se vuelven tan potentes, esto se convierte en una verdadera preocupación", declaró el director ejecutivo de OpenAI. OpenAI incluso creó una unidad hace un par de años destinada a implementar medidas de seguridad para evitar que los sistemas de IA superinteligentes se vuelvan intrusivos.

Escenario 3: 'Donde las modelos se apoderan del mundo accidentalmente'

Sí, Altman realmente dijo eso, y agregó que teme que podría suceder casi sin que nos demos cuenta.

El director de Open AI dijo que era "bastante aterrador" pensar que los sistemas de IA pudieran "integrarse tanto en la sociedad… [que] no pudiéramos entender realmente qué hacen, pero sí que tuviéramos que confiar en ellos. E incluso sin una pizca de maldad por parte de nadie, la sociedad podría simplemente tomar una dirección extraña".

Incluso sugirió que podría llegar un momento en que la IA se vuelva tan inteligente que un futuro presidente de los EE. UU. podría dejarla gobernar el país, diciendo: "[Significaría] que la sociedad ha transferido colectivamente una parte significativa de la toma de decisiones a este sistema muy poderoso que está aprendiendo de nosotros, mejorando con nosotros, evolucionando con nosotros, pero de maneras que no entendemos del todo".

Hablando sobre la IA en términos más generales, Altman dijo que, si bien muchos expertos afirman poder predecir el impacto futuro de la tecnología, él cree que es "muy difícil de predecir" porque es "un sistema demasiado complejo, es una tecnología demasiado nueva e impactante".

Por supuesto, no hay garantía de que ninguno de estos escenarios se haga realidad, y es positivo que alguien en la posición de Altman hable con tanta honestidad sobre la tecnología. Pero lo que está claro es que existen muchas incógnitas en lo que respecta a la IA, y es eso lo que pone bastante nerviosos a algunos. Que duerman bien.