Por qué la IA nunca gobernará el mundo

Llámelo la hipótesis de Skynet, la Inteligencia General Artificial o el advenimiento de la Singularidad: durante años, tanto los expertos como los no expertos en IA se han preocupado (y, para un pequeño grupo, han celebrado) la idea de que la inteligencia artificial algún día puede volverse más inteligente que humanos

De acuerdo con la teoría, los avances en IA, específicamente del tipo de aprendizaje automático que es capaz de tomar nueva información y reescribir su código en consecuencia, eventualmente se pondrán al día con el software húmedo del cerebro biológico. En esta interpretación de los eventos, cada avance de IA desde las máquinas IBM ganadoras de Jeopardy hasta el modelo de lenguaje de IA masivo GPT-3 está acercando a la humanidad un paso más a una amenaza existencial. Literalmente, estamos construyendo nuestros sucesores que pronto serán conscientes .

Excepto que nunca sucederá. Al menos, según los autores del nuevo libro Por qué las máquinas nunca gobernarán el mundo: Inteligencia artificial sin miedo .

Los coautores, el profesor de filosofía de la Universidad de Buffalo, Barry Smith , y Jobst Landgrebe , fundador de la empresa alemana de inteligencia artificial Cognotekt, argumentan que la inteligencia humana no será superada por "un dictador inmortal" en el corto plazo, o nunca. Le dijeron a Digital Trends sus razones.

imagen que representa la IA, con neuronas que se ramifican desde la cabeza humanoide

Digital Trends (DT): ¿Cómo llegó este tema a su radar?

Jobst Landgrebe (JL): Soy médico y bioquímico de formación. Cuando comencé mi carrera, hice experimentos que generaron una gran cantidad de datos. Empecé a estudiar matemáticas para poder interpretar estos datos y vi lo difícil que es modelar sistemas biológicos utilizando las matemáticas. Siempre hubo este desajuste entre los métodos matemáticos y los datos biológicos.

Cuando tenía treinta y tantos años, dejé la academia y me convertí en consultor de negocios y emprendedor trabajando en sistemas de software de inteligencia artificial. Estaba tratando de construir sistemas de IA para imitar lo que pueden hacer los seres humanos. Me di cuenta de que me estaba encontrando con el mismo problema que tuve años antes en biología.

Los clientes me dijeron, '¿por qué no construyes chatbots?' Dije, 'porque no funcionarán; no podemos modelar este tipo de sistema correctamente.' Eso finalmente me llevó a escribir este libro.

Profesor Barry Smith (BS): Pensé que era un problema muy interesante. Ya tenía indicios de problemas similares con la IA, pero nunca los había pensado. Inicialmente, escribimos un artículo llamado ' Hacer que la inteligencia artificial vuelva a ser significativa '. (Esto fue en la era de Trump). Se trataba de por qué las redes neuronales fallan en el modelado del lenguaje. Entonces decidimos ampliar el documento en un libro que explora este tema más profundamente.

DT: Su libro expresa escepticismo sobre la forma en que las redes neuronales, que son cruciales para el aprendizaje profundo moderno, emulan el cerebro humano. Son aproximaciones, en lugar de modelos precisos de cómo funciona el cerebro biológico. Pero, ¿acepta la premisa central de que es posible que, si entendiéramos el cerebro con suficiente detalle granular, podría replicarse artificialmente, y que esto daría lugar a la inteligencia o la sensibilidad?

JL: El nombre 'red neuronal' es completamente inapropiado. Las redes neuronales que tenemos ahora, incluso las más sofisticadas, no tienen nada que ver con la forma en que funciona el cerebro. La opinión de que el cerebro es un conjunto de nodos interconectados en la forma en que se construyen las redes neuronales es completamente ingenua.

Si nos fijamos en la célula bacteriana más primitiva, todavía no entendemos ni siquiera cómo funciona. Entendemos algunos de sus aspectos, pero no tenemos un modelo de cómo funciona, y mucho menos una neurona, que es mucho más complicada, o miles de millones de neuronas interconectadas. Creo que es científicamente imposible entender cómo funciona el cerebro. Solo podemos entender ciertos aspectos y tratar con estos aspectos. No tenemos, y no obtendremos, una comprensión completa de cómo funciona el cerebro.

Si tuviéramos una comprensión perfecta de cómo funciona cada molécula del cerebro, probablemente podríamos replicarla. Eso significaría poner todo en ecuaciones matemáticas. Entonces podrías replicar esto usando una computadora. El problema es que no podemos escribir y crear esas ecuaciones.

perfil de cabeza en inteligencia artificial de chip de computadora
Gráfico de tendencias digitales

BS: Muchas de las cosas más interesantes del mundo están sucediendo a niveles de granularidad a los que no podemos acercarnos. Simplemente no tenemos el equipo de imágenes, y probablemente nunca tendremos el equipo de imágenes, para capturar la mayor parte de lo que sucede en los niveles muy finos del cerebro.

Esto significa que no sabemos, por ejemplo, qué es responsable de la conciencia. Hay, de hecho, una serie de problemas filosóficos bastante interesantes que, según el método que estamos siguiendo, siempre serán irresolubles, por lo que deberíamos simplemente ignorarlos.

Otra es la libertad de la voluntad. Estamos muy a favor de la idea de que los seres humanos tienen voluntad; podemos tener intenciones, metas, etc. Pero no sabemos si es o no un libre albedrío. Ese es un tema que tiene que ver con la física del cerebro. En lo que respecta a la evidencia disponible para nosotros, las computadoras no pueden tener voluntad.

DT: El subtítulo del libro es 'inteligencia artificial sin miedo'. ¿Cuál es el miedo específico al que te refieres?

BS: Eso fue provocado por la literatura sobre la singularidad, que sé que conoces. Nick Bostrom, David Chalmers, Elon Musk y similares. Cuando hablamos con nuestros colegas en el mundo real, nos quedó claro que, de hecho, había cierto temor entre la población de que la IA finalmente se hiciera cargo y cambiara el mundo en detrimento de los humanos.

Tenemos mucho en el libro sobre los argumentos tipo Bostrum. El argumento central contra ellos es que si la máquina no puede tener voluntad, entonces tampoco puede tener una voluntad maligna. Sin una mala voluntad, no hay nada que temer. Ahora, por supuesto, todavía podemos tener miedo a las máquinas, al igual que podemos tener miedo a las armas.

Pero eso es porque las máquinas están siendo manejadas por personas con fines malvados. Pero entonces no es la IA la que es mala; son las personas las que construyen y programan la IA

DT: ¿Por qué esta noción de singularidad o inteligencia artificial general interesa tanto a la gente? Ya sea que les asuste o les fascine, hay algo en esta idea que resuena en la gente en un nivel amplio.

JL: Existe esta idea, iniciada a principios del siglo XIX y luego declarada por Nietzsche a fines de ese siglo, de que Dios está muerto. Dado que las élites de nuestra sociedad ya no son cristianas, necesitaban un reemplazo. Max Stirner, quien fue, como Karl Marx, alumno de Hegel, escribió un libro sobre esto, diciendo: 'Soy mi propio dios'.

Si eres Dios, también quieres ser un creador. Si pudieras crear una superinteligencia entonces serías como Dios. Creo que tiene que ver con las tendencias hipernarcisistas de nuestra cultura. No hablamos de esto en el libro, pero eso me explica por qué esta idea es tan atractiva en nuestros tiempos en los que ya no hay una entidad trascendente a la que recurrir.

cerebro con texto de computadora desplazando inteligencia artificial
Chris DeGraw/Tendencias digitales, Getty Images

DT: Interesante. Entonces, para seguir con eso, es la idea de que la creación de IA, o el objetivo de crear IA, es un acto narcisista. En ese caso, el concepto de que estas creaciones de alguna manera se volverían más poderosas que nosotros es un giro de pesadilla. Es el niño matando al padre.

JL: Un poco así, sí.

DT: ¿Cuál sería para ti el resultado final de tu libro si todos estuvieran convencidos con tus argumentos? ¿Qué significaría eso para el futuro del desarrollo de la IA?

JL: Es una muy buena pregunta. Puedo decirle exactamente lo que creo que sucedería y sucederá. Creo que a mitad de período la gente aceptará nuestros argumentos y esto creará matemáticas mejor aplicadas.

Algo de lo que todos los grandes matemáticos y físicos son completamente conscientes son las limitaciones de lo que pueden lograr matemáticamente. Debido a que son conscientes de esto, se enfocan solo en ciertos problemas. Si eres muy consciente de las limitaciones, entonces recorres el mundo y buscas estos problemas y los resuelves. Así fue como Einstein encontró las ecuaciones para el movimiento browniano; cómo se le ocurrieron sus teorías de la relatividad; cómo Planck resolvió la radiación del cuerpo negro y así inició la teoría cuántica de la materia. Tenían un buen instinto para saber qué problemas son susceptibles de solución con las matemáticas y cuáles no.

Si las personas aprenden el mensaje de nuestro libro, creemos que podrán diseñar mejores sistemas, porque se concentrarán en lo que es realmente factible y dejarán de gastar dinero y esfuerzo en algo que no se puede lograr.

BS: Creo que parte del mensaje ya se está transmitiendo, no por lo que decimos, sino por las experiencias que tienen las personas cuando dan grandes cantidades de dinero a proyectos de IA y luego los proyectos de IA fracasan. Supongo que conoces el Centro Conjunto de Inteligencia Artificial. No recuerdo la suma exacta, pero creo que fue algo así como $10 mil millones, que le dieron a un contratista famoso. Al final, no sacaron nada de eso. Cancelaron el contrato.

(Nota del editor: JAIC, una subdivisión de las Fuerzas Armadas de los Estados Unidos, tenía la intención de acelerar la "entrega y adopción de IA para lograr el impacto de la misión a escala". Se incorporó a una organización unificada más grande, el Director de Inteligencia Artificial y Digital , con otras dos oficinas en junio de este año. JAIC dejó de existir como entidad propia.)

DT: ¿Cuál cree que, en términos de alto nivel, es el argumento más convincente que presenta en el libro?

BS: Cada sistema de IA es de naturaleza matemática. Debido a que no podemos modelar matemáticamente la conciencia, la voluntad o la inteligencia, estas no pueden emularse usando máquinas. Por lo tanto, las máquinas no se volverán inteligentes y mucho menos superinteligentes.

JL: La estructura de nuestro cerebro solo permite modelos limitados de la naturaleza. En física, elegimos un subconjunto de la realidad que se ajusta a nuestras capacidades de modelado matemático. Así obtuvieron Newton, Maxwell, Einstein o Schrödinger sus famosos y bellos modelos. Pero estos solo pueden describir o predecir un pequeño conjunto de sistemas. Nuestros mejores modelos son los que usamos para diseñar tecnología. No podemos crear un modelo matemático completo de la naturaleza animada.

Esta entrevista ha sido editada por su extensión y claridad.