Los líderes tecnológicos piden una pausa en el desarrollo de GPT-4.5 y GPT-5 debido a “riesgos a gran escala”

La IA generativa se ha estado moviendo a una velocidad increíble en los últimos meses, con el lanzamiento de varias herramientas y bots como ChatGPT de OpenAI , Google Bard y más. Sin embargo, este rápido desarrollo está causando una gran preocupación entre los veteranos experimentados en el campo de la IA, tanto que más de 1000 de ellos han firmado una carta abierta en la que piden a los desarrolladores de IA que pisen el freno.

La carta se publicó en el sitio web del Future of Life Institute , una organización cuya misión declarada es "dirigir la tecnología transformadora para beneficiar la vida y alejarla de los riesgos extremos a gran escala". Entre los firmantes se encuentran varios académicos destacados y líderes en tecnología, incluido el cofundador de Apple, Steve Wozniak, el director ejecutivo de Twitter, Elon Musk, y el político Andrew Yang.

El artículo pide a todas las empresas que trabajan en modelos de IA que son más potentes que el GPT-4 lanzado recientemente que detengan inmediatamente el trabajo durante al menos seis meses. Esta moratoria debería ser "pública y verificable" y daría tiempo para "desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzado de IA que son rigurosamente auditados y supervisados ​​por expertos externos independientes".

La carta dice que esto es necesario porque "los sistemas de inteligencia artificial con inteligencia humana y competitiva pueden plantear riesgos profundos para la sociedad y la humanidad". Esos riesgos incluyen la difusión de propaganda, la destrucción de puestos de trabajo, el posible reemplazo y obsolescencia de la vida humana y la “pérdida de control de nuestra civilización”. Los autores agregan que la decisión sobre si seguir adelante con este futuro no debe dejarse en manos de "líderes tecnológicos no elegidos".

AI 'para el claro beneficio de todos'

ChatGPT versus Google en teléfonos inteligentes.

La carta llega justo después de que se hicieran afirmaciones de que GPT-5, la próxima versión de la tecnología que impulsa a ChatGPT, podría lograr inteligencia general artificial . Si es correcto, eso significa que sería capaz de entender y aprender cualquier cosa que un humano pueda comprender. Eso podría hacerlo increíblemente poderoso en formas que aún no se han explorado por completo.

Además, la carta sostiene que la planificación y la gestión responsables en torno al desarrollo de sistemas de IA no se están llevando a cabo, “aunque en los últimos meses los laboratorios de IA han entrado en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que no uno, ni siquiera sus creadores, puede entender, predecir o controlar de manera confiable”.

En cambio, la carta afirma que se deben crear nuevos sistemas de gobierno que regulen el desarrollo de la IA, ayuden a las personas a distinguir el contenido creado por la IA y el creado por humanos, responsabilicen a los laboratorios de IA como OpenAI por cualquier daño que causen, permitan a la sociedad hacer frente a la interrupción de la IA ( especialmente a la democracia), y más.

Los autores finalizan con una nota positiva, afirmando que "la humanidad puede disfrutar de un futuro floreciente con IA… en el que cosechamos las recompensas, diseñamos estos sistemas para el claro beneficio de todos y damos a la sociedad la oportunidad de adaptarse". Hacer una pausa en los sistemas de IA más poderosos que GPT-4 permitiría que esto suceda, afirman.

¿Tendrá la carta el efecto deseado? Eso es difícil de decir. Claramente, existen incentivos para que OpenAI continúe trabajando en modelos avanzados, tanto financieros como de reputación. Pero con tantos riesgos potenciales, y con muy poca comprensión de ellos, los autores de la carta claramente sienten que esos incentivos son demasiado peligrosos para perseguirlos.