OpenAI recibe críticas por oponerse a una propuesta de ley de seguridad de la IA
Los ex empleados de OpenAI, William Saunders y Daniel Kokotajlo , escribieron una carta al gobernador de California, Gavin Newsom, argumentando que la oposición de la compañía a un proyecto de ley estatal que impondría estrictas pautas y protocolos de seguridad sobre el futuro desarrollo de la IA es decepcionante pero no sorprendente.
"Nos unimos a OpenAI porque queríamos garantizar la seguridad de los increíblemente poderosos sistemas de IA que la empresa está desarrollando", escribieron Saunders y Kokotajlo. "Pero renunciamos a OpenAI porque perdimos la confianza en que desarrollaría sus sistemas de IA de manera segura, honesta y responsable".
Los dos argumentan que un mayor desarrollo sin suficientes barreras de seguridad "plantea riesgos previsibles de daño catastrófico al público", ya sea que se trate de "ataques cibernéticos sin precedentes o asistencia en la creación de armas biológicas".
El dúo también se apresuró a señalar la hipocresía del director ejecutivo de OpenAI, Sam Altman, en materia de regulación. Señalan su reciente testimonio ante el Congreso pidiendo la regulación de la industria de la IA, pero señalan que "cuando la regulación real está sobre la mesa, él se opone".
Según una encuesta de 2023 realizada por la corporación MITRE y Harris Poll, solo el 39% de los encuestados creía que la tecnología de inteligencia artificial actual es "segura y protegida".
El proyecto de ley en cuestión, SB-1047, la Ley de Innovación Segura para Modelos Artificiales Fronterizos, “entre otras cosas, requeriría que un desarrollador, antes de comenzar a entrenar inicialmente un modelo cubierto… cumpla con varios requisitos, incluida la implementación de la capacidad promulgar rápidamente un cierre total… e implementar un protocolo de seguridad escrito y separado”. OpenAI ha sufrido múltiples filtraciones de datos e intrusiones en el sistema en los últimos años.
Según se informa, OpenAI está totalmente en desacuerdo con la “caracterización errónea de nuestra posición sobre la SB 1047” por parte de los investigadores, como dijo un portavoz a Business Insider . En cambio, la compañía argumenta que "un conjunto de políticas de IA impulsadas a nivel federal, en lugar de un mosaico de leyes estatales, fomentará la innovación y posicionará a Estados Unidos para liderar el desarrollo de estándares globales", dijo el director de estrategia de OpenAI, Jason Kwon, en una carta a El senador del estado de California, Scott Wiener, en febrero.
Saunders y Kokotajlo responden que el impulso de OpenAI para lograr regulaciones federales no es de buena fe. "No podemos esperar a que el Congreso actúe; han dicho explícitamente que no están dispuestos a aprobar una regulación significativa de la IA", escribieron los dos. "Si alguna vez lo hacen, pueden anular la legislación de California".
El proyecto de ley también ha encontrado el apoyo de una fuente sorprendente: el director ejecutivo de xAI, Elon Musk. "Esta es una decisión difícil y molestará a algunas personas, pero, considerando todo, creo que California probablemente debería aprobar el proyecto de ley de seguridad de IA SB 1047", escribió en X el lunes. "Durante más de 20 años, he sido un defensor de la regulación de la IA, del mismo modo que regulamos cualquier producto o tecnología que represente un riesgo potencial". Musk, que recientemente anunció la construcción del “grupo de entrenamiento de IA más poderoso del mundo” en Memphis, Tennessee, había amenazado previamente con trasladar la sede de sus empresas X (anteriormente Twitter) y SpaceX a Texas para escapar de la regulación industrial en California.
Actualización: esta publicación se ha actualizado para incluir los comentarios de Elon Musk.