Investigadores de inteligencia artificial advierten sobre la amenaza de “extinción humana” sin mayor supervisión
Más de una docena de empleados actuales y anteriores de OpenAI , Deep Mind de Google y Anthropic publicaron una carta abierta el martes llamando la atención sobre los "graves riesgos" que plantea seguir desarrollando rápidamente la tecnología sin contar con un marco de supervisión eficaz.
El grupo de investigadores sostiene que la tecnología podría utilizarse indebidamente para exacerbar las desigualdades existentes, manipular información y difundir desinformación, e incluso “la pérdida de control de los sistemas autónomos de IA, lo que podría provocar la extinción humana”.
Los firmantes creen que estos riesgos pueden “mitigarse adecuadamente” mediante los esfuerzos combinados de la comunidad científica, los legisladores y el público, pero les preocupa que “las empresas de IA tengan fuertes incentivos financieros para evitar una supervisión efectiva” y no se pueda contar con ellas para administrar de manera imparcial. el desarrollo de la tecnología.
Desde el lanzamiento de ChatGPT en noviembre de 2022, la tecnología de IA generativa ha arrasado en el mundo de la informática con hiperescaladores como Google Cloud, Amazon AWS, Oracle y Microsoft Azure liderando lo que se espera que sea una industria de un billón de dólares para 2032 . Un estudio reciente de McKinsey encontró que, en marzo de 2024, casi el 75% de las organizaciones encuestadas habían adoptado la IA en al menos una capacidad. Mientras tanto, en su encuesta anual Work Index , Microsoft descubrió que el 75% de los trabajadores de oficina ya utilizan la IA en el trabajo.
Sin embargo, como dijo a The Washington Post Daniel Kokotajlo, un ex empleado de OpenAI, “Ellos y otros han aceptado el enfoque de 'moverse rápido y romper cosas', y eso es lo opuesto a lo que se necesita para una tecnología tan poderosa y tan deficiente. comprendido." Las nuevas empresas de inteligencia artificial, incluidas OpenAI y Stable Diffusion, han infringido repetidamente las leyes de derechos de autor de EE. UU., por ejemplo, mientras que los chatbots disponibles públicamente son habitualmente incitados a repetir discursos de odio y teorías de conspiración, así como a difundir información errónea .
Los empleados de AI que se oponen argumentan que estas empresas poseen “información sustancial no pública” sobre las capacidades y limitaciones de sus productos, incluido el riesgo potencial de los modelos de causar daño y cuán efectivas son realmente sus barreras protectoras. Señalan que sólo una parte de esta información está disponible para las agencias gubernamentales a través de “obligaciones débiles de compartir y ninguna de las cuales está disponible para el público en general”.
"Mientras no exista una supervisión gubernamental efectiva de estas corporaciones, los empleados actuales y anteriores se encuentran entre las pocas personas que pueden exigirles responsabilidad ante el público", afirmó el grupo, argumentando que el uso generalizado de acuerdos de confidencialidad por parte de la industria y la débil implementación de los Las protecciones existentes para los denunciantes están obstaculizando esos problemas.
El grupo pidió a las empresas de IA que dejen de celebrar y hacer cumplir acuerdos de no menosprecio, que establezcan un proceso anónimo para que los empleados aborden sus inquietudes con la junta directiva de la empresa y los reguladores gubernamentales, y que no tomen represalias contra los denunciantes públicos si esos procesos internos resultan insuficientes. .