Microsoft tiene una nueva forma de mantener la ética de ChatGPT, pero ¿funcionará?

Microsoft recibió muchas críticas cuando cerró su equipo de Ética y Sociedad de inteligencia artificial (IA) en marzo de 2023. No fue una buena mirada dados los escándalos casi simultáneos que envuelven a la IA, pero la compañía acaba de exponer cómo pretende para mantener sus esfuerzos futuros responsables y bajo control en el futuro.

En una publicación en el blog On the Issues de Microsoft, Natasha Crampton, directora responsable de inteligencia artificial de la firma de Redmond, explicó que el equipo de ética se disolvió porque "un solo equipo o una sola disciplina encargada de la inteligencia artificial responsable o ética no iba a cumplir con nuestros objetivos". .”

Bing Chat en una computadora portátil.

En cambio, Microsoft adoptó el enfoque que ha adoptado con sus equipos de privacidad, seguridad y accesibilidad, y "IA responsable integrada en toda la empresa". En la práctica, esto significa que Microsoft tiene personal de alto nivel "encargado de encabezar la IA responsable dentro de cada grupo comercial central", así como "una gran red de "campeones" de IA responsable con una variedad de habilidades y roles para un compromiso directo más regular".

Más allá de eso, Crampton dijo que Microsoft tiene “casi 350 personas trabajando en IA responsable, con poco más de un tercio de ellos (129 para ser precisos) dedicados a tiempo completo; el resto tiene responsabilidades responsables de IA como parte central de sus trabajos”.

Después de que Microsoft cerró su equipo de Ética y Sociedad, Crampton señaló que algunos miembros del equipo se integraron posteriormente en equipos de toda la empresa. Sin embargo, siete miembros del grupo fueron despedidos como parte de los extensos recortes de empleo de Microsoft que provocaron el despido de 10,000 trabajadores a principios de 2023.

Navegando los escándalos

Bing Chat diciendo que quiere ser humano.

AI apenas ha estado libre de escándalos en los últimos meses, y son esas preocupaciones las que alimentaron la reacción violenta contra la disolución de Microsoft de su equipo de ética de AI. Si Microsoft carecía de un equipo dedicado para ayudar a guiar sus productos de IA en direcciones responsables, pensaba, tendría dificultades para reducir los tipos de abusos y comportamientos cuestionables por los que su chatbot Bing se ha hecho famoso.

La última publicación de blog de la compañía seguramente tiene como objetivo aliviar esas preocupaciones entre el público. En lugar de abandonar por completo sus esfuerzos de IA, parece que Microsoft busca garantizar que los equipos de toda la empresa tengan contacto regular con expertos en IA responsable.

Aún así, no hay duda de que cerrar su equipo de Ética y Sociedad de AI no fue bien recibido, y es probable que Microsoft todavía tenga un camino por recorrer para tranquilizar la mente colectiva del público sobre este tema. De hecho, incluso Microsoft cree que ChatGPT, cuyo desarrollador, OpenAI, es propiedad de Microsoft, debería ser regulado .

Ayer mismo, Geoffrey Hinton, el "padrino de la IA", renunció a Google y le dijo al New York Times que tenía serias dudas sobre el ritmo y la dirección de la expansión de la IA, mientras que un grupo de destacados expertos en tecnología firmó recientemente una carta abierta pidiendo una pausa en Desarrollo de IA para que sus riesgos puedan entenderse mejor.

Es posible que Microsoft no esté ignorando las preocupaciones sobre el desarrollo ético de la IA, pero aún está por verse si su nuevo enfoque es el correcto o no. Después del controvertido comienzo que ha sufrido Bing Chat, Natasha Crampton y sus colegas esperan que las cosas cambien para mejor.