Incluso Microsoft cree que ChatGPT debe ser regulado: he aquí por qué
Los chatbots de inteligencia artificial (IA) han conquistado el mundo, con las capacidades de ChatGPT de Microsoft causando asombro y miedo en casi la misma medida. Pero en un giro intrigante, incluso Microsoft ahora está pidiendo a los gobiernos que tomen medidas y regulen la IA antes de que las cosas se salgan peligrosamente de control.
El llamamiento fue hecho por BSA, un grupo comercial que representa a numerosas empresas de software empresarial, incluidas Microsoft, Adobe, Dropbox, IBM y Zoom. Según CNBC , el grupo aboga por que el gobierno de los EE. UU. integre las reglas que rigen el uso de la IA en la legislación nacional de privacidad.
Más específicamente, el argumento de BSA tiene cuatro principios principales. Estos incluyen las afirmaciones de que el Congreso debe establecer claramente cuándo las empresas deben determinar el impacto potencial de la IA, y que esos requisitos deben entrar en vigencia cuando el uso de la IA conduzca a "decisiones consecuentes", que el Congreso también debe definir.
BSA también establece que el Congreso debe garantizar el cumplimiento de la empresa utilizando una agencia federal existente y que el desarrollo de programas de gestión de riesgos debe ser un requisito para cualquier empresa que se ocupe de la IA de alto riesgo.
Según Craig Albright, vicepresidente de relaciones con el gobierno de EE. UU. en BSA, “Somos un grupo de la industria que quiere que el Congreso apruebe esta legislación, por lo que estamos tratando de llamar más la atención sobre esta oportunidad. Sentimos que simplemente no ha recibido tanta atención como podría o debería”.
BSA cree que la Ley de protección y privacidad de datos estadounidense, un proyecto de ley bipartidista que aún no se ha convertido en ley, es la legislación adecuada para codificar sus ideas sobre la regulación de la IA. El grupo comercial ya se ha puesto en contacto con el Comité de Comercio y Energía de la Cámara de Representantes, el organismo que presentó por primera vez el proyecto de ley, sobre sus puntos de vista.
Seguro que viene la legislación
La velocidad vertiginosa a la que se han desarrollado las herramientas de IA en los últimos meses ha causado alarma en muchos rincones sobre las posibles consecuencias para la sociedad y la cultura, y esos temores se han incrementado por los numerosos escándalos y controversias que han acosado el campo.
De hecho, BSA no es el primer organismo que ha abogado por medidas de protección más estrictas contra el abuso de la IA. En marzo de 2023, un grupo de destacados líderes tecnológicos pidió a las empresas de IA que detuvieran la investigación sobre cualquier cosa más avanzada que GPT-4. El grupo afirmó que esto era necesario porque "los sistemas de inteligencia artificial con inteligencia humana y competitiva pueden plantear riesgos profundos para la sociedad y la humanidad" y que la sociedad en general necesitaba ponerse al día y comprender lo que el desarrollo de la inteligencia artificial podría significar para el futuro de la civilización.
Está claro que la rápida velocidad con la que se han desarrollado las herramientas de IA ha causado mucha consternación entre los líderes de la industria y el público en general. Y cuando incluso Microsoft está sugiriendo que sus propios productos de IA deben ser regulados, parece cada vez más probable que alguna forma de legislación de IA se convierta en ley tarde o temprano.