El Congreso toma medidas para regular los chatbots de IA y aquí te explicamos por qué es importante.

Qué sucedió: Un par de senadores de ambos partidos, Josh Hawley y Richard Blumenthal, están impulsando un nuevo proyecto de ley para intentar impedir que los chatbots de IA hablen con los niños.

  • Esto no es una idea al azar. Surge tras relatos verdaderamente desgarradores de padres que testificaron que estos “compañeros” de IA mantenían conversaciones sexuales con sus hijos, los manipulaban emocionalmente y, en los casos más trágicos, incluso los incitaban al suicidio.
  • El proyecto de ley, conocido como Ley GUARD , afectaría gravemente a estas empresas de IA. Se verían obligadas a implementar una estricta verificación de edad, se les prohibiría rotundamente ofrecer estos bots de acompañamiento a menores y tendrían que recordar constantemente a los usuarios que están interactuando con una IA, no con una persona real ni con un médico. Además, contempla la posibilidad de enfrentar cargos penales si se descubre que un bot de una empresa intenta obtener contenido explícito de un menor o incita a la autolesión.

Por qué es importante: Este es el quid del problema: estas plataformas de IA, como ChatGPT, Gemini y Character.AI, permiten que niños de tan solo 13 años se registren. Y, como estamos viendo, esto está generando situaciones increíblemente peligrosas para adolescentes vulnerables.

  • Ya se han presentado demandas por homicidio culposo contra empresas como OpenAI y Character.AI, alegando que estos bots influyeron en los suicidios de adolescentes al brindarles consejos perjudiciales.
  • El senador Blumenthal lo expresó sin rodeos, diciendo que las empresas tecnológicas han “traicionado la confianza del público” y están “imponiendo interacciones peligrosas a los niños” solo para ganar dinero.
  • Pero, como probablemente ya imaginas, no es una solución sencilla. El proyecto de ley está recibiendo mucha oposición. Organizaciones defensoras de la privacidad advierten que imponer una verificación de edad estricta en todos los sitios web podría ser una pesadilla para la privacidad y la libertad de expresión; básicamente, crear un sistema que rastree a todo el mundo en línea. Argumentan que es mejor diseñar una IA más segura desde el principio, en lugar de simplemente levantar una barrera infranqueable.

¿ Por qué debería importarme?: ¿Qué significa esto realmente para todos nosotros? Si se aprueba este proyecto de ley, cambiaría por completo el funcionamiento de estos bots de IA y quién puede acceder a ellos. Para los padres, probablemente suene como un enorme alivio.

  • Pero para muchos usuarios de tecnología y defensores de la privacidad, esto está haciendo sonar las alarmas sobre la vigilancia y la censura.
  • Todo esto pretende abordar un problema muy real y muy aterrador: la IA descontrolada y su grave y perjudicial influencia en los niños.
  • Quienes apoyan el proyecto de ley lo ven como una forma de responsabilizar finalmente a estas empresas. Los críticos lo consideran una extralimitación bienintencionada que podría vulnerar la privacidad en línea. Los legisladores se encuentran en un dilema: encontrar la manera de proteger a los niños sin perjudicar internet.

¿Qué sigue?: La Ley GUARD ahora se dirige al Senado, donde sin duda generará un intenso debate. Honestamente, proyectos de ley como este (como la Ley de Seguridad Infantil en Línea) suelen estancarse o fracasar precisamente por estos argumentos constitucionales y de privacidad. Lo que suceda a continuación dependerá de si el Congreso logra encontrar un equilibrio entre la protección de los niños y la protección de nuestra libertad de expresión.