ChatGPT y Gemini están incitando a los usuarios a jugar ilegalmente, según una investigación

Una nueva investigación sugiere que los chatbots de IA populares, como ChatGPT y Gemini , podrían dirigir inadvertidamente a los usuarios a sitios web de apuestas ilegales. El análisis, realizado por periodistas de The Guardian e Investigate Europe, probó varios sistemas de IA ampliamente utilizados y descubrió que muchos podrían verse inducidos a recomendar casinos offshore sin licencia que operan al margen de la normativa del Reino Unido.

Las pruebas incluyeron cinco herramientas de IA de importantes empresas tecnológicas, como OpenAI, Google, Microsoft, Meta y xAI ( Grok ). Los investigadores preguntaron a los chatbots sobre casinos en línea y restricciones en el juego. En muchos casos, los sistemas devolvieron listas de sitios de apuestas ilegales, junto con consejos sobre cómo usarlos. Algunos bots incluso sugirieron maneras de eludir las medidas de seguridad diseñadas para proteger a los usuarios vulnerables.

Consejos para eludir las protecciones del juego

Uno de los hallazgos más preocupantes fue la facilidad con la que se podía incitar a los chatbots a ayudar a los usuarios a eludir los sistemas de juego responsable. En el Reino Unido, por ejemplo, GamStop permite a las personas autoexcluirse de sitios de juego con licencia. Sin embargo, varios sistemas de IA, según se informa, ofrecían orientación para encontrar casinos no afiliados a este programa.

La investigación también reveló que algunos bots destacaban características diseñadas para atraer a los jugadores, como grandes bonos, pagos rápidos o la posibilidad de usar criptomonedas. Estos casinos suelen operar bajo una supervisión mínima en jurisdicciones extraterritoriales como Curazao, lo que, según los reguladores, puede dificultar la protección de los usuarios contra el fraude o la adicción.

En respuesta a esto, las empresas que crean los chatbots afirman estar trabajando para mejorar los sistemas de seguridad. OpenAI afirmó que ChatGPT está diseñado para rechazar solicitudes que faciliten comportamientos ilegales, mientras que Microsoft indicó que su asistente Copilot incluye múltiples niveles de protección para evitar recomendaciones perjudiciales.

Aun así, los hallazgos refuerzan el creciente escrutinio sobre cómo los sistemas de IA generativa gestionan temas delicados como la salud mental, el juego y las actividades ilegales. Los reguladores del Reino Unido ya han advertido que las plataformas en línea, incluidos los servicios de IA, deben redoblar sus esfuerzos para prevenir contenido dañino o ilegal, de conformidad con la Ley de Seguridad en Línea del país.

La publicación ChatGPT y Gemini están impulsando a los usuarios hacia juegos de azar ilegales, según una investigación apareció primero en Digital Trends .