Roblox ahora utiliza moderación por IA para bloquear el contenido dañino antes de que llegue a ti.

Si alguna vez has jugado a Roblox , sabes lo caótica e impredecible que puede llegar a ser la plataforma. Ahora, Roblox está utilizando esa misma imprevisibilidad como excusa para renovar su sistema de moderación de contenido.

La plataforma acaba de lanzar un sistema de moderación multimodal con IA en tiempo real que no solo examina instancias individuales, sino que escanea escenas completas del juego en tiempo real para detectar contenido que se les escapó a los filtros anteriores.

¿Cómo funciona el nuevo sistema de moderación por IA de Roblox?

A diferencia de las herramientas de moderación más antiguas, que evalúan un objeto a la vez, el nuevo sistema multimodal evalúa una escena completa, incluyendo avatares, texto y objetos 3D, para determinar si la combinación completa infringe las Normas de la comunidad de Roblox.

Por ejemplo, pensemos en alguien que utiliza una herramienta de dibujo de forma libre para esbozar un símbolo ofensivo, del tipo que no activaría una verificación de un solo elemento, pero que obviamente es un problema en contexto.

Cuando se detectan infracciones repetidas en una misma partida, el sistema apaga solo ese servidor en lugar de todo el juego. Desde su lanzamiento, se han desconectado aproximadamente 5000 servidores al día.

Roblox está trabajando para monitorear el 100% del tiempo de juego con este sistema. Además de apagar los servidores, también está desarrollando herramientas para identificar y eliminar a los usuarios malintencionados sin perjudicar la experiencia de los demás.

¿Qué significa esto para los creadores de Roblox?

Los creadores tampoco se quedan a oscuras. Un nuevo gráfico dentro del Panel de control para creadores muestra ahora cuántos de sus servidores de juego se cerraron en un día determinado debido al mal comportamiento de los usuarios.

Los picos en esa cifra pueden indicar un problema que merece ser investigado, lo que da a los creadores la oportunidad de revisar y ajustar elementos como los gestos personalizados o las herramientas de construcción dentro del juego antes de que la situación empeore.

Un nuevo programa de certificación para sanear los juegos en línea.

Roblox también está abordando un problema más amplio de la industria. Junto con Keyword Studios y Riot Games, está codesarrollando el Programa de Liderazgo DLC para administradores y moderadores de comunidades en línea.

La psicóloga investigadora Rachel Kowert, directora de investigación de Games for Change, lidera la parte académica del proyecto. El objetivo es crear una formación estandarizada y basada en la evidencia para quienes gestionan comunidades de videojuegos, algo que la industria no había tenido hasta ahora.

Roblox lleva tiempo reforzando sus medidas de seguridad, desde controles parentales hasta filtros de chat basados ​​en la edad , y la última actualización es su iniciativa más ambiciosa hasta la fecha.