Reddit está intensificando su lucha contra los bots, y ahora es posible que se le pida a tu cuenta que demuestre que es humana si la plataforma detecta un comportamiento sospechoso.
El director ejecutivo de Reddit, Steve Huffman, afirma que estos controles serán poco frecuentes, pero que tienen como objetivo proteger lo que hace que Reddit funcione en primer lugar: personas reales hablando con personas reales.
A medida que se difunde el contenido generado por IA, Reddit admite que cada vez es más difícil identificar al autor de una publicación. Por ello, en lugar de tomar medidas drásticas, se está centrando en comportamientos sospechosos y añadiendo indicadores más claros en toda la plataforma.
Cómo planea Reddit separar a los humanos de los bots
Si Reddit detecta indicios de automatización o comportamiento inusual, puede activar una verificación humana. Esto podría implicar acciones sencillas como el uso de contraseñas o FaceID para confirmar la presencia de una persona .
En algunos casos, se pueden utilizar sistemas biométricos de terceros, como World ID de Sam Altman . La plataforma también puede usar documentos de identidad emitidos por el gobierno en las regiones donde la ley lo exija. Sin embargo, Reddit afirma que tu identidad permanecerá separada de tu cuenta.
La empresa también está estandarizando las etiquetas para las cuentas automatizadas. Los bots aprobados llevarán la etiqueta [APP], lo que indicará claramente que se trata de un software. Los desarrolladores deberán registrar sus herramientas para obtener esta etiqueta, lo que añade un nivel de transparencia.
¿Qué significa esto para tu experiencia en Reddit?
Dado que Reddit afirma que no se trata de un sistema de verificación para toda la plataforma, es posible que a la mayoría de los usuarios nunca se les pida que demuestren nada. Incluso cuando se realicen dichas comprobaciones, el objetivo será confirmar que existe una persona, no identificarla.
Al mismo tiempo, la plataforma seguirá eliminando bots dañinos a gran escala, llegando a desactivar alrededor de 100 000 cuentas diarias. Además, está mejorando las herramientas de denuncia para que los usuarios puedan reportar actividades sospechosas con mayor facilidad.
Reddit no prohíbe directamente las publicaciones generadas por IA, pero sí establece límites claros. Por ahora, a la plataforma le importa menos cómo se escribe el contenido y más quién está detrás de él.
