YouTube está subcontratando su problema de IA deficiente a ustedes, y eso es una pésima idea.

YouTube tiene un nuevo plan para lidiar con la avalancha de contenido generado por IA que inunda su plataforma, y ​​te involucra a ti. La compañía ahora pide a los espectadores que califiquen si un video les parece un producto de IA de baja calidad . A primera vista, parece una forma razonable de abordar el contenido de IA de baja calidad en tu feed. En la práctica, podría causar más problemas de los que resuelve.

Los humanos son malos detectando contenido generado por IA, y la situación está empeorando.

El principal problema de este enfoque es que las personas no son buenas detectando contenido generado por IA, y la brecha entre la detección humana y la capacidad de la IA se está ampliando rápidamente. El contenido inicial generado por IA presentaba indicios evidentes, como voces robóticas, manos deformadas o rostros de aspecto poco natural. Los modelos más recientes han solucionado en gran medida estos problemas.

Ahora las voces suenan naturales, los rostros son convincentes y las señales de alerta evidentes están desapareciendo. Las herramientas han avanzado notablemente, pero el público general no se ha adaptado. Y existen estudios que lo confirman.

Un estudio reciente sobre la detección de rostros mediante IA reveló que las personas obtuvieron resultados solo ligeramente superiores al azar al intentar identificar rostros generados por IA. Lo más preocupante es que su confianza en poder detectar rostros generados por IA fue sistemáticamente mayor que su precisión real. Investigaciones similares muestran patrones parecidos en otros ámbitos.

Un estudio sobre la detección de deepfakes reveló que a las personas les cuesta detectarlos, pero aún creen que pueden hacerlo, mientras que una investigación sobre la detección de voz generada por IA sugiere que las voces de IA son ahora prácticamente indistinguibles de las reales para el oyente promedio.

El historial de YouTube no ayuda en absoluto. Un estudio de Kapwing reveló que alrededor del 21 % de los primeros 500 vídeos recomendados a una cuenta nueva se clasificaban como contenido de baja calidad generado por IA, mientras que una investigación de The New York Times descubrió que más del 40 % de los vídeos cortos recomendados para niños en una sesión de 15 minutos contenían contenido de IA de baja calidad.

Este contenido ya ha superado los sistemas de revisión automatizados y humanos de YouTube. Si estos sistemas permiten que se filtre tanta basura generada por IA, esperar que los espectadores lo hagan mejor parece poco realista.

El sistema de calificación también abre la puerta al abuso.

Aunque los espectadores fueran detectores fiables de IA, el nuevo sistema de calificaciones es susceptible de abuso. Las campañas coordinadas contra los creadores son un problema bien documentado en YouTube, donde personas malintencionadas atacan canales mediante denuncias masivas y ataques de "no me gusta". Una función que permite a los usuarios etiquetar el contenido como basura generada por IA les proporciona una nueva herramienta para explotar. Canales rivales, comunidades enfadadas o grupos organizados podrían usarla indebidamente para denunciar vídeos, independientemente de si se utilizó IA o no.

YouTube no ha explicado cómo verificará ni ponderará estas calificaciones, lo que deja mucho margen para la manipulación. Los creadores que han dedicado años a construir su audiencia podrían ahora enfrentarse a un nuevo riesgo que poco tiene que ver con la calidad de su trabajo. Si el sistema se implementa de forma generalizada sin medidas de seguridad, podría perjudicar tanto a los creadores legítimos como al contenido de IA de baja calidad.

¿Y qué obtienen los espectadores a cambio?

Aunque YouTube logre combatir el abuso, el sistema presenta otro problema evidente: los incentivos. Denunciar el contenido generado por IA requiere esfuerzo y cierto conocimiento sobre las capacidades reales de estas herramientas, pero YouTube no ofrece ningún beneficio claro a los espectadores por ayudar a detectar fallos en la IA. La plataforma, por otro lado, obtiene un feed más limpio y un flujo constante de datos de usuario, sin ofrecer prácticamente nada a cambio.

También existe la legítima preocupación de que nada impida que YouTube utilice esta retroalimentación para entrenar futuros modelos de IA, lo que podría dificultar aún más la detección de vídeos generados por IA. En efecto, podría convertir un sistema diseñado para combatir la IA de baja calidad en uno que contribuya a mejorarla.

El enfoque de YouTube no da en el clavo.

El nuevo sistema de clasificación es otro intento de YouTube por demostrar que se toma en serio el problema del contenido generado por IA, pero la plataforma aún no es suficiente. No prohíbe explícitamente a los creadores publicar contenido generado por IA, y si bien exige la divulgación de contenido sintético o alterado por IA, esta norma solo se aplica en ciertos casos. La penalización en la monetización también es limitada, ya que se basa en los mismos sistemas de detección que ya permiten que se filtre demasiado contenido de IA de baja calidad.

YouTube contribuyó a crear las condiciones para este problema al permitir y monetizar contenido generado por IA durante años, y sus esfuerzos por controlarlo han fracasado en todos los sentidos. Delegar la responsabilidad de la limpieza a los espectadores, sin explicarles cómo se usarán sus datos y sin ofrecerles nada a cambio, los trata más como un recurso gratuito que como una comunidad. Si YouTube realmente quiere abordar el problema de la IA, debe asumir la responsabilidad de la solución en lugar de pasársela a los espectadores.

El artículo titulado «YouTube está subcontratando su problema de IA deficiente a los usuarios, y esa es una idea terrible» apareció primero en Digital Trends .