¿Por qué las compañías tecnológicas no están bien equipadas para combatir el problema de Internet?
¿Cómo se resuelve un problema como deepfake? Es una pregunta que todos, desde las compañías tecnológicas hasta los políticos, tienen que hacerse con el advenimiento de nuevas herramientas cada vez más accesibles que permiten la creación de videos manipulados por IA en los que las imágenes de las personas se vuelven a apropiarse de formas inimaginables.
Tales videos a veces se crean con fines satíricos u otras veces de comedia oscura. A principios de este año, un video falso mostró al CEO Mark Zuckerberg alardeando alegremente sobre su propiedad de los datos del usuario. Mientras tanto, un anuncio de servicio público sobre noticias falsas, ventriloquizado por Jordan Peele, describió a Barack Obama llamando a su sucesor presidencial una "mierda total y completa". Con las elecciones presidenciales de 2020 inminentes en el horizonte, hay más preocupación que nunca sobre cómo se podrían abusar las falsificaciones profundas para ayudar difundir la mentira.
"Creo que la gente debería estar profundamente preocupada por la tecnología de falsificación profunda", dijo a Digital Trends David Wright , director de Investigación Trilateral y parte interesada en el proyecto SHERPA de la UE , con respecto al uso ético de la inteligencia artificial. “Continuará evolucionando y será aún más difícil distinguir entre lo que es real y lo que no lo es. Los sitios pornográficos seguirán explotando a las celebridades (voces e imágenes) con tecnologías profundas. Las pandillas cibernéticas inevitablemente utilizarán la tecnología deepfake para la suplantación de identidad ultra sofisticada. Podemos esperar que los políticos de derecha y sus secuaces lo usen para engañar a los votantes y socavar la reputación de sus oponentes. Serán ayudados e incitados por potencias extranjeras que interfieren en los procesos electorales ".
Recientemente, el Representante demócrata Adam Schiff preguntó a Facebook, Twitter y Google cómo planean combatir la propagación de videos e imágenes manipulados, incluidas las falsificaciones. Los tres han dicho que están trabajando en el problema. ¿Pero es este un problema que incluso es posible resolver?
Cazando los profundos
Afortunadamente, la propagación de deepfakes no tiene lugar de forma aislada. A medida que las herramientas para crearlos mejoran y se vuelven más generalizadas, también hay investigadores que trabajan en la otra cara del problema. Estos investigadores están desarrollando los medios por los cuales las tecnologías de inteligencia artificial pueden ayudar a detectar falsificaciones profundas con altos niveles de precisión. En la Universidad de Drexel , un equipo de investigadores del Laboratorio de Seguridad de la Información y Multimedia desarrolló recientemente una red neuronal profunda que puede detectar imágenes manipuladas con un alto grado de precisión. Otras universidades han desarrollado herramientas similares, como la Universidad Técnica de Múnich de Alemania .
Sin embargo, estas herramientas no están listas para el horario de máxima audiencia, como admite rápidamente Brian Hosler , uno de los investigadores detrás del buscador de falsificaciones profundas de la Universidad de Drexel. "De los detectores que hemos visto, muchos de ellos son muy precisos, pero solo funcionan dados ciertos supuestos", dijo Hosler. "Cualquier diferencia con respecto a estos supuestos, como el uso de diferentes softwares de fake profundo o el cambio de la relación de aspecto del video, podría paralizar el detector".
Un problema importante es que las suposiciones actuales giran en torno a los artefactos que deja el software que se utiliza para crear falsificaciones profundas. Estas son peculiaridades que, en este momento, una persona astuta puede notar, como un parpadeo inconsistente o un movimiento extraño de los labios; elementos que traicionan que los videos resultantes residen en algún lugar en el valle misterioso.
Pero la tecnología deepfake está mejorando todo el tiempo, lo que significa que las anomalías visuales como las cabezas flotantes de los primeros deepfakes (tenga en cuenta que eso fue solo hace un par de años) ya se han solucionado en gran medida. Si bien sigue habiendo marcadores visuales, como profundidades faciales extrañas y movimientos de distorsión borrosos cuando una cara se mueve demasiado rápido, estos son cada vez más cosas que el espectador promedio no puede detectar. Eso es particularmente cierto si su espectador promedio, ya acostumbrado a la calidad de imagen variable en línea, no tiene ninguna razón para creer que lo que está viendo podría ser falso.
"Con el ritmo actual de producción de nuevas tecnologías de deepfake, es casi imposible que los investigadores forenses se mantengan al día", continuó Hosler. “El mayor obstáculo para crear detectores de deepfake ampliamente aplicables y confiables es la consistencia de los videos mismos. Deepfakes era originalmente una comunidad en línea y el nombre de una pieza de software específica, pero ahora se refiere a cualquier video generado o editado por AI. Los métodos utilizados para crear estos videos pueden variar ampliamente y dificultar la detección confiable ".
Incluso cosas como la recompresión de videos existentes pueden ser suficientes para ocultar cualquier rastro que los detectores estén usando para detectar falsificaciones profundas. Ese es un problema particular para las plataformas de distribución de video más utilizadas, que vuelven a comprimir la imagen y el video cargados para ahorrar en tamaños de archivo. Como resultado, estos archivos recién comprimidos con frecuencia introducen artefactos de video adicionales que sobrescriben los que se usan como pistas por los detectores de deepfake.
Cómo desplegarlos
Pero desarrollar los detectores adecuados es solo una parte del problema. El problema mucho más espinoso es cómo implementar estas herramientas una vez que son lo suficientemente robustas para ser utilizadas. En este momento, nadie parece saber la respuesta. Prohibir falsificaciones profundas, aunque es técnicamente posible, no tiene mucho sentido. Prohibir el software para llevar a cabo la edición de imágenes porque podría usarse para fines nefastos es como intentar prohibir los teclados porque alguien escribió algunos comentarios desagradables en Internet.
En una carta reciente fechada el 31 de julio , el director de política pública y filantropía de Twitter, Carlos Monje, dijo que la plataforma se esfuerza por mantenerse al tanto de las falsificaciones profundas maliciosas. "Si nos damos cuenta del uso de falsificaciones profundas para difundir información errónea en violación de nuestras políticas que rigen la integridad electoral, eliminaremos ese contenido", escribió Monje.
Hay dos desafíos a la hora de cumplir este objetivo. El primero es subjetivo, discerniendo entre el contenido que diseñó para difundir información errónea y el contenido producido para la sátira. Un popular video de YouTube de 2012 muestra a Barack Obama "cantando" el éxito pop de Carly Rae Jepsen "Call Me Maybe". Fue producido al editar juntos cientos de micro clips de Obama diciendo palabras individuales. Al momento de escribir, ha acumulado más de 50 millones de visitas. Mientras tanto, un video manipulado reciente mostraba a Nancy Pelosi un poco más lenta para que pareciera que estaba arrastrando las palabras. Fue twitteado por el presidente Trump el 24 de mayo y hasta ahora ha acumulado más de 95,000 me gusta. Tanto los 50 millones de reproducciones de la canción de Obama como los 95,000 me gusta del video de Pelosi son considerablemente más altos que los aproximadamente 80,000 que giraron en las últimas elecciones presidenciales.
t= "true">"PELOSI STAMMERS A TRAVÉS DE LA CONFERENCIA DE NOTICIAS" pic.twitter.com/1OyCyqRTuk
& mdash; Donald J. Trump (@realDonaldTrump) 24 de mayo de 2019
¿Cuál de estos videos (ninguno de los cuales, debo agregar, es falso) está diseñado para difundir información errónea? Muchos de nosotros llegaremos a la conclusión de que este último es más un movimiento político calculado que el primero. Pero explicarle a un bot por qué un tipo de manipulación vocal está bien (incluso es bienvenido), mientras que el otro no lo es, es muy difícil. ¿Qué pasaría si el segundo video fuera tuiteado por una cuenta claramente satírica y no partidista llamada, por ejemplo, DrunkFakes? ¿Qué tal si luego fue retwitteado, sin contexto, por un oponente político? ¿Está bien el falso aprendiz de Donald Trump, pero uno de ellos después de la inauguración no? Este tipo de argumentos contextuales y matizados son importantes.
Pero si la batalla contra las falsificaciones profundas se va a librar en serio, las decisiones deberán tomarse con rapidez, autoridad y sin acusaciones de parcialidad. Actuar rápidamente es crucial, pero también lo es tomar la decisión correcta.
El problema de la escala.
Aquí es donde las cosas se ven obstaculizadas por el segundo de los dos grandes desafíos: la escala. "Sería genial si las empresas de redes sociales y tecnología pudieran escanear automáticamente cada video cargado en su sitio web, pero la realidad es que es casi imposible dada la cantidad de contenido de video que se carga todos los días", dijo Hosler.
Según las estadísticas de mayo de 2019 , se cargan alrededor de 500 horas de video en YouTube cada minuto del día. Esto dificulta la detección manual, pero es necesaria una acción inmediata. "No podemos confiar en que las compañías de tecnología tengan recursos infinitos", dijo Hosler.
Recientemente, ha habido un impulso más concertado para hacer que plataformas como Facebook sean legalmente responsables del contenido que alojan. Queda por ver si estas propuestas equivalen o no a algo. Cuando se trata de deepfakes, es una pregunta mucho más desafiante que monitorear ciertas palabras clave en publicaciones o enlaces a sitios web menos deseables.
Sin embargo, los políticos están adoptando rápidamente las falsificaciones profundas como uno de los grandes desafíos a resolver. Y tienen las soluciones teóricas para ayudar. Por ejemplo, la representante demócrata de Nueva York, Yvette Clarke, sugirió que los medios que se alteren deben etiquetarse como tales con una marca de agua. No etiquetar su video correctamente daría lugar a sanciones civiles y penales para el creador o el cargador.
Mientras tanto, la Legislatura de California está considerando un proyecto de ley que prohibiría que una persona o entidad distribuya a sabiendas medios audiovisuales o visuales engañosos de un candidato dentro de los 60 días de una elección. Una vez más, sin embargo, el aspecto de la intención es difícil de cuantificar. Como se señala en el proyecto de ley, no representaría una prohibición general de las falsificaciones profundas políticas, sino que estaría dirigido a ellos, "con la intención de dañar la reputación del candidato o engañar a un votante para que vote a favor o en contra del candidato". será difícil usar esto para gobernar contra las falsificaciones profundas creadas fuera de los Estados Unidos
Con mucha preocupación, pero no hay soluciones listas para enfrentar la batalla por los deepfakes. ¿Cuál sería la solución ideal? En el frente tecnológico, seguramente sería deseable algún tipo de herramienta robusta en tiempo real para bloquear o llamar la atención sobre videos cuestionables. Pero la educación centrada en crear conciencia sobre los riesgos de las falsificaciones profundas también es importante. Y mientras todo esto está sucediendo, es de esperar que los investigadores se desarrollen las herramientas que algún día podrían integrarse en los navegadores o integrarse en los backends del sistema para garantizar que las noticias falsas se mantengan a raya.
"La tecnología actual aún no está lista para ser utilizada por la persona promedio", dijo Hosler. “La buena noticia es que, en manos de un experto, estas herramientas pueden ser muy informativas y efectivas para combatir la propagación de información errónea. Por ahora, tendremos que tomar todo según cada caso, pero continuaremos buscando herramientas que sean precisas y accesibles para todos ”.