La caza profunda de fallas A.I. Podría ayudar a contraatacar contra la amenaza de noticias falsas.

De todas las herramientas de inteligencia artificial que han surgido en los últimos años, muy pocas han generado tanta preocupación como fallas profundas. Una combinación de "aprendizaje profundo" y "falso", la tecnología deepfake permite a cualquier persona crear imágenes o videos en los que los elementos fotográficos se superponen de manera convincente sobre otras imágenes. Si bien algunas de las formas en que se ha exhibido esta tecnología han sido para entretenimiento (piense en superponer la cara de Sylvester Stallone en el cuerpo de Arnie en Terminator 2 ), otros casos de uso han sido más alarmantes. Deepfakes hace posible todo, desde traumatizante y arruinar la reputación de "venganza porno" hasta engañar noticias falsas.
Como resultado, mientras un número creciente de investigadores ha estado trabajando para hacer que la tecnología de deepfake sea más realista , otros han estado buscando formas de ayudarnos a distinguir mejor entre imágenes y videos que son reales y aquellos que han sido manipulados algorítmicamente.
En la Universidad de California, Riverside, un equipo de investigadores del Video Computing Group ha desarrollado una red neuronal profunda que puede detectar imágenes manipuladas con un alto grado de precisión. En el proceso, sus creadores esperan que puedan proporcionar los medios para luchar contra los peligros de las fallas profundas. No es la primera vez que los investigadores intentan resolver este problema, pero es potencialmente uno de los esfuerzos más prometedores para materializarse hasta ahora en este juego continuo del gato y el ratón.
"Muchos detectores profundos [anteriores] se basan en peculiaridades visuales en el video falso, como movimientos de labios inconsistentes o posturas extrañas de la cabeza", dijo a Reuters Trends Brian Hosler, investigador del proyecto. "Sin embargo, los investigadores están mejorando cada vez más en el tratamiento de estas señales visuales al crear errores profundos. Nuestro sistema utiliza correlaciones estadísticas en los píxeles de un video para identificar la cámara que lo capturó. Es poco probable que un video profundo tenga las mismas correlaciones estadísticas en la parte falsa del video que en la parte real, y esta incoherencia podría usarse para detectar contenido falso ".
El trabajo financiado por DARPA comenzó como un experimento para ver si era posible crear un algoritmo de AI capaz de detectar diferencias entre los videos capturados por diferentes cámaras. Como una marca de agua, cada cámara captura y comprime videos de manera ligeramente diferente. La mayoría de nosotros no podemos hacerlo, pero un algoritmo entrenado para detectar estas diferencias puede reconocer las huellas digitales únicas asociadas con diferentes cámaras y usarlo para identificar el formato de un video en particular. El sistema también podría usarse para otras cosas, como el desarrollo de algoritmos para detectar videos con fotogramas eliminados, o para detectar si un video se cargó a las redes sociales.
Como lo hicieron
El equipo de UC Riverside curó una gran base de datos de videos, con una duración de aproximadamente 20 horas, desde 46 cámaras diferentes. Luego entrenaron una red neuronal para poder distinguir estos elementos. Tan convincente como un video profundo puede mirar a tu persona promedio, la IA los examina píxel por píxel para buscar elementos que hayan sido alterados. La AI resultante no solo es capaz de reconocer qué imágenes se han cambiado, sino que también puede identificar la parte específica de la imagen que se ha manipulado.
Owen Mayer, miembro del grupo de investigación, ha creado previamente un sistema que analiza algunas de estas correlaciones estadísticas para determinar si dos partes de una imagen se editan de diferentes maneras. Una demo de este sistema está disponible en línea . Sin embargo, este último trabajo es la primera vez que este enfoque se lleva a cabo en secuencias de video. Este es un problema mayor, y uno que es crucial para acertar a medida que las falsificaciones profundas se vuelven más frecuentes.

"Planeamos lanzar una versión de nuestro código, o incluso una aplicación, al público para que cualquiera pueda tomar un video e intentar identificar el modelo de origen de la cámara", continuó Hosler. "Las herramientas que creamos, y las que hacen los investigadores en nuestro campo, a menudo son de código abierto y se distribuyen libremente".
Sin embargo, todavía hay más trabajo por hacer. Las trampas profundas solo están mejorando, lo que significa que los investigadores al otro lado de la cerca no deben descansar en sus laureles. Las herramientas deberán seguir evolucionando para asegurarse de que puedan seguir detectando imágenes y videos falsos, ya que prescinden de los rasgos visuales más notables que pueden marcar las fallas profundas actuales como falsificaciones. Como herramientas deepfake audio, capaces de imitar voces, continúan desarrollándose , también será necesaria la creación de herramientas de detección de audio de seguirles la pista.
Por ahora, tal vez el mayor desafío es aumentar la conciencia sobre el tema. Al igual que revisar los datos que leemos en línea, la disponibilidad de información en Internet solo es ventajosa si sabemos lo suficiente como para adivinar lo que leemos. Hasta ahora, encontrar pruebas en video de que algo sucedió fue suficiente para convencer a muchos de nosotros de que realmente sucedió. Esa mentalidad va a tener que cambiar.
"Creo que uno de los mayores obstáculos para lograr que todos usen herramientas forenses como estas es la brecha de conocimiento", dijo Hosler. "Nosotros, como investigadores, deberíamos hacer no solo las herramientas, sino también las ideas subyacentes, más aceptables para el público si realmente tenemos un impacto".
Cualquiera sea la forma que adopten estas herramientas, ya sea como un complemento de n
ave
gador web o una IA que los gigantes de Internet emplean automáticamente para marcar el contenido antes de que se muestre a los usuarios, esperamos que se emplee el enfoque correcto para que sea lo más accesible posible.
Oye, lo único que está en juego es el futuro de la verdad …