Principales peligros de los deepfakes y cómo detectarlos

En un mundo donde su identidad en línea se vincula directamente con usted, la perspectiva de una reproducción perfecta es preocupante. Pero eso es exactamente a lo que nos enfrentamos con la llegada de la tecnología deepfake.

A medida que la tecnología se vuelve más barata y más fácil de usar, ¿cuáles son los peligros de los deepfakes? Además, ¿cómo se puede detectar un deepfake frente al auténtico?

¿Qué es un deepfake?

Un deepfake es el nombre que se le da a los medios donde una persona en el video o la imagen es reemplazada por la imagen de otra persona. El término es un acrónimo de "aprendizaje profundo" y "falso" y utiliza algoritmos de aprendizaje automático e inteligencia artificial para crear medios realistas pero sintéticos.

En su forma más básica, es posible que encuentre una cara superpuesta a otro modelo. En su peor momento de rápido desarrollo, la tecnología deepfake une a las víctimas desprevenidas en videos pornográficos falsos, noticias falsas, engaños y más.

Puede leer más sobre los orígenes de la tecnología en nuestro explicador deepfake .

¿Cuáles son los peligros de los deepfakes?

Las imágenes falsas siempre han existido. Descubrir qué es falso y qué no es una parte común de la vida, especialmente después del auge de los medios digitalizados. Pero los problemas que crea la tecnología deepfake son diferentes y brindan una precisión incomparable a las imágenes y los videos falsos.

Uno de los primeros videos de deepfake que llegó a una audiencia más amplia fue Jordan Peele personificando a Barack Obama en un video que discutía el tema en cuestión:

El video parece crudo, con una voz extraña y artefactos granulosos en el rostro clonado. No obstante, ilustra la tecnología deepfake.

¿O alguna vez te has preguntado cómo habría sido si Will Smith interpretara a Neo en The Matrix en lugar de Keanu Reeves (quiero decir, quién no lo ha hecho?)? Extrañar más:

Estos dos videos no son maliciosos y su compilación requiere cientos de horas de aprendizaje automático. Pero la misma tecnología está disponible para cualquiera que tenga suficiente tiempo para aprender y la potencia informática necesaria. La barrera para usar la tecnología deepfake era bastante alta al principio. Pero a medida que la tecnología mejora y las barreras de entrada disminuyen significativamente, las personas encuentran usos negativos y dañinos para los deepfakes.

Antes de profundizar en el lado oscuro de los deepfakes, aquí está Jim Carrey reemplazando a Jack Nicholson en The Shining:

1. Material falso para adultos con celebridades

Una de las principales amenazas de la tecnología deepfake es el material sintético para adultos o pornografía deepfake como se le conoce. Hay decenas de miles de videos falsos para adultos con rostros de celebridades femeninas prominentes, como Emma Watson, Natalie Portman y Taylor Swift.

Todos utilizan algoritmos de aprendizaje automático deepfake para coser la cara de la celebridad en el cuerpo de una actriz adulta, y todos atraen decenas de millones de visitas en los numerosos sitios web de contenido para adultos.

Sin embargo, ninguno de estos sitios hace nada sobre deepfakes de celebridades.

"Hasta que no haya una razón sólida para que intenten eliminarlos y filtrarlos, no sucederá nada", dice Giorgio Patrini, director ejecutivo y científico jefe de Sensity, una firma de detección y análisis de deepfake. "La gente seguirá siendo libre de cargar este tipo de material sin ninguna consecuencia en estos sitios web que son vistos por cientos de millones de personas".

Los videos son explotadores y están lejos de estar libres de víctimas, como alegan algunos creadores de deepfake.

2. Material falso para adultos con personas normales

¿Qué es peor que el porno sintético con celebridades? Así es: material para adultos falso con mujeres desprevenidas. Un estudio de Sensity descubrió un bot deepfake en la aplicación de mensajería social, Telegram, que había creado más de 100.000 imágenes de desnudos deepfake. Muchas de las imágenes son robadas de cuentas de redes sociales, en las que aparecen amigos, novias, esposas, madres, etc.

El bot es un avance importante en la tecnología deepfake, ya que el cargador de imágenes no necesita conocimientos existentes sobre deepfakes, aprendizaje automático o inteligencia artificial. Es un proceso automatizado que requiere una sola imagen. Además, el bot de Telegram parece funcionar solo con imágenes de mujeres, y las suscripciones premium (más imágenes, marca de agua eliminada) son ridículamente baratas.

Al igual que los deepfakes de celebridades, las imágenes deepfake del bot de Telegram son explotadoras, abusivas y amorales. Podrían encontrar fácilmente el camino a la bandeja de entrada de un esposo, pareja, miembro de la familia, colega o jefe, destruyendo vidas en el proceso. El potencial de chantaje y otras formas de extorsión es muy alto y aumenta la amenaza de problemas existentes, como el porno de venganza.

Publicar los deepfakes en Telegram también crea otro problema. Telegram es un servicio de mensajería centrado en la privacidad que no interfiere demasiado con sus usuarios. Tiene una política de eliminación de bots pornográficos y otros bots relacionados con material para adultos, pero no ha hecho nada en este caso.

3. Material de engaño

Has visto a Jordan Peele interpretando a Obama. En ese video, advierte sobre los peligros de los deepfakes. Una de las principales preocupaciones con respecto a la tecnología deepfake es que alguien cree y publique un video tan realista que lleve a una tragedia de alguna forma.

En el extremo más extremo de la escala, la gente dice que el contenido de video deepfake podría desencadenar una guerra. Pero también hay otras consecuencias importantes. Por ejemplo, un video deepfake que muestre a una corporación importante o al director ejecutivo de un banco haciendo una declaración perjudicial podría desencadenar una caída del mercado de valores. Una vez más, es extremo. Pero las personas reales pueden revisar y verificar un video, mientras que los mercados globales reaccionan instantáneamente a las noticias y las ventas automáticas ocurren.

La otra cosa a considerar es el volumen. Dado que el contenido deepfake se vuelve cada vez más barato de crear, aumenta la posibilidad de grandes cantidades de contenido deepfake de la misma persona, centrándose en entregar el mismo mensaje falso en diferentes tonos, lugares, estilos y más.

4. Negar material real

Como una extensión del material de engaño, debes considerar que los deepfakes se volverán increíblemente realistas. Tanto es así que la gente comenzará a cuestionarse si un video es real o no, independientemente del contenido.

Si alguien comete un delito y la única prueba es un video, ¿qué le impedirá decir: "Es un deepfake, es una evidencia falsa"? Por el contrario, ¿qué hay de plantar evidencia de video deepfake para que alguien la encuentre?

5. Falsos líderes de opinión y contactos sociales

Ya ha habido varios casos de contenido deepfake haciéndose pasar por líderes de opinión. Los perfiles en LinkedIn y Twitter detallan roles de alto rango en organizaciones estratégicas, sin embargo, estas personas no existen y probablemente se generen utilizando tecnología deepfake.

Dicho esto, este no es un problema específico de deepfake. Desde los albores de los tiempos, los gobiernos, las redes de espionaje y las corporaciones han utilizado perfiles y personas falsas para recopilar información, impulsar agendas y manipular .

6. Estafas de phishing, ingeniería social y otras estafas

La ingeniería social ya es un problema cuando se trata de seguridad. La gente quiere confiar en otras personas. Está en nuestra naturaleza. Pero esa confianza puede conducir a violaciones de seguridad, robo de datos y más. La ingeniería social a menudo requiere contacto personal, ya sea por teléfono, mediante una videollamada, etc.

Supongamos que alguien pudiera usar tecnología deepfake para imitar a un director y obtener acceso a códigos de seguridad u otra información confidencial. En ese caso, podría conducir a una avalancha de estafas deepfake.

Cómo detectar y detectar deepfakes

Con el aumento de la calidad de los deepfakes, es importante descubrir cómo detectar un deepfake. En los primeros días, había algunos indicios simples: imágenes borrosas, alteraciones y artefactos de video, y otras imperfecciones. Sin embargo, estos problemas reveladores están disminuyendo mientras que el costo de usar la tecnología disminuye rápidamente.

No existe una forma perfecta de detectar contenido deepfake, pero aquí hay cuatro consejos útiles:

  1. Detalles . Por muy buena que se esté volviendo la tecnología deepfake, todavía hay partes con las que lucha. En particular, los detalles finos dentro de los videos, como el movimiento del cabello, el movimiento de los ojos, las estructuras y el movimiento de las mejillas durante el habla y las expresiones faciales antinaturales. El movimiento de los ojos es un gran adelanto. Aunque los deepfakes ahora pueden parpadear de manera efectiva (en los primeros días, esto era un indicio importante), el movimiento ocular sigue siendo un problema.
  2. Emocion Vincular los detalles es emoción. Si alguien está haciendo una declaración fuerte, su rostro mostrará una variedad de emociones a medida que transmite los detalles. Los deepfakes no pueden ofrecer la misma profundidad de emoción que una persona real.
  3. Inconsistencia . La calidad del video está en su punto más alto. El teléfono inteligente en su bolsillo puede grabar y transmitir en 4K. Si un líder político hace una declaración, es frente a una sala llena de equipos de grabación de primer nivel. Por lo tanto, una mala calidad de grabación, tanto visual como audible, es una inconsistencia notable.
  4. Fuente . ¿Aparece el video en una plataforma verificada? Las plataformas de redes sociales utilizan la verificación para garantizar que no se imite a personas reconocidas a nivel mundial. Seguro, hay problemas con los sistemas. Pero verificar de dónde se transmite o se aloja un video particularmente atroz lo ayudará a determinar si es real o no. También puede intentar realizar una búsqueda de imagen inversa para revelar otras ubicaciones donde se encuentra la imagen en Internet.

Herramientas para detectar y prevenir deepfakes

No estás solo en la lucha contra la detección de deepfakes. Varias empresas de tecnología importantes están desarrollando herramientas para la detección de deepfake, mientras que otras plataformas están tomando medidas para bloquearlas de forma permanente.

Por ejemplo, la herramienta de detección de deepfake de Microsoft, Microsoft Video Authenticator , analizará en segundos e informará al usuario de su autenticidad (consulte el GIF a continuación para ver un ejemplo). Al mismo tiempo, Adobe le permite firmar contenido digitalmente para protegerlo de la manipulación.

Plataformas como Facebook y Twitter ya han prohibido los deepfakes maliciosos (los deepfakes como Will Smith en The Matrix siguen siendo un juego justo), mientras que Google está trabajando en una herramienta de análisis de texto a voz para contrarrestar los fragmentos de audio falsos.

Si desea repasar sus habilidades de detección de medios falsos, consulte nuestra lista de pruebas de detección de falsos para detectar y aprender .

Los deepfakes están llegando y están mejorando

La verdad del asunto es que, dado que los deepfakes llegaron a la corriente principal en 2018, su uso principal es abusar de las mujeres. Ya sea que se trate de crear pornografía falsa con la cara de una celebridad o de quitarle la ropa a alguien en las redes sociales, todo se centra en explotar, manipular y degradar a las mujeres de todo el mundo.

No hay duda de que se vislumbra una insurrección de deepfakes en el horizonte. El auge de dicha tecnología representa un peligro para el público, pero hay pocos recursos para detener su avance.