La tecnología Deepfake es una amenaza, no sólo en el porno

Imagen de un rostro humano

Un deepfake es un videoclip que ha sido hábilmente manipulado para sustituir a la persona que aparece en el vídeo por otra, la mayoría de las veces, una celebridad o un líder político. Normalmente son increíblemente razonables y pueden ser difíciles de identificar como falsos. Tom Cruise fue uno de los objetivos actuales en lo que los medios de comunicación anunciaron como “el más realista hasta la fecha”.

Una de las lacras de la sociedad actual es el peligro en el uso de la tecnología deepfake, que utiliza la inteligencia artificial para generar fotos o vídeos muy parecidos a los de personas reales, cada vez más utilizada en el porno gratuit. Hay varios informes de víctimas de deepfake porn que prácticamente han acabado con la vida personal y profesional de personas que empezaron a ver imágenes falsas de ellos mismos circulando por Internet.

Las mujeres, sobre todo las que tienen cierta proyección mediática y social, son las principales víctimas, como informa el MIT Technology Review. Pero las campañas políticas también pueden sufrir la difusión de discursos falsos, fácilmente creíbles para los menos atentos. La empresa de investigación Sesity AI lleva registrando vídeos deepfake online desde diciembre de 2018 e informa de que el 90/95% es pornografía no consentida, y cerca del 90% de ese material son imágenes no consentidas de mujeres.

Estas son algunas de las amenazas que plantea la tecnología Deepfake

En los tiempos actuales en los que el mundo está luchando con COVID 19 actualmente, ESO ha mencionado que se ha activado la infodemia. Esto indica que ha habido esfuerzos deliberados para difundir información incorrecta relacionada con la enfermedad para satisfacer agendas específicas.
Tales videoclips están diseñados para manipular el contenido mediante la utilización de fechas o lugares erróneos o mediante la inclusión y fijación de un contenido a otro.
Deepfake puede impulsar la fabricación así como la estafa a los niveles más altos.
Las realidades pueden ser convenientemente ofuscadas y las mentiras pueden ser fácilmente difundidas sobre la base de contenidos web ajustados generados por Deepfake que pueden traer el descontento mundial.
Puede hacer que las campañas políticas sean controladas por rutinas tiránicas.
Hay oportunidades de que las identidades de muchos individuos se diviertan y el tráfico de personas puede ver además un aumento, ya que las industrias que apoyan este contenido web dañino pueden obtener una ventaja de la innovación deepfake.

¿Cómo podemos detectar un deepfake?

A medida que los deepfakes se vuelvan más comunes, es muy probable que la sociedad tenga que adaptarse colectivamente a la detección de vídeos deepfake de la misma manera que los usuarios en línea ya están acostumbrados a detectar otros tipos de noticias falsas.
Hay algunos indicadores que pueden ayudarnos a detectar un deepfake:

  • Los deepfakes actuales tienen problemas para animar los rostros de forma realista, así como el resultado es un videoclip en el que el sujeto nunca parpadea, o lo hace con demasiada frecuencia o de forma poco natural. Sin embargo, después de que los científicos de la Universidad de Albany publicaran un estudio en el que se detectaba el problema del parpadeo, se lanzaron nuevos deepfakes que ya no tenían este problema.
  • Intenta encontrar problemas con la piel o el pelo, o tratos que parezcan más borrosos que la atmósfera en la que están colocados. El énfasis puede parecer anormalmente suave.
  • ¿La iluminación parece anormal? Comúnmente, los algoritmos de deepfake retendrán las luces de los clips que se utilizaron como versiones para el video falso, lo cual es una mala coincidencia con la iluminación del clip de video objetivo.
  • El audio puede no coincidir con el individuo, específicamente si el video fue fabricado pero el audio original no fue manipulado tan cuidadosamente.