Los vídeos deepfake incluyen la cara de una persona mediante inteligencia artificial en cualquier vídeo. Estos vídeos trucados, con apariencia real, son con frecuencia pornográficos, cómicos o comprometedores. Por ello, han sido vetados por plataformas como Reddit y Twitter
Una de las últimas “tendencias” delictivas que se ha dado en internet se llama deepfake. La posibilidad de realizar el cambio de rostro en un vídeo está al alcance de cualquiera porque no son necesarios grandes conocimientos técnicos ni equipos potentes.
Estos vídeos, llamados deepfakes, pueden alcanzar tal nivel de precisión que en muchos casos parecen tan reales que pueden incluso llegar a ser tomados como vídeos filtrados directamente del móvil de la víctima o protagonista.
Este fenómeno se dio a conocer con personas famosas y posteriormente se popularizó, ofreciendo la posibilidad de hacer los vídeos con rostros de amistades o gente conocida, utilizando, por ejemplo, sus fotografías de Instagram y Facebook. Se requiere una aplicación informática, el vídeo a trucar y la imagen (mejor dicho, decenas de imágenes, cuantas más mejor) del rostro de la víctima que se desea incluir en ese vídeo. Los selfies que se suben a internet pueden ser una fuente para la elaboración de estos vídeos. Por otro lado, por desgracia, no es extraño el caso en que un hombre ejerce violencia contra su expareja publicando un vídeo a modo de porno venganza a partir de las imágenes que tienen del rostro de su excompañera.
La manera de generar deepfakes es muy sencilla. El software de creación de estos vídeos utiliza tecnología inteligente de reconocimiento facial para encontrar correspondencias del rostro de la persona que aparece en el vídeo original con las fotografías del rostro de la persona que de forma falsa va a pasar a figurar en el vídeo trucado. Tomadas estas referencias, se realiza un face-swap (o cambio de rostro) fotograma a fotograma.
La popularización de estos vídeos ha hecho que abunden en determinadas plataformas como de contenido pornográfico que recibe millones de visitas diarias, quienes incluyen este tipo de vídeos en la categoría de revenge porn. Twitter ha prohibido la publicación de deepfakes y eliminarán las cuentas que traten de hacer público este contenido.
Jorge Flores, Director de PantallasAmigas, reflexiona sobre este asunto: “Es parte del futuro que ya está aquí, donde distinguir realidad y ficción es cada vez más complicado. Para atajar este fenómeno se requiere una implicación proactiva de las plataformas y servicios que pueden estar alojando estos vídeos de manera que puedan atender de manera debida las posibles reclamaciones al respecto. Por parte de las víctimas potenciales, todos y cada uno de nosotros, la única manera de reducir las posibilidades de sufrir esta práctica es evitar la sobreexposición de nuestras imágenes o vídeos, precisamente lo que no pueden hacer las personas famosas”.
Aunque pudiera parecer lo contrario, la persecución legal de este tipo de prácticas no es tan sencilla, ni siquiera en el caso de vídeos pornográficos, puesto que el cuerpo que aparece en el vídeo o imagen no es el propio.
Destaca por otro lado Flores que “cuando esta práctica afecta a personas menores de edad las consecuencias son aún más graves, tanto para quien es protagonista involuntario de un vídeo ‘incómodo´’ como para quien pudiera estar cometiendo un delito al producirlo y publicarlo. “
Comentarios