La aplicación facilita la realización de videomontajes hiperrealistas, lo que supone un riesgo para la manipulación y seguridad personal

‘Deepfake’, la divertida y peligrosa herramienta para manipular vídeos

'Deepfake', la divertida y peligrosa herramienta para manipular vídeos
Deepfake PD

Las nuevas tecnologías avanzan y conllevan consigo a un gran riesgo. Así ha quedado demostrado a través de los ‘deepfake’, Videomontajes hiperrealistas que se convertirán en algo «casi habitual», ya que es una práctica divertida y fácil, pero que también conlleva a peligros importantes por su capacidad para suplantar identidades.

La compañía de seguridad tecnológica Panda ha señalado el ‘phising’ a través de los ‘deepfake’ como uno de los mayores retos de ciberseguridad para este año. Sin embargo, no son los únicos que ven dicho riesgo. La firma de ciberseguridad danesa Deeptrace señala que el fenómeno de los ultrafalsos estaba creciendo rápidamente y que durante los siete primeros meses de 2019 habían detectado 14.678, un número que casi duplicaba el del periodo precedente.

El proceso no requiere de una gran complejidad. Para hacer un vídeo de este tipo bastaría una decena de imágenes y la inteligencia artificial hace el resto. Con un poco de creatividad y algunos datos personales, resultaría muy fácil impulsar la suplantación de identidad de los usuarios.

A pesar de que un porcentaje «muy elevado» de este tipo de vídeos están relacionados con la pornografía, pero otros tienen que ver con desacreditar a una persona haciendo creer que ha dicho cosas cuando no es cierto, o intentos de fraude.

Por el momento, las empresas se están empezando a tomar medidas y Facebook ha anunciado que prohibirá estos vídeos de cara a las elecciones estadounidenses de 2020, aunque sí estarán admitidas las parodias. En China está prohibidos desde comienzo de año.

Detectar estas prácticas en «un reto muy grande«, se puede recurrir a la inteligencia artificial para detectar a la propia inteligencia artificial usada para crear ultrafalsos.

Recibe nuestras noticias en tu correo

Lo más leído