Deepfake es una palabra compuesta por los términos deep learning y fake. Deep learning es una parte de la Inteligencia Artificial y fake se utiliza para definir algo falso. Se llama así a la tecnología que utiliza la Inteligencia Artificial para manipular videos, en los que se intercambia la cara real del protagonista y se sustituye por la de otra persona. El nombre proviene de Deepfakes, un usuario de Reedit que en 2017 subió un montaje con videos pornográficos cuyas protagonistas tenían el rostro de conocidas actrices.
¿Cómo se hace un deepfake?
Solo es necesario un ordenador con el que poder procesar imágenes y videos y disponer de imágnes de tu objetivo. Se fusionan los clips de video, para lo que se utiliza el deep learning. Los algoritmos pegan una cara sobre la otra, intercambian los rasgos y mantienen los movimientos de la boca, cejas y ojos. Y ya está listo, con apariencia de que realmente la cara que hemos pegado es la real.
¿Qué riesgos supone el deepfake?
En principio deepfake puede utilizarse para cosas constructivas e interesantes o lúdicas, como por ejemplo, el Dalí virtual que "trabaja" como guía en el Museo Dalí de San Petersburgo en Florida, y que incluso se hace selfies con los visitantes. Se cuenta con que es una recreación, algo que sirve para hacer más amena y divertida la visita.
El problema es que la tecnología cada vez está más depurada, sobre todo gracias a la investigación en el campo del reconocimiento facial y el software que realiza los montajes hace verdaderas maravillas, lo que puede llevar a confundir realmente al usuario, que será incapaz de reconocer la suplantación.
Ya ocurre con las noticias falsas a pesar de que en muchos casos es evidente que lo son. Y si un personaje con absoluta credibilidad transmite un determinado mensaje tenemos muchas posibilidades de creernoslo completamente. Si ya se lió en su momento con la Guerra de los Mundos, imagina que mañana saliera por televisión el Presidente de los Estados Unidos anunciando algo parecido. Solo que no es verdad, no es él, es un deepfake. Pero las consecuencias podrían ser muy importante.
Y no solo a ese nivel, que sería grave pero desmentible. Cualquier persona puede facilmente manipular una imagen, solo con descargarla de las redes sociales. No es caro, es muy sencillo, y si la tecnología se perfecciona aún más, es posible que ni haga falta descargarls y las imágenes se puedan generar por sí mismas. Bullying, difamación, bromas de mal gusto. Cualquier cosa podría pasar si alguien pone nuestra cara a otro cuerpo, diciendo cosas que jamás diríamos o haríamos.
¿Qué se está haciendo para detectarlos?
Ahora lo esfuerzos se centran en reconocer esos deepfakes. De momento se hace de forma manual, aunque se están desarrollando proyectos para automatizar el proceso, como FaceForensics, el proyecto que apoya Google, que ha generado 3.000 videos manipulados de código abiert. Se trata de que la Inteligencia Artificial sea capaz de detectar los deepfake sin la intervención del hombre.
Facebook también está en el mismo camino y ha anunciado el lanzamiento de Deepfake Detection Challenge, junto a Microsoft, Amazon e investigadores internacionales con el fin de premiar los mejores métodos de detección.
Sin embargo, esto no supondrá resolver el problema, puesto que los algoritmos de generación de deepfake se perfeccionarán también y será más difícil detectarlos. Los implicados aseguran que hay que fomentar medidas de otro tipo, en las que no inventive su creación.
Dos caras de la misma moneda, la Inteligencia Artificial, que permite crear imágenes engañosas y la vez es el instrumento que lucha por identificarlas.
Imagen: Steve Jurvetson