Desde los inicios del uso masivo de internet, podíamos observar que proliferaban las imágenes sexualmente explícitas sobre todo de celebridades, que eran en su mayoría evidentemente faltas, pues las fotografías eran burdos fotomontajes, muchas veces hechos de manera rápida y fácilmente identificable. Sin embargo, con el correr de los años y los avances de la tecnología, era de suponer que también este tipo de acciones habrían de evolucionar.
Hemos llegado a la era de los deepfakes, la era de las fake news y de la monetización o el interés de crear noticias o notas falsas, incluso utilizando este tipo de fotomontajes para distraer, atacar o afectar de muchas maneras la información o reputación de una persona. Esto demuestra que la tecnología explotó tan rápido que podemos asegurar que cualquiera con conocimientos mínimos del internet puede crear este tipo de imágenes o videos en menos de 12 horas. “La tecnología para superponer caras de famosos en otras personas lleva años disponible para los efectos especiales”, dice Evgeny Chereshnev, director ejecutivo de la compañía de tecnología seguridad BiolinkTech. Los deepfakes toman su nombre de un usuario de Reddit: “Deepfakes”, quien el año pasado perfeccionó un algoritmo complejo para cometer invasión a la privacidad de personas como las actrices Gal Gadot, Taylor Swift y Scarlett Johansson en situaciones comprometedoras. Aunque nuestro cerebro sabe que ninguna de ellas es la persona que hace eso, nuestros ojos sí parecen muy convencidos. Después, en enero pasado, otro usuario de Reddit creó una aplicación gratuita, llamada FakeApp, con un algoritmo incorporado que hace el intercambio de caras por ti.
Te recomendamos: Ataques de malware pueden costar hasta 2.5mdd a empresas
Para crear este tipo de deepfakes, basta con tener una computadora de gama alta, potente, como las que comúnmente se utilizan en la creación de videos musicales o en agencias de publicidad, una buena tarjeta gráfica y una vasta biblioteca de imágenes del objetivo. Lo que, gracias a las redes sociales, YouTube o incluso Linkedln no es demasiado complicado, haciendo que teóricamente cualquiera pueda transformar a una estrella del porno en cualquier otra persona. Hoy en día se pueden conseguir estos programas de manera muy económica; pagando entre 20 y 30 dólares, y con Adobe se tienen básicamente las herramientas necesarias para digitalizar la imagen de cualquier persona. Claro que hay quienes, con equipos muy costosos y software muy avanzado, dan el siguiente paso, llegan al siguiente nivel. Adobe VoCo, una especie de Photoshop para audio, permite incluso al usuario recrear la voz de alguien solo 20 minutos después de escucharla. Todavía está en etapa de investigación, pero hay otras compañías como Lyre Bird, que tienen un software más básico ya disponible para su uso.
Otro de los usos y en muchos casos el más dañino de los deepfakes, es para el cada vez más recurrido “fake news”. Es muy famoso un video del ex presidente de los Estados Unidos, Barack Obama, ofreciendo un discurso que todo mundo tomó como real, sin embargo, era un deepfake doblado por un famoso comediante también estadounidense. Cabe ahora la posibilidad de pensar que corremos el riesgo de creer una infinidad de noticias, reportajes y demás, muchas veces sin darnos cuenta de que se trata de una de estas prácticas y dando paso a la proliferación de la desinformación. El alter ego del expresidente de Estados Unidos en esta recreación es el actor y cineasta Jordan Peele, director de la Oscarizada “Déjame salir” y cuñado de Jonah Peretti, fundador de BuzzFeed. Ambos idearon este experimento para advertir de los potenciales peligros de aplicar la Inteligencia Artificial (IA) para fabricar noticias falsas en formato audiovisual, lo que se ha bautizado como deepfakes, es decir, mentiras profundas.
Según Francisco Javier Ordóñez, director de Inteligencia Artificial en StyleSage, este vídeo es una prueba de concepto que ilustra sobre las posibilidades de una serie de algoritmos que se conocen como modelos generativos y que son capaces de memorizar cuáles son las características de una fuente de datos para después crear nuevos ejemplos de esos datos desde cero. “De esta forma, si la fuente de datos son imágenes de Obama, el algoritmo es capaz de generar las expresiones y gestos faciales necesarios para simular un discurso que no existe”, apunta Ordóñez.
Te recomendamos: Estás protegido si sabes qué es un firewall
Sin embargo, detrás de la manipulación tan bien lograda en este video, tenemos que estar conscientes de que se encuentra un vasto equipo de trabajo y que llevó un largo tiempo realizarlo. Esos escasos 70 segundos de video presentado por Buzzfeed requirieron más de 56 horas de renderizado; este es un proceso posterior a la edición que se logra con Adobe After Effects y FaceApp, el cual es un polémico software que a finales del 2017 y principios de este año causó gran revuelo, porque sus técnicas de “deep learning” se utilizaron justamente para los fines mencionados al inicio del artículo y estos videos posteriormente se viralizaban en Reddit.
Los deepfakes significan una amenaza aún mayor que las simples fake news o memes con Photoshop que fueron tan populares durante la elección presidencial de Estados Unidos, en el 2016. Esto es porque son difíciles de identificar y sobre todo porque la gente, al menos en estos tiempos, está más inclinada a creer todo lo que ve en la red, sobre todo los videos. Pero no solo serán estos videos los que acarreen información falsa, lo que resulta peligroso, sino que también llegará el punto en que las personas pensarán que no pueden confiar en absolutamente nada que lean, escuchen o vean, a menos que apoye las opiniones que ellos mismos ya tienen cimentadas. Los expertos, peor aún, afirman que los videos falsos casi imposibles de identificar, están ya a la vuelta de la esquina, tan cerca como a máximo 12 meses a partir de ahora.