Los «Deep fakes», falsos, falsos…
Con la serie Wednesday (Merlina) de Netflix se hicieron virales videos de personas bailando al estílo ecléctico de la protagonista, entre ellos un “Tom Cruise” (@deeptomcruise) y sorprendiendo con sus movimientos en Tik Tok para alcanzar casi 90 millones de visitas. Sólo que, por real que pareciera, no era el verdadero rostro de Tom Cruise, sino Inteligencia Artificial (IA).
Misma condición aplica a otros donde salen los “actores” Keanu Reeves (@unreal_keanu), Margot Robbie (@unreal_margot), Jason Stateham, Robert Pattinson (@unreal_robert), la fallecida reina Elizabeth II, y el empresario Donald Trump, entre otros, haciendo bromas y cosas fuera de lo común…
Pero no son reales, son personas que con ayuda de la IA cambiaron sus rostros por los de los famosos. Traducidos como “falsos, falsos” en español, se llaman Deep fakes.
“Y cada vez habrá más personas que se puedan hacer pasar por cualquier figura pública que será tan difícil distinguirlas, por eso creo que en breve, no pasa de este año, muchas aplicaciones como Tik Tok tendrán que habilitar una etiqueta para que sepamos cuándo es un deep fake”, según declara a este semanario Alejandro García Romero, fundador y director del Laboratorio de Tecnología UNAM Mobile de la máxima casa de estudios.
Los Deep-fakes, en palabras simples, se traducen en imagenes, videos y/o audios que imitan la apariencia y voz de una persona. Una red neuronal impulsada por inteligencia artificial que con efectos visuales (VFX) hacen coincidir cada expresión.
Y si bien ahora es un poco más accesible aplicar esa tecnología, no es tan fácil como parece, pues producir un video similar al “falso Tom Cruise” requiere un físico similar al de la persona, y algo de actuación en gestos y voz, como es el caso de Miles Fisher, el imitador de Tom Cruise que está detrás del @deeptomcruise.
Hasta hace unos años el uso de esa tecnología era muy costoso y requería de especialistas en el tema; así se hicieron posible grandes escenas de la cultura pop del cine de los últimos años, como uno de los finales más sorprendentes de la saga de Star Wars, con la precuela Rogue One: A Star Wars Story, en cuya escena final aparece el personaje de Princesa Leia (Carrie Fisher) de joven, tal y como se veía en la cinta de los años ochentas.
O el filme Fast and Furious 7, que a pesar del deceso de su coprotagonista, Paul Walker, apareció en varias escenas; y en un final icónico para los seguidores de esos filmes –que este año estrenará su décima cinta–, saldrá de nuevo en una combinación entre tomas de archivo y tecnología asociada al Deep fake.
Abunda García Romero, ingeniero, empresario e impulsor de UNAM Mobile:
“El Deep Fake aparenta lo que no es, es ultra-realista, y es esto último lo que lo hace un parteaguas de lo que puede ser la próxima generación de contenidos en todos los ámbitos, pues la manipulación de rasgos faciales es cada vez más sofisticada, te hace dudar entre lo verdadero y lo falso.
“Pero hay un segundo componente todavía más interesante, y es que ahora es asequible, porque antes se requería un nivel de procesador elevado en costos, y ahora empiezan a estar al alcance de todos, por eso estamos viendo más videos al respecto”.
¿Pero cuál es el futuro de las Deep fake?
García Romero apunta hacia la parte positiva del entretenimiento, o mejor la parte educativa:
“Imagina que la historia te la cuenten las personas que la hicieron, Benito Juárez explicándote las Leyes de Reforma, Emiliano Zapata hablando sobre la Revolución mexicana, o bien a personajes de otros países con historia igual de asombrosa”.
–¿Lo negativo?
–El que alguien pueda suplantar la identidad de una persona para un fraude o para atacar su reputación, la manipulación de acciones… porque las personas a veces no nos detenemos a investigar si lo que vemos es verdad o no. Eso puede traer una gran confusión, además de situaciones de delincuencia, de extorsión y/o acoso.
“Hoy en día una persona puede descargar tus fotos de Instagram o videos y con eso entrenar una red neuronal, y no hablamos de un ingeniero, sino de alguien con acceso a estas plataformas. Esto es lo que preocupa y en lo que los gobiernos y empresas de tecnología tienen que encontrar la manera en cómo responder… Hay antecedentes positivos en Estados Unidos y China, que ya están haciendo regulaciones en los Deep fake, y lo tienen que hacer porque en dos años se les puede salir de control”.
Esta tecnología está muy avanzada y al alcance de la mano, que ya se tienen experiencias sorprendentes. Por ejemplo, vía Deep Nostalgia de la plataforma My Heritage, invita a subir fotos antiguas de seres queridos con la idea de darles vida. Así puede verse a un abuelo o bisabuelo en la foto parpadeando y con algunas miradas y movimientos en la boca. También en aplicaciones recientes como Reface y Faceswap orientadas al Deep fake y en celulares.
Según se lee en la web de UNAM Mobile, desde que se fundó en 2001, ha buscado mantener activo su espíritu creativo, curioso y emprendedor (al día de hoy la conforman 14 miembros), con aplicaciones como UNAM 360, los anteojos inteligentes ÉPOCA, la Sudadera PODIUM, el triunfo en el Hackaton de Grupo Modelo en 2016, EMI (Estándar Mínimo de Inteligencia) –un chat inteligente–, y emprendimientos como Yamblet y Artificial Nerds; estas últimas startups (empresas de nueva creación) creadas por estudiantes que pertenecieron a diferentes generaciones de UNAM Mobile.
En 2017 Proceso realizó una entrevista a García Romero en un Facebook Live sobre la tecnología de EMI, un chat-robot que buscaba responder dudas sobre los contendientes y elecciones presidenciales de 2018.
Ese chat fue creado y mejorado por universitarios de la máxima casa de estudios en Silicon Valley, California (EU), la ciudad-hogar de las empresas de innovaciones tecnológicas más importantes de las últimas décadas, donde crecieron compañías como Apple, Ebay, Yahoo, Google y Facebook.
Si bien EMI ha continuado su camino en la vertiente educativa –alejada de los temas presidenciales–, García Romero no descarta que de cara a las elecciones de 2024 regrese en una versión mejorada, “probablemente habrá una versión 2.0 de EMI”.
–En perspectiva con herramientas similares que usan día con día, como las asistentes de voz Siri de Apple o Alexa de Google, o la reciente faz de conversación en texto ChatGPT –que en estos días es muy consultada como curiosidad o como buscador de información–, ¿qué tanto falta para sostener una conversación, tal y como sucede en la cinta HER (2013), protagonizada por Joaquin Phoenix y Scarlett Johansson como la “interfaz-compañera virtual”?
–Estamos a un paso, ha habido un avance en el procesamiento de lenguaje, la “síntesis de voz”, que es el término correcto. Agregarle voz a cualquier sistema de chat inteligente es relativamente sencillo, pero para hacerlo se requiere de alianzas con empresas de tecnología, la Academia, y grupos de innovación…”.