Alerta de “deepfake”: ¿Cómo la tecnología pone en jaque a la sociedad actual?

Nuevas modalidades de estafa y ciberataques vienen de la mano con este tipo de softwares. También, un problema que sufren en Chile y en el mundo miles de jóvenes: la suplantación de identidad para pornografía. ¿Cuál es su peligro y cómo reconocerla?

Nuevas modalidades de estafa y ciberataques vienen de la mano con este tipo de softwares. También, un problema que sufren en Chile y en el mundo miles de jóvenes: la suplantación de identidad para pornografía. ¿Cuál es su peligro y cómo reconocerla?

Michael Jackson y Freddie Mercury cantando a dúo en Tiktok y la actriz noruega Ingvild Deila haciendo de una joven Princesa Leia en la película Rogue One: A Star Wars Story, pero con el rostro de Carrie Fisher quien falleció durante el rodaje. Estos son solo unos de los tantos ejemplos en los que ha actuado la técnica de inteligencia artificial hoy conocida como “Deepfake”.

Esta tecnología utiliza una serie de algoritmos de aprendizaje para replicar voces y rostros. Y si bien los ejemplos mencionados se asocian al entretenimiento, sus principales usos en la actualidad están más ligados a ilícitos. Las deepfake hoy tienen un lado oscuro explotado en todo el mundo: Ciberataques, nuevas modalidades de estafa, distorsión, desinformación, fraude en línea, una ciberguerra política y, la más reiterada, la porno venganza.

Para entender como funciona esta nueva tecnología, el asesor científico de la Fundación Encuentros del Futuro, Tomás Vera, explica en diálogo con Radio y Diario Universidad de Chile que “son tan eficaces en poner las palabras correctas en el lugar correcto para hacernos a nosotros una realidad de que pareciera que otro humano está hablando”.

Vera es muy claro al señalar que “los computadores no entienden lo que están reproduciendo”. “Cuando hablamos tanto de audio, por ejemplo, o de un rostro humano, los computadores, los modelos, tuvieron que aprender que era un rostro. Qué está dentro de los parámetros normales: la posición de nuestros ojos, nuestras orejas, el pelo, la boca, y a partir de eso ser entrenados con muchísimas imágenes. Eso le da criterios al algoritmo”, detalla el también director de Zenta Group.

Lograron capturar la esencia de una imagen de entrada. Y pixel a pixel, de manera difusa que se llama, va copiando esa esencia en la imagen original al destino. Los videos están hechos de frame, no es algo continuo, son un conjunto de imágenes en segundos. Estos modelos son capaces de tomar un video de una persona hablando por teléfono o dando una conferencia, y trasladar esta esencia de una sola imagen de una persona hacia ese video”, aclaró Vera, haciendo énfasis en lo que se conoce como ‘oneshoot’: basta una sola foto para crear una deepfake. Y, para el caso de los audios, con solo 5 segundos hoy es suficiente para recrear la voz de uno al menos en su esencia.

Los peligros en la sociedad actual

El experto recalca que esta tecnología hace mucho tiempo que existe. Y se ha usado, sobre todo, en el cine. No obstante, apunta al gran dilema hoy: “el primer riesgo es que ahora está al alcance de cualquier persona”.

Además, Vera también menciona como un problema la falta de normativa para regular las tecnologías como la que permite la creación de deepfake. Incluso, el asesor científico de la Fundación Encuentros del Futuro da de ejemplo la regulación de las armas para exponer su punto.

“Las armas tienen la disposición de quien quiera comprarlas, no solo el dinero, sino que la edad legal, que cumpla con ciertos requisitos. Acá no hay nada. Cualquiera puede llegar y tomar esta tecnología. Adicionalmente, las armas tienen otro nivel de seguridad: un número, se registran en un lugar. En este caso, estas herramientas, supongamos que sean de libre uso, también deberían tener algún tipo de registro. Yo debería poder ser capaz de identificar, a lo mejor no con el ojo humano sino que con otro algoritmo, mira esto fue desarrollado con esta tecnología”, argumentó el experto al respecto.

Actualmente en Chile, la legislación al respecto está muy poco actualizada. Incluso, en lo que respecta a delitos de suplantación de identidad, recién en julio del 2023 se presentó un proyecto de ley que busca modificar el Código Penal y sancionar como delitos la usurpación de identidad a través de redes sociales y de nuevas tecnologías.

Pero nuestro país no es el único en alerta por los problemas que traen consigo estas nuevas tecnologías. Actualmente, Corea del Sur afronta una importante lucha contra la pornografía deepfake. Expuesto por un reportaje de la BBC, la red social Telegram está en el ojo del huracán debido a la presencia de docenas de grupos en los que se encontró contenido falsificado de jóvenes de más de 500 universidades y colegios. Contenido creado a partir del software de inteligencia artificial.

¿Cómo saber que estamos ante una deepfake?

Llegados a este punto, es necesario comenzar a desarrollar la manera de identificar cuando estamos ante una deepfake. Aunque Vera asegura que es probable que, ante la imparable evolución de estas tecnologías, los tips para identificarlas queden rápidamente obsoletos.

En primer lugar, en el caso audiovisual, es importante “prestar atención a los detalles”. “En lo que se llama la continuidad del video. Los computadores no conocen de la continuidad, entonces posiblemente fotograma a fotograma van perdiendo un poco de continuidad. Vamos a ir notando algunas discontinuidades entre el fotograma”, mencionó.

Como un ejemplo, el asesor científico apeló al recuerdo de las monedas y billetes falsos, que llevó a las personas a entrenar su ojo para descubrir cuando estaba ante dinero falsificado. “Hay que profundizar mucho más ahora el pensamiento crítico”, recalca, sobre todo para cuando de llamadas telefónicas se trata.

“Cada vez que alguien nos llama, tratar de contextualizarnos rápido. ¿Puede ser real esta llamada o podría ser trucada? Si nos surge la duda, llevar el pensamiento crítico al máximo.
Hacer alguna pregunta clave, tener algún mecanismo para poder identificar a la persona por algún dato que los dos conocemos. Si hago una pregunta y no responde de manera correcta, nos va a indicar que es una deepfake”, recomendó Vera.

Un camino hacia la privacidad

El experto hace hincapié en cómo la sociedad actual, gracias a las nuevas tecnologías, ha permitido que “estemos muy expuestos”. Incluso, menciona, hoy sería posible usar “ciertos difusores” en las imágenes que se comparten en redes sociales que “alteran la precisión de la imagen” y de esa manera cuidar nuestro propio contenido compartido en el mundo digital.

Tomás Vera recuerda que en los inicios de Internet y las redes sociales “nadie estaba preocupado por la privacidad”. “Todos inmediatamente subíamos nuestras fotos, nuestra información. Hoy si vemos el 60% de los perfiles en Facebook, que es la aplicación más vieja, en Instagram y Tiktok, o son privados o tienen una robustez de privacidad respecto de los datos muy altos”, señaló.

Yo creo que la privacidad va a empezar a tener un valor muy alto. Y van a empezar a existir herramientas, así como tenemos antivirus, que vamos a poder instalar en nuestros dispositivos móviles o computadoras que nos permitan proteger nuestra privacidad”, expuso como reflexión final.

Claves:





Presione Escape para Salir o haga clic en la X