Información-desinformación: identificar las imágenes generadas por Inteligencia Artificial ¿una misión imposible?

Muy utilizadas por los propagadores de noticias falsas, su inquietante realismo las hace a veces muy difíciles de identificar. Pero hay algunas pistas.

Muy utilizadas por los propagadores de noticias falsas, su inquietante realismo las hace a veces muy difíciles de identificar. Pero hay algunas pistas.

El papa Francisco con una chaqueta blanca, Donald Trump detenido por agentes de policía o, más recientemente, un anciano con la cara ensangrentada detenido durante una manifestación contra la reforma de las pensiones… El desarrollo de la inteligencia artificial (IA) es ahora una bendición para los propagadores de información falsa -o simples bromistas- que las utilizan para producir imágenes ultrarrealistas que, sin embargo, están inventadas desde cero.

Programas como Midjourney, DALL-E o Stable Diffusion son capaces de generar un número infinito de imágenes a partir de una enorme base de datos alimentada constantemente por las peticiones de los usuarios. Estas imágenes, que parecen bastante realistas a primera vista, pueden resultar confusas, sobre todo cuando están relacionadas con la actualidad, pero un análisis más detallado permite, a veces, identificarlas.

Logotipo y búsqueda inversa

Crear estas imágenes es fácil. En programas como Midjourney, basta con teclear una petición escrita en una barra de búsqueda para que la inteligencia artificial genere una nueva imagen a partir de millones de imágenes, píxel a píxel. El resultado puede ser asombrosamente realista, pero pueden quedar algunas imperfecciones que hagan saltar las alarmas.

El primer elemento que puede indicar que una foto ha sido generada por IA es la firma que se encuentra en la esquina inferior derecha de la imagen. En el caso del software DALL-E, se trata, por ejemplo, de un rectángulo multicolor, pero este punto de referencia puede ser eliminado fácilmente por personas malintencionadas recortando la imagen. Otra solución es realizar una búsqueda inversa en un motor de búsqueda arrastrando la imagen en cuestión a la barra de búsqueda para recuperar sus apariciones anteriores y encontrar su fuente.

 

Atención a los detalles

La mejor manera de detectar una imagen creada por una inteligencia artificial sigue siendo abrir bien los ojos y prestar atención a los detalles. Por ejemplo, las IA siguen teniendo grandes dificultades para generar reflejos o sombras. El grano de la imagen suele ser muy peculiar y los fondos suelen estar muy borrosos y si hay textos, no significan nada.

“Hay que encontrar las incoherencias en los detalles. A menudo son fotos que, a primera vista, son muy realistas, pero cuando las miras más de cerca, suele haber problemas. Los textos son problemáticos, porque la IA no puede generarlos bien. Otra pista son las caras del fondo, que están bastante mal hechas. Son caras borrosas, no completamente formadas”, analiza Lise Kiennemann, periodista de la web Les Observateurs de France 24, que trabaja en estos temas.

Un análisis más detallado de las fotos falsas de la detención de Donald Trump compartidas por el fundador del sitio Bellingcat, Eliot Higgins, revela, por ejemplo, que lo que está escrito en las gorras de los policías carece de sentido, que el expresidente estadounidense lleva una porra y que hay una incoherencia en sus extremidades inferiores, ya que parece tener tres piernas. Todas estas pistas sugieren que las imágenes fueron generadas por una IA, sobre todo porque Donald Trump aún no había sido detenido cuando se publicaron.

Los generadores de imágenes también suelen crear asimetrías con rostros desproporcionados, con orejas a distinta altura. También tienen dificultades para reproducir los dientes, el pelo e incluso los dedos. A principios de febrero se hicieron virales unas imágenes de mujeres abrazando a policías durante una manifestación contra la reforma de las pensiones, pero rápidamente se identificaron como falsas porque en una de ellas el policía tenía… seis dedos.

 

 

Hacia la perfección

La IA aún tiene margen de mejora, pero al ritmo al que evoluciona, muy pronto podría resultar imposible diferenciar entre las imágenes generadas por ella y las reales. “Midjourney, están en la V5. La diferencia entre la V1 y la V5 en pocos meses es absolutamente asombrosa. Podemos pensar que en unos años quizás, pero yo creo más bien que en unos meses, no seremos capaces de notar la diferencia”, explica Guillaume Brossard, especialista en desinformación y fundador del sitio web Hoaxbuster. El propio Midjourney se ha visto desbordado por la magnitud del fenómeno, ya que el sitio anunció el 30 de marzo que, aplastado por “la extraordinaria demanda y el abuso de las pruebas”, suspendía su versión de prueba gratuita.

Como consecuencia de esta evolución, algunas imágenes están sembrando la duda a pesar de ser reales. Por ejemplo, la foto de una joven detenida en París al margen de las manifestaciones fue inmediatamente identificada como creación de una inteligencia artificial por los internautas, hasta que el autor de la foto confirmó que era real y que otras imágenes de la detención, tomadas desde otro ángulo, corroboraran sus afirmaciones.

“Podemos creer que las imágenes reales son en realidad IA y podemos creer que las imágenes de IA son reales, así que los límites son ya muy difusos y lo serán aún más en los próximos meses. Pero hay una cosa que las IA no saben hacer y que no están a punto de saber hacer, creo, y es reproducir una escena desde varios ángulos y eso es una muy buena pista”, afirma Guillaume Brossard.

La desinformación en una nueva era

Así que buscar imágenes de un suceso desde distintos ángulos es una buena forma de comprobar si una imagen es real. Herramientas como la aplicación Hugging Face también permiten determinar la probabilidad de que una imagen sea producto de una IA, pero su fiabilidad sigue siendo relativa y no parece que vaya a mejorar.

Frente a estas nuevas tecnologías que llevarán la desinformación a una nueva era, la mejor manera de protegerse es cuestionar constantemente las imágenes que se ven, sobre todo las que intentan tocar nuestras emociones tratando de escandalizarnos. Según Guillaume Brossard, ésta es una de las principales fuentes de desinformación y “en cuanto una imagen genera una emoción, es imperativo preguntarse si no está potencialmente adulterada de alguna manera”.

Con la rápida mejora de la IA, no es seguro que sea suficiente para luchar contra la creciente influencia de las noticias falsas. “Hoy en día, la gente sólo cree lo que quiere creer. No les importa si lo que les mostramos es cierto o no y ese es el problema. Esto se parece un poco a lo que Trump teorizó sobre las verdades alternativas y la era de la posverdad. Estamos en medio de ella y tendremos que aprender a vivir con ella”, lamenta el fundador de Hoaxbuster.

Para contrarrestar esta amenaza, la educación mediática sigue siendo una palanca esencial. Algunos también pidieron una “pausa” en el desarrollo de la inteligencia artificial: personalidades como Elon Musk, jefe de Tesla, y Steve Wozniack, cofundador de Apple, han escrito una carta abierta en la que piden una moratoria de seis meses para la IA, que consideran un “desafío existencial” para la humanidad. Una postura compartida por Guillaume Brossard: “Debería haber una moratoria, un poco como se hizo en su día con las armas nucleares. La humanidad debería tomarse un respiro y decidir añadir una especie de huella dactilar que certificara al 100% que un archivo es producto de la inteligencia artificial”. Pero el experto admite que “teniendo en cuenta lo que está en juego hoy en día con la desinformación, no será algo fácil de hacer”.





Presione Escape para Salir o haga clic en la X