Trump esposado, Putin arrodillado y el Papa con parka

El desafío de la IA en la lucha contra la desinformación

Abril 10, 2023

Yeny García

ia
Imágenes creadas por Eliot Higgins con uso de inteligencia artificial muestran una escaramuza ficticia entre Donald Trump y los policías de Nueva York publicadas en la cuenta de Twitter de Higgins. @EliotHiggins/Twitter

La calidad cada vez más avanzada de las imágenes creadas por herramientas de inteligencia artificial están complicando el trabajo de verificación digital y facilitando la propagación de noticias falsas en redes, una tendencia preocupante en el mundo polarizado de hoy, alertan los expertos.

MIAMI, EEUU — La inteligencia artificial (IA) continúa en el punto de mira, ahora de los fact-checkers, que advierten sobre el «desafío» que imágenes falsas «extremadamente bien fabricadas» – como las de Donald Trump forcejeando con la policía o Vladimir Putin arrodillado ante Xi Jinping – presentan a la hora de luchar contra la desinformación.

«Definitivamente la aparición de imágenes creadas a través de la IA ha puesto en jaque a la verificación digital. Estas manipulaciones son cada vez más avanzadas y, lo que es aún más grave, exageradamente creíbles», explicó a la Voz de América el coordinador editorial de fact-checking en español de la agencia AFP, Alejandro Rincón.

En esto coincide, el periodista y fundador del sitio de verificación Mala Espina, Tomás Martínez, quien señaló a la VOA que la IA es «uno de los grandes desafíos para verificar desinformaciones», aunque advierte que esto no es nuevo.

Ejemplo de esto son los deepfakes, donde se superimpone el rostro de una persona en el cuerpo de otra, y videos e imágenes manipulados salidos a la luz durante la invasión rusa a Ucrania y la pandemia de COVID-19. «Varias de estas las hemos podido chequear en Mala Espina», agregó Martínez.

voa
Una captura de pantalla muestra respuestas del chatbot ChatGPT sobre la Inteligencia Artificial y la desinformación.

«Ahora, con los avances de las tecnologías seguramente será más habitual que nunca ver imágenes que han sido manipuladas con la inteligencia artificial y eso supone un gran reto, pero también una motivación para perfeccionar las técnicas de chequeos», matizó.

El futuro ya está aquí

El propio chatbot ChatGPT, la revolucionaria herramienta desarrollada por la startup OpenAI, reconoce que «las imágenes y videos generados con inteligencia artificial pueden contribuir a la desinformación en las redes».

ChatGPT forma parte de una nueva ola de aplicaciones y sitios web cada vez más sofisticados, que tienen la capacidad de retroalimentarse con cada actividad y «aprender» con cada interacción.

Para muchos, la tecnología de IA generativa podría ser el futuro de internet. El gigante Microsoft ha hecho una inversión millonaria en OpenAI y ha integrado un chatbot en su navegador Bing. Google no se ha quedado atrás y ya ha anunciado a Bard, su propio experimento de servicio conversacional de inteligencia artificial.

Estas herramientas pueden «conversar», generar texto legible bajo demanda y producir imágenes y videos en base en lo que han aprendido de una amplia base de datos de libros digitales y textos en línea.

En una reunión esta semana con sus asesores de ciencia y tecnología, el presidente Joe Biden indicó que la IA podría ayudar a hacer frente a enfermedades y al cambio climático, pero que también era importante abordar los riesgos potenciales.

«Las empresas tecnológicas tienen la responsabilidad de asegurarse de que sus productos son seguros antes de hacerlos públicos», dijo Biden, quien contestó que «está por verse» si la IA resulta ser peligrosa. «Podría serlo», agregó.

Realidad paralela

Cuando la marca de cerveza española Cruzcampo «resucitó» a la leyenda del folclor ibérico Lola Flores para una campaña de publicidad en 2021, muchos creyeron que era una entrevista de archivo de la cantante. Resultó ser uno de los mejores deepfakes hasta entonces.

Un usuario de Reddit, la famosa plataforma que desdibuja el límite entre las redes sociales y el foro tradicional, recientemente creó una imagen del papa Francisco con una herramienta de IA donde se lo ve con una parka blanca, de estilo deportivo. Su publicación original en Twitter lleva ya 27,7 millones de reproducciones, y más de uno tuvo que mirar dos veces para darse cuenta de que no era real. La red social se apresuró a verificar que no lo era.

Menos inofensivas, fotografías del expresidente Donald Trump forcejeando con policías y siendo arrastrado tomaron Twitter por asalto poco después de que el exmandatario asegurara que sería arrestado por las autoridades de Nueva York. El creador, Eliot Higgings, publicó un extenso hilo que incluye a Trump en un traje naranja en prisión.

La reunión de los presidentes de Rusia, Vladimir Putin, y China, Xi Jinping, en Moscú también provocó una serie de imágenes manipuladas, donde se puede ver a quien parece ser Putin arrodillado, besando la mano a Xi.

La mayoría de estas fotografías están fabricadas con aplicaciones como Dall-E, Midjourney y Stable Diffusion, con las que a un toque de teclado se pueden recrear obras maestras de la pintura o producir este tipo de imágenes trucadas.

¿Qué hacer frente al lado oscuro de la IA?

«Los deepfakes pueden ser utilizados para difundir información falsa o engañosa, como declaraciones falsas de políticos o celebridades, manipulaciones de evidencia en casos legales, o incluso para crear propaganda política o incitar a la violencia», alerta ChatGPT.

En España, la polémica sobre la ética periodística y la responsabilidad ante la difusión de este tipo de deepfakes estalló con una portada del diario El Mundo, en la que se puede ver una fotografía «imposible» fabricada por IA de los políticos Pablo Iglesias y Yolanda Díaz, enfrentados en un un agrio desacuerdo. Muchos se cuestionan cuán responsable es el uso de una imagen como esta, aunque sea para ilustrar un artículo sobre el tema.

La rápido difusión de una imagen sin contexto o falsa, pero tan bien hecha que puede parecer real, ha obligado a los verificadores a crear nuevas estrategias.

«Nuestros criterios nos piden siempre evidencia completamente sólida para desmentirlos, que va más allá de la mera opinión de un experto en este tipo de tecnologías: esto es, por ejemplo, encontrar además la autoría de esas piezas gráficas o bien inconsistencias que nos permitan compararlas con fuentes confiables», afirma Rincón, que antes de AFP, también trabajó con la agencia española de noticias EFE en su sección de verificación de datos.

Según el experto, la alerta temprana y el monitoreo efectivo son «fundamentales» en la verificación, no «solo porque permiten rastrear las rutas que la desinformación sigue entre países o idiomas, sino también porque así podemos atacarla cuando aún no ha llegado a niveles altos de viralización».

Los procesos electorales son especialmente sensibles a la desinformación, opinó por su parte Tomás Martínez.

«La desinformación puede generar un golpe a la democracia. En los procesos electorales vividos en Chile, en los últimos años, por ejemplo, pudimos observar cómo este fenómeno creció a medida que se acercaba la fecha de las elecciones, algo que ocurrió tanto en las presidenciales como previo al plebiscito de salida por una nueva Constitución», afirmó.

De acuerdo con Martínez, «lo relevante en este contexto es que la ciudadanía pueda tomar sus decisiones políticas, sean cuales sean, con información verificada y de calidad».

¿Puede ayudar la IA?

Para algunos expertos, las herramientas IA también pueden servir de mucho. » El uso de la inteligencia artificial en la verificación digital es necesario y urgente (…) La inversión en estos proyectos es más que necesaria en este momento», subrayó Rincón.

«No podemos enfrentar contenidos creados por estas tecnologías sin ponernos en ese mismo nivel. De hecho, hay ya varios esfuerzos por incluirla en las herramientas de verificación», precisó el coordinador de fact-checking, quien detalló como la AFP codesarrolló InVID We Verify, una “navaja suiza” para ofrecer soluciones a verificadores que ya se encuentra en su tercera fase.

Más cauto, Martínez cree que esta nueva tecnología «sí podría ayudar, pero la labor de reportar y fact-checking debe recaer en las manos del periodista y no de una máquina, para dar mejores garantías a la ciudadanía de un trabajo riguroso y de calidad».

¿Cómo podemos identificar una imagen falsa?

El sentido común es lo principal que aconseja Rincón cuando se tiene de frente a una imagen dudosa.

«Lo primero es siempre dudar de imágenes que muestran algo que genera un sentimiento de sorpresa inmediato (Trump corriendo perseguido por la policía, el papa Francisco con ropa extravagante). Lo segundo es acudir a fuentes confiables, servicios de verificación o medios, por ejemplo, para comprobar si esa imagen o video ha sido catalogada como verídica», enumera.

Además, se debe «jugar al detective: buscar marcas de agua que algunas herramientas de IA dejan sobre las imágenes creadas en esas plataformas o, también, regiones de la instantánea en donde haya inconsistencias (como líneas cortadas, extremidades incompletas, etc.) o baja resolución que resulte sospechosa».

«Mirar el fondo de la imagen puede ayudarnos, de la misma manera, a identificar una manipulación, pues puede mostrar detalles exactos del contexto o más irregularidades gráficas», indica Rincón.

Entre las herramientas de IA que recomienda el experto está Let’s Enhance.io, que mejora la calidad de la imagen, algo «muy útil para la verificación digital, porque nos permite acceder a detalles que en las imágenes comprimidas que circulan en internet sería imposible ver de otra manera».

Invid y Fotorensics son las aplicaciones que propone Martínez «para detectar eventuales manipulaciones de imágenes dudosas».

Voz de América

Revise también

X

¿Por qué los medios abandonan X?

Por qué los medios abandonan el barco sin rumbo en el que se ha convertido …

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *