¿Cómo detectar videos alterados con inteligencia artificial?

Por ahora, la tecnología tiene tres flancos débiles: los ojos, labios y las páginas especializadas para detectar sus otras inconsistencias menos perceptibles.
Redacción Vistazo
Fotografía referencial de una persona viendo su teléfono inteligente.

No poder distinguir a primera vista si un video fue modificado o creado con inteligencia artificial (IA), algo que hace varios años casi no ocurría, se ha vuelto una situación recurrente en la actualidad.

Lea también | Un adolescente se suicidó después de enamorarse de un bot de Daenerys Targaryen creado con inteligencia artificial

Ello se debe a que el contenido generado de esta forma ha evolucionado, en un mundo en el que el usuario típico de redes sociales pasa cerca de dos horas y media conectado desde su celular.

Así, tecnología que en un principio era utilizada principalmente para crear parodias ahora es el motor de un remolino de noticias falsas que en muchas instancias llegan a viralizarse.

Voces simuladas que se asemejan mucho a las originales y movimientos cada vez más similares a los que haría un humano tiñen de un realismo sin precedente videos que hacen pasar como reales situaciones que nunca ocurrieron.

El caso más reciente se registró la semana pasada, cuando se difundió por redes sociales un video modificado en el que se sincronizó un extracto de una entrevista al ministro de Gobierno, Arturo Wong, con un audio aparentemente creado con IA.

"No tengo la culpa que la gente no se compre su propio generador eléctrico”, decía el funcionario en el clip, que incluso fue compartido por líderes opositores, como el expresidente Rafael Correa.

Esta falsa declaración, viralizada en el marco de una crisis eléctrica que ha derivado en apagones diarios que superan las 10 horas en casi todo el país, impulsó a miles de internautas a criticar con ferocidad a Wong.

No obstante, horas después, usuarios más cautos elevaron alertas, pues el movimiento de los labios del ministro no estaba sincronizado con la frase que supuestamente estaba pronunciando.

Posteriormente, Radio Sucesos, medio al que Wong le había concedido la entrevista, publicó un mensaje en el que tachaba como falso el clip y advertía que fue creado con IA.

Sin embargo, aún cuando la aclaración ya había sido efectuada, el corto video siguió siendo compartido por cientos de usuarios, acumulando en torno a sí condena por algo que nunca pasó.

Tal como en el caso del ministro, una de las formas más usuales de insertar información falsa en un video es reemplazar el audio que recoge lo que una persona dice con una nota de voz generada por medio de IA, que vocaliza exactamente lo que su creador quiere.

Por ello, es necesario revisar la sincronía entre los labios y las palabras que se escuchan en los clips, puesto que si esta no es perceptible, es posible que el contenido sea falso.

En adición a los labios, otro punto débil para las herramientas de IA, por ahora, son los ojos.

Lea también | Ansiedad y depresión y autolesiones, entre los trastornos mentales más comunes en Ecuador

En la vida real, los patrones se pestañeo no suelen seguir patrones exactos. Además, durante conversaciones, suelen responder a signos del lenguaje corporal de la otra persona.

En cambio, cuando la IA produce imágenes, los patrones de pestañeo generalmente siguen ritmos exactos. Incluso suelen viralizarse videos en los que las personas que aparecen ni siquiera lo hacen.

Estos son los dos flancos endebles de este tecnología. Pese a que una persona atenta los puede detectar si se fija, ya existen programas especializados que analizan segundo por segundo videos para determinar si fueron creados o alterados con este tecnología.

Por ejemplo, Deepware Scanner es un programa gratuito que requiere tan solo que un enlace sea pegado para ir al sitio de destino y analizar si el video fue creado con IA.