Deepfakes explicados: la inteligencia artificial que hace que los videos falsos sean demasiado convincentes

Ver para creer. Bueno, al menos ese era el caso antes de que nos diéramos cuenta de que las personas podían manipular videos de manera fácil y convincente para promover engaños y reescribir la historia. Si bien hemos encontrado formas de desacreditar la mayoría de los engaños, hay un desarrollo tecnológico que continúa afianzándose, lo que dificulta saber cómo distinguir qué es real y qué es falso.


Deepfakes cambia todo lo que creíamos posible en términos de video manipulado. Esto es lo que debe saber sobre qué son los deepfakes y los riesgos que plantea esta tecnología…


¿Qué es un deepfake?

El término deepfakes proviene de una combinación de las palabras «aprendizaje profundo» y «falsificaciones». Esto se debe a que un software de IA entrenado en síntesis de imágenes y videos crea estos videos. Por lo tanto, la definición de deepfake es un video o una imagen falsos generados mediante inteligencia artificial para reemplazar el rostro y la voz de la figura retratada. Esta IA puede superponer la cara de un sujeto (la fuente) en el video de otro (el objetivo). Mientras tanto, formas más avanzadas de tecnología deepfake pueden sintetizar un modelo completamente nuevo de una persona utilizando los gestos faciales de la fuente e imágenes o videos del sujeto que desean suplantar.

La tecnología puede crear modelos faciales basados ​​en datos visuales limitados, como una imagen. Sin embargo, cuantos más datos tenga que procesar la IA, más realista será el resultado.

Esta es la razón por la cual los políticos y las celebridades son objetivos tan fáciles para los deepfakes, ya que hay muchos datos visuales disponibles en línea para que los use el software. Debido a que el software deepfake está disponible en plataformas de código abierto, las personas en Internet están continuamente refinando y construyendo sobre el trabajo de los demás.

¿De dónde vienen los deepfakes?

La tecnología detrás de los deepfakes se ha desarrollado para una multitud de propósitos. Al igual que Photoshop, el software tiene usos profesionales, de entretenimiento y aficionados. Y al igual que Photoshop, si bien los creadores originales no tuvieron intenciones maliciosas al crear el software, eso no ha impedido que las personas lo usen con fines maliciosos.

La tecnología de intercambio de rostros se utilizó inicialmente principalmente en la industria cinematográfica. Uno de los casos más famosos está en la película de 2016 Rogue One: A Star Wars Story. En la película, los cineastas utilizaron tecnología de intercambio de caras y síntesis de video para recrear al personaje Grand Moff Tarkin.

En la película también se creó una versión más joven de la princesa Leia. En ambos casos, los modelos de los rostros de los actores originales se superpusieron a los actores de reemplazo.

Las aplicaciones como Snapchat también utilizan la tecnología de intercambio de rostros para crear filtros divertidos para los usuarios. Los desarrolladores detrás de estas aplicaciones refinan continuamente su detección y seguimiento de rostros para aplicar estos filtros de manera más efectiva.

Otros han desarrollado herramientas de síntesis de video para crear hologramas con fines educativos. Por ejemplo, un proyecto desarrolló un software de síntesis facial y de video para que el testimonio de los sobrevivientes del Holocausto pudiera presentarse como hologramas interactivos en un museo.

La tecnología deepfake avanza rápidamente

El aprendizaje automático hace la vida más fácil, pero en este caso, hace que la falsificación sea mucho más fácil. Así como el arte generado por IA está cambiando la industria del arte, los deepfakes han cambiado la naturaleza del video en línea. Pero algunos de estos cambios son malos.

En primer lugar, el software deepfake está disponible de forma amplia y gratuita. FakeApp, por ejemplo, es una opción popular para crear deepfakes. No necesita conocimientos avanzados para aplicar un cambio de cara, el software lo hará por usted.

Pero a medida que la IA y el aprendizaje profundo ayudan a crear deepfakes, la tecnología también mejora y se vuelve más persuasiva a un ritmo alarmante. A veces, estos cambios no son visibles a simple vista, lo que dificulta saber qué es real y qué no. Hay algunos signos reveladores que lo ayudan a detectar una falsificación profunda, como recorte de bordes o rostros distorsionados en ciertos ángulos.

En un mundo lleno de noticias falsas, las falsificaciones profundas convincentes podrían convertirse en una fuerza caótica contra lo que creemos que es verdad. El auge de las falsificaciones profundas también está ocurriendo en un momento en que la síntesis de voz de IA y los generadores de voz de IA también están avanzando.

La IA no solo puede generar videos falsos, sino que también puede generar modelos de voz para las personas. Esto significa que no necesitaría un imitador para que parezca que un político está haciendo una declaración escandalosa. En su lugar, puedes entrenar a la IA para imitar su voz.

Las consecuencias de las falsificaciones profundas

Si bien es posible usar deepfakes para hacer videos divertidos, muchas personas también usan deepfakes con fines maliciosos. La gente ha estado usando FakeApp para crear videos falsos de celebridades en escenarios comprometedores.

Además, en la mayoría de los países, aún no hay leyes que se ocupen de este tipo de contenido, lo que dificulta su regulación. Si bien todavía estamos muy lejos de la distopía plagada de desinformación y la evidencia de video falso que vemos en películas como The Running Man, ya conocemos muy bien los efectos de las noticias falsas.

Las consecuencias del uso de deepfakes con fines políticos son dos. Primero, hace que las noticias falsas sean mucho más fáciles de difundir. Es más probable que los videos convenzan a las personas de que algo ficticio realmente sucedió que el texto o las imágenes. La gente ya cree en los titulares de sitios web falsos sin pruebas.

Un ejemplo de un deepfake que se usa para engañar a la gente es el deepfake de 2022 que mostró un video del presidente ucraniano Volodymyr Zelenskyy ordenando a las tropas que se rindieran. Se demostró que esto era falso, pero el video aún circulaba en las redes sociales.

Por otro lado, las falsificaciones profundas también podrían envalentonar a los políticos cuando evaden la rendición de cuentas. Siempre podrían afirmar fácilmente que una grabación de audio o video es en realidad una falsificación profunda.

¿Cómo estamos luchando contra las falsificaciones profundas?

Puede ser difícil protegerse de los videos falsos. Pero hay formas en que las empresas están trabajando para que las falsificaciones profundas sean más fáciles de detectar. Existen varias herramientas destinadas a combatir videos falsos maliciosos. Muchas de estas herramientas usan inteligencia artificial para detectar la manipulación de videos.

AI ​​Foundation ha creado un complemento de navegador llamado Reality Defender para ayudar a detectar contenido falso en línea. Otro complemento, SurfSafe, también realiza comprobaciones similares. Ambas herramientas tienen como objetivo ayudar a los usuarios de Internet a distinguir la realidad de la ficción.

Los sitios web de verificación de hechos de buena reputación también se han expandido para extraer videos falsos. Mientras tanto, Microsoft también ha implementado la tecnología para ayudar a combatir los videos falsos.

El Departamento de Defensa de EE. UU. también ha invertido en software para detectar falsificaciones profundas. Después de todo, ¿qué pasaría si apareciera en línea un video convincente de un líder mundial declarando la guerra o lanzando un misil contra otro país? Los gobiernos necesitan herramientas para verificar rápidamente la legitimidad de un video.

Las consecuencias no deseadas del aprendizaje automático

No hay duda de que la tecnología de IA y el aprendizaje automático profundo mejoran nuestras vidas de muchas maneras. Pero la tecnología también tiene consecuencias no deseadas. Es difícil predecir cómo las personas pueden usar ciertas tecnologías con fines maliciosos y los deepfakes son un ejemplo.


Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *