Deconstrucción de deepfakes: ¿cómo funcionan y cuáles son los riesgos?

El mes pasado, Microsoft presentó una nueva herramienta de detección de falsificación profunda. Semanas atrás, Intel lanzó otro. A medida que más y más empresas hacen lo mismo y surgen más preocupaciones sobre el uso de esta tecnología, echamos un vistazo en el WatchBlog de hoy a cómo funciona esta tecnología y las cuestiones de política que plantea.

¿Qué es un deepfake?

Un  deepfake  es una grabación de video, foto o audio que parece real pero ha sido manipulada usando inteligencia artificial (IA). La tecnología subyacente puede reemplazar rostros, manipular expresiones faciales, sintetizar rostros y sintetizar el habla. Estas herramientas se utilizan con mayor frecuencia para representar a personas diciendo o haciendo algo que nunca dijeron o hicieron.

¿Cómo funcionan las falsificaciones profundas?

Los videos deepfake comúnmente intercambian rostros o manipulan expresiones faciales. La siguiente imagen ilustra cómo se hace esto. En el intercambio de caras, la cara de la izquierda se coloca en el cuerpo de otra persona. En la manipulación facial, las expresiones del rostro de la izquierda son imitadas por el rostro de la derecha.

Intercambio de rostros y manipulación facial

Los deepfakes se basan en redes neuronales artificiales, que son sistemas informáticos que reconocen patrones en los datos. El desarrollo de una foto o un video falsos por lo general implica introducir cientos o miles de imágenes en la red neuronal artificial, “entrenándola” para identificar y reconstruir patrones, generalmente rostros.

¿Cómo puedes detectar un deepfake?

La siguiente figura ilustra algunas de las formas en que puede identificar una falsificación profunda de la real. Para obtener más información sobre cómo identificar un deepfake y conocer la tecnología subyacente utilizada, consulte nuestro reciente  Spotlight  sobre esta tecnología.

¿Cuáles son los beneficios de estas herramientas?

Las voces y las semejanzas desarrolladas con tecnología deepfake se pueden usar en películas para lograr un efecto creativo o mantener una historia cohesiva cuando los artistas no están disponibles. Por ejemplo, en las últimas películas de Star Wars, esta tecnología se usó para reemplazar personajes que habían muerto o para mostrar personajes tal como aparecían en su juventud. Los minoristas también han utilizado esta tecnología para permitir que los clientes se prueben la ropa virtualmente.

¿Qué riesgos suponen?

A pesar de aplicaciones tan benignas y legítimas como las películas y el comercio, las falsificaciones profundas se usan más comúnmente para la explotación. Algunos estudios han demostrado que gran parte del contenido deepfake en línea es pornográfico, y la pornografía deepfake victimiza de manera desproporcionada a las mujeres.

También existe preocupación por el crecimiento potencial en el uso de deepfakes para la desinformación. Los deepfakes podrían usarse para influir en las elecciones o incitar disturbios civiles, o como arma de guerra psicológica. También podrían dar lugar a que se ignoren las pruebas legítimas de irregularidades y, en términos más generales, socavar la confianza del público.

¿Qué se puede hacer para proteger a las personas?

Como se discutió anteriormente, los investigadores y las empresas de Internet, como Microsoft e Intel, han experimentado con varios métodos para detectar falsificaciones profundas. Estos métodos generalmente usan IA para analizar videos en busca de artefactos digitales o detalles que los deepfakes no logran imitar de manera realista, como parpadeo o tics faciales. Pero incluso con estas intervenciones de las empresas de tecnología, hay una serie de preguntas de política sobre las falsificaciones profundas que aún deben responderse. Por ejemplo:

  • ¿Qué se puede hacer para educar al público sobre los deepfakes para protegerlos y ayudarlos a identificar lo real de lo falso?
  • ¿Qué derechos tienen las personas a la privacidad cuando se trata del uso de tecnología deepfake?
  • ¿Qué protecciones de la Primera Enmienda tienen los creadores de videos, fotos y más falsos?

Los deepfakes son herramientas poderosas que se pueden utilizar para la explotación y la desinformación. Con avances que las hacen más difíciles de detectar, estas tecnologías requieren una mirada más profunda.

Fuente: GAO – Oficina de Responsabilidad del Gobierno de EE. UU.