“El Presidente Trump es un completo y total idiota”, dice en un video viral en Youtube la imagen de Barack Obama. Y a pesar de que su voz es una copia casi perfecta del enérgico hablar del exmandatario de Estados Unidos que encaja perfectamente con su rostro y sus gestos en el video, el que acaba de insultar al actual Presidente norteamericano no es realmente Obama.

Esto es “deepfake”, es decir, un mal uso de la inteligencia artificial (IA), la que aprende cómo habla una persona, desde su tono hasta su forma de gesticular y mover la boca, y puede proyectar esta información en un video que permite hacer que cualquier persona (de la que se tenga suficiente material audiovisual para entrenar a la IA) haga cualquier cosa.

“Lo más peligroso de esto es que la gente piensa que es ciencia ficción, que no es real, que no lo puede hacer nadie aún. Pero nosotros hacemos esta clase de videos para nuestras presentaciones, en un rato. Imagínate lo que puede hacer un grupo de personas expertas con esta tecnología”, dice el director global de Datos de Telefónica, Chema Alonso.

El “hacker bueno”, como le llaman, advierte sobre los riesgos de la IA si es usada para el mal, como en esto casos.

La demostración de Obama la llevó a cabo el director de cine estadounidense Jordan Peele, conocido por sus películas de terror. Pero quizá lo más oscuro de todo, y que revela otro de los dañinos usos que puede tener la IA, es la forma en que nacieron los “deepfake”.

No salió de la cabeza de ingenieros de Facebook o de académicos del MIT o la Universidad de Nueva York, como muchos de los avances en IA. Aunque basados en papers académicos, esta tecnología fue perfeccionada y popularizada en sitios web de pornografía, donde se reemplazaban rostros de actrices de cine para adultos con las de famosas de Hollywood.

—¿Qué tan rápido está avanzando la tecnología de IA?

—Bueno, en 2015 vimos como la IA alcanzó la paridad humana para el reconocimiento de objetos, es decir, si tú y una IA compiten por reconocer cosas en fotos, ella se equivocará menos que tú. En 2018 se alcanzó la paridad en traducción. En dos años más, creo que veremos que la IA comienza a hablar y a expresarse mejor que nosotros.

—Como experto en ciberseguridad, ¿cuáles cree que son los riesgos del uso de los “deepfakes”?

—Imagina cómo se puede ampliar el daño que puede hacer esta tecnología en el mundo de las fake news. Lo vimos en estos ataques contra actrices de Hollywood donde reemplazaban sus caras por actrices porno para difamarlas. Esto mismo se podría usar en suplantación de ejecutivos, de directores de empresas o de políticos, y viralizarse por redes sociales, para afectar procesos eleccionarios. Antes se montaba algo con Photoshop, se armaba una fake news y la gente caía. Imagínate ahora cómo será eso cuando se popularicen los videos falsos.

—¿Cómo se combate este tipo de suplantaciones?

—Primero educar a la gente y hacerles entender que esto es posible y no muy complicado de hacer. Así estarán preparados. Pero cuando las simulaciones se van volviendo más reales, como está pasando ahora, tendremos que usar otras IA que detecten cuándo un video está hecho con IA. Entrenarlas para encontrar patrones que nosotros, como humanos, no podremos ver. Eso ya se aplica en otras áreas.

—IA contra IA.

—¡Claro! Es como Blade Runner. Un “replicante” para cazar otros “replicantes”.

—¿En qué se aplica eso hoy?¿Ustedes lo usan en ciberseguridad?

—La IA analiza los logs (registros) de tráfico de redes, y para human behavior analytics, en que la tecnología puede detectar a un empleado malicioso analizando cómo se comporta. El problema es que las herramientas de ataque están hoy en todos lados. Y es mucho más fácil atacar que defender. Una organización tiene que cerrar todos sus fallos, mientras que un atacante tiene que encontrar solo uno.

Este no es Barack Obama. Es un video creado por el director de cine Jordan Peele, donde se recrea con IA su imagen y voz.

Chema Alonso, director global de Datos de Telefónica.

LEER MÁS
 
Ver Más Publicidad