Profundamente falsos

El jueves de esta semana el Banco Central del Uruguay dirigió un comunicado a la ciudadanía en el que advirtió sobre un video falso que circula en las redes y que utiliza la imagen de su presidente. En concreto la institución expresó una advertencia ante “la circulación de un video falso, creado con inteligencia artificial, que utiliza la imagen y voz del presidente Washington Ribeiro para recomendar una supuesta plataforma de inversión”. El banco agregó que ya se han tomado las medidas pertinentes, pero agregó la sugerencia a la población de “que preste atención ya que este tipo de contenido puede constituir un intento de fraude, que debe evitarse y denunciarse por las vías correspondientes”. Además recordó que sus autoridades “nunca realizan recomendaciones sobre mecanismos de inversión, en particular aquellos que puedan solicitar datos bancarios o personales”.
Una situación sin precedentes en nuestro país, cuya verosimilitud no estamos en condiciones de juzgar dado que, por obvias razones, la institución no distribuyó el video apócrifo. No es la primera denuncia sobre la utilización de tecnología de inteligencia artificial para fraguar declaraciones de una persona pública en nuestro país, de hecho a mediados de este año circuló uno muy burdo en el que un supuesto Luis Lacalle Pou (ver el QR) invitaba a invertir en el país a través de una plataforma.
No quiere decir esto que no sea un problema –incluso un problema serio– en otras partes del mundo. De hecho una institución multinacional como el banco español Santander publicó en marzo de este año una advertencia, seguida por una serie de recomendaciones a raíz del aumento de las deepfakes –de deep: profundo, y fake: falso–, “contenidos creados por delincuentes digitales para engañar a los clientes y hacerles entregar datos privados o incluso transferir dinero a cuentas falsas”, que también se utilizan para desinformar, suplantar la identidad o dañar la reputación de personas y empresas. Se trata, explica, de “contenidos manipulados de video, audio o imagen, que parecen reales y que son creados para suplantar la identidad de otras personas o incluso crear el físico de personajes inexistentes”, que se logran mediante la utilización de un tipo de inteligencia artificial (IA), “conocida como aprendizaje profundo, para superponer el rostro de una persona en el cuerpo de otra y hacer que parezca que una persona está diciendo o haciendo algo que, en realidad, no dijo o hizo”.
La institución hace a continuación una descripción de los tres tipos de deepfake: Modulación de la voz, por la que se simula la voz de una persona para suplantar su identidad en una llamada telefónica; Lip-sync (sincronización de labios) con la que se puede alterar el movimiento de los labios de una persona y cambiar el audio para que parezca que está diciendo un mensaje real, aunque en verdad se trate de un mensaje falso, y el Face-swap (cambio de cara) que es la técnica más compleja, en la que los algoritmos intercambian caras en una imagen o video y le añade la voz de la persona a la que se quiere imitar.
En octubre de este año un artículo del diario El País de Madrid, firmado por Luis Alberto Peralta, titulaba: “Los usos criminales de los ‘deepfakes’ se disparan: estafas, pornografía y suplantación de identidad”. Los casos de fraude se multiplicaron por diez entre 2022 y 2023 en diversas industrias, de acuerdo con los datos de la oenegé Cyberpeace Institute, citados por el artículo, que también reveló que la pornografía que aplica esta tecnología “se duplica cada seis meses en las plataformas de streaming más populares”.
Stéphane Duguin, CEO de la Cyberpeace Institute, dijo en una entrevista para el citado artículo que “Lo que conocemos como deepfake comenzó como un proyecto de código abierto para crear contenido sexual ilegal. Por lo tanto, no es de sorprender que un asombroso 96% de estos videos estén relacionados con pornografía no consentida”. Esto incluye “pornovenganza, extorsión, humillación e incluso explotación infantil en línea”. Los deepfakes se emplean como una herramienta “para ataques personales y explotación”.
Unit 42, la división de investigación de la firma de ciberseguridad Palo Alto Networks, aseguró que existen bandas organizadas dedicadas a elaboración de campañas de deepfakes en las que se emplean sin permiso imágenes de celebridades para difundir esquemas de inversión falsos, o incluso se hacen pasar por ejecutivos para extraer dinero de sus víctimas. El artículo cita varios casos en los que se empleó la imagen de personalidades como Elon Musk, la presidenta italiana, Georgia Meloni o el expresidente mexicano, Andrés Manuel López Obrador para atraer a usuarios incautos.
Como en general ocurre con la tecnología con el paso del tiempo no solamente mejora sino que además se vuelve más barata y más accesible, por lo que estamos frente a un problema que llegó para quedarse. Tampoco se trata de criminalizar la tecnología por sí misma, porque estos avances han demostrado tener mucha utilidad y aportar beneficios a la humanidad en diferentes áreas, por ejemplo en la salud. Por otra parte son también la herramienta de la que disponemos para poner en evidencia este tipo de intentos de fraude.

Be the first to comment

Leave a Reply

Tu dirección de correo no será publicada.


*