CLAVES PARA IDENTIFICAR Y NO SER VÍCTIMA (POR AHORA) DE LOS DEEPFAKES
Hubo un tiempo que un contenido en vídeo o en audio sentaba cátedra.
Las barreras de entrada a la hora de manipular una imagen es cierto que han bajado históricamente lo suficiente como para no poder fiarse de una fotografía, pero no es hasta hace realmente poco (unos pocos años) que ha ocurrido lo mismo con el vídeo y el audio.
Ahora mismo, y como expliqué ya en varias charlas a lo largo de estos últimos años, es posible con algo tan sencillo como una aplicación móvil crear vídeos o audios de personas que podrían parecer reales, cuando realmente no lo son.
Que es fácilmente manipulable, creando a ojos de un tercero una prueba para desacreditar a esa persona.
Hablamos, por tanto, del contenido sintético, de ultrafalsificaciones, o como se le conoce más habitualmente, de los deepfakes.
Algunos que no esperan más que hacernos reír, como fue el caso de aquel Deep Fake con el que alguien ha puesto la cara de Steve Buscemi en el cuerpo de Jenifer Lawrence, pero cada vez más utilizados en sexting (hacer parecer que otra persona tiene un vídeo de contenido adulto grabado) y por supuesto timos y extorsiones de diversa índole (hacerle pensar a una pareja que su otra mitad le ha engañado con pruebas gráficas, o poner en tela de juicio a una persona famosa con unas declaraciones creadas artificialmente,…).
En una notificación (EN) de la División Cibernética del Federal Bureau of Investigation (FBI), se alerta de que en el próximo año y medio crecerá sobremanera el uso fraudulento de este contenido sintético.
Gracias al uso de herramientas de machine learning, se realizan cada vez más «ciberataques malintencionados para promover el comercio y aumentar el impacto de sus actividades”.
Un ejemplo muy común últimamente es la proliferación de supuestos medios de comunicación y periodistas falsos que generan noticias (no las cubren), bien sea con fines propagandísticos, o simplemente con idea de monetizar sus portales a cualquier coste.