Los "deepfakes": la mayor amenaza para las democracias occidentales.

Los "deepfakes": la mayor amenaza para las democracias occidentales.

A día de hoy, hemos asistido a cómo la línea entre realidad y ficción se desdibuja cada vez más, haciendo que el espectador medio tenga cada vez más dificultades para distinguir lo cierto de lo falso.

De esta manera, la inteligencia artificial y los "deepfakes" han remodelado nuestra percepción de la verdad, presentando un desafío sin precedentes para la autenticidad de la información.

Pero antes de entrar en materia, debemos de tener claro lo que es un "deepfake". Éstos no son más que vídeos, imágenes o grabaciones de voz creados con inteligencia artificial que falsifican la realidad, haciendo que personas parezcan decir o hacer cosas que nunca hicieron, tal y como si ello hubiese ocurrido.

Así, la capacidad de crear contenido hiperrealista que es casi indistinguible de la realidad plantea serias preguntas sobre la confianza y la integridad del contenido que consumimos, algo de especial importancia si tenemos en cuenta que, los medios de comunicación, se alimentan en un alto grado de la información procedente de las redes sociales.

Estos vídeos e imágenes pueden crear disrupciones serias, que amenacen la estabilidad de las democracias occidentales e, incluso, ataquen sus intereses.

Por ello, la producción de "deepfakes", que está al alcance de prácticamente cualquier persona con un mínimo de pericia para encontrar aplicaciones capaces de, con pequeñas fracciones de vídeo o audio, o simplemente una fotografía, generar contenido completamente novedoso a partir del input recibido (lo que se conoce como "clonar"), hace evidente la necesidad urgente de regulaciones y estándares éticos que guíen el desarrollo y uso de estas tecnologías.

Desde el vídeo del presidente Zelenski que, en marzo de 2022 llegó a producir desmovilizaciones parciales entre las tropas ucranianas del frente, hasta las llamadas "fake" donde una voz suplantando al presidente de los Estados Unidos, Joe Biden, intentaba desmotivar a sus votantes de acudir a las urnas en las primarias, la irrupción de "deepfakes" que afectan a candidatos políticos y a cargos electos ha experimentado un crecimiento sin precedentes en los últimos años.

Pero, ¿con qué herramientas contamos para enfrentar este problema? Desde luego, la primera de todas, tomar conocimiento de que existe. A partir de hoy, cuando te encuentres con una publicación donde un alto cargo reconozca o afirme cosas que, de manera habitual, no estaría dispuesto a compartir públicamente, muy probablemente te encuentres frente a una falsificación de su identidad. Del mismo modo debe actuarse si uno se encuentra frente a presunto material comprometido de carácter sexual o donde se aprecien actitudes "poco correctas".

A nivel empresarial, ya son varias las herramientas capaces de identificar las producciones de software con inteligencia artificial en foto, vídeo o audio, un ejemplo de ello es deepware.

Finalmente, a nivel regulatorio, se deben impulsar medidas estrictas que penalicen severamente el uso de tecnología basada en inteligencia artificial para suplantar la identidad de una persona (al final es lo que se hace) a menos que el creador del "deepfake" cuente con autorización expresa y por escrito de la persona que aparezca en ese vídeo, grabación o imagen para usar su voz y su aspecto en dicho contenido. Un ejemplo podría ser esta iniciativa registrada en EE.UU para multar a los creadores de "deepfakes extremadamente lesivos", que incluirían, por supuesto, los que afectan a cargos públicos o candidatos políticos.

Y tú, ¿Tenías conocimiento de la proliferación de los "deepfakes" en el ámbito político? ¿Qué medidas pondrías en marcha para combatirlos?


Inicia sesión para ver o añadir un comentario.

Más artículos de David Botero

Otros usuarios han visto

Ver temas