Falsificar la realidad, arma geopolítica
El presidente de Rusia, Vladimir Putin, dialoga con su doble creado con IA, durante la conferencia de prensa anual de diciembre de 2023.

Falsificar la realidad, arma geopolítica

Por Arturo González González

En una pantalla se ve a Putin. En la otra, un hombre idéntico a él. El “doble” le dice, con su misma voz: “Vladimir Vladimirovich, ¡hola!  Soy estudiante de la Universidad Estatal de San Petersburgo. Me gustaría preguntarle: ¿es cierto que tiene muchos dobles de cuerpo? ¿Y cómo se siente acerca de los peligros que la inteligencia artificial (IA) y las redes neuronales traen a nuestras vidas? Gracias.” Putin responde: “veo que te puedes parecer a mí y hablar con mi voz. Pero he pensado en ello y he decidido que sólo una persona debe parecerse a mí y hablar con mi voz. Y esa persona soy yo (...). Este es mi primer doble, por cierto.”

El diálogo, ocurrido en la conferencia de prensa anual del mandatario ruso en diciembre de 2023, es más que una anécdota. ¿Y si el estudiante petersburgués, o cualquier otra persona con acceso a una tecnología de falsificación profunda (deepfake), subiera a las redes un video haciéndose pasar por el presidente ruso para decir algo que pudiera poner en riesgo la seguridad de una persona o un país? No es descabellado imaginarlo. La tecnología ya está disponible y cada vez logra falsificaciones más fieles. No es gratuito que en el Foro de Davos de la semana pasada las IA hayan sido uno de los temas centrales.

Los temores abarcan un amplio espectro que va de la preocupación ligera a la histeria apocalíptica, pasando por riesgos más realistas. Se habla de la opacidad en las decisiones que toman las IA: se sabe qué ocurre en la instrucción y en el resultado, pero no lo que pasa entre ambos. También se mencionan los sesgos y prejuicios de las IA, las cuales, en esta etapa, tienden a reproducir los vicios cognitivos y culturales de sus creadores y usuarios. O del uso indebido de los datos personales debido a la falta de transparencia con la que operan las empresas tecnológicas y las filtraciones hacia agentes criminales o gobiernos con vocación autocrática. Las posturas más alarmistas hablan de la posibilidad de que las IA sometan o exterminen a la humanidad. 

Una de las preocupaciones principales es la destrucción de empleos. Según un reciente informe del FMI, el 40 % de los empleos se verá afectado por las IA en el mundo, la mitad de forma negativa. No obstante, otros estudios hablan de que así como desaparecerán millones de empleos, otros tantos se crearán gracias a las IA. Pero las amenazas más cercanas e inquietantes se vinculan con el uso de las nuevas tecnologías como armas en medio de la creciente tensión geopolítica. Las deepfakes son apenas una prueba, con el potencial de desestabilizar estados y regiones enteras. Por eso las IA son foco de atención en las disputas de las grandes potencias. En el diálogo con su “otro yo”, Putin no deja dudas de la competencia que se libra: “es imposible impedir el desarrollo de la IA (...). En cualquier caso, hay que hacer lo posible para estar entre los líderes en esta dirección”.

Las deepfakes son una nueva fase de las noticias falsas (fake news), que no se inventaron con la internet. La historia nos muestra ejemplos del daño que han provocado los bulos: Sócrates condenado a beber la cicuta por señalamientos que escondían sentimientos de venganza; los cristianos de Roma martirizados tras ser culpados por Nerón del incendio de la ciudad; Hipatia de Alejandría linchada por una turba de fanáticos cristianos tras ser denunciada como “bruja”; la guerra de EEUU contra España en 1898 azuzada por la propaganda de la prensa del magnate William Randolph Hearst, o las mentiras en torno a las armas de destrucción masiva que desencadenaron la invasión estadounidense en Irak en 2003. Si todo eso ocurrió con rumores de boca en boca o tecnologías menos sofisticadas que las hoy disponibles, ¿qué no puede ocurrir con las deepfakes?

Pero, ante el riesgo, es fácil perder el centro de la cuestión. Las visiones del exterminio de la humanidad por una IA maléfica distraen del riesgo real. Por ejemplo, el primer ministro chino, Li Qiang, dijo en Davos que "los seres humanos deben controlar a las máquinas en lugar de que las máquinas nos controlen a nosotros". Lo que no especificó es cuáles seres humanos. Quienes están detrás del desarrollo de las IA son unas cuantas empresas con ingentes recursos y escasos controles. El abordaje que solemos hacer sobre las amenazas tecnológicas se parece al que hacemos en torno al calentamiento global. Culpamos a toda la humanidad del cambio climático, mientras creemos que nuestra especie será eliminada por una malvada IA. Pero pensemos esto un momento: los países más privilegiados del modelo intensivo de producción y consumo son los responsables del calentamiento global… los mismos en donde se engendran hoy las IA. 

Así como las visiones apocalípticas distraen de lo importante, también lo hacen las visiones más optimistas. “En última instancia nos fusionaremos con nuestras máquinas, viviremos indefinidamente y seremos mil millones de veces más inteligentes...”, dice Ray Kurzweil, director de ingeniería de Google. ¿Quiénes? ¿Todos? ¡Con qué facilidad perdemos de vista el factor central de la desigualdad! El informe del FMI advierte que la revolución de las IA podría aumentar la desigualdad “al premiar especialmente a las élites que serán capaces de aprovechar el potencial positivo, ensanchando la brecha social”. Pero no sólo eso: son precisamente esas élites tecnoligárquicas las que desarrollan dichas tecnologías. Es decir, un círculo de desigualdad que se alimenta a sí mismo. ¿Cuál es la solución, entonces?

La solución del miedo aboga por frenar en seco el desarrollo de las IA. Un enfoque prohibitivo que se antoja imposible e indeseable. Una propuesta menos dura plantea aplicar controles desde el Estado, ya sea de forma directa con un monopolio, o indirecta a través de una rígida normatividad. El problema con este enfoque es que incluso si un Estado decide hacerse cargo, eso no disminuye el riesgo de uso malicioso o desigual de las IA. En cuanto a las normas, la técnica suele correr más rápido que la legislación, la cual quedaría sometida al ritmo de aquella y siempre a la zaga. En el otro extremo está la élite tecnoligárquica que no quiere control ni contrapeso alguno. La ley de la selva, pues, en beneficio de los más fuertes: ellos. 

Una solución viable es crear un modelo de gobernanza mundial digital que en vez de hacer leyes rígidas obligue a las empresas tecnológicas a incorporar en sus consejos directivos, incluso en calidad de mayoría, perfiles críticos que antepongan los criterios éticos a los del beneficio privado y geopolítico. Es decir, un esquema efectivo de controles internos complementado por organismos internacionales plurales que sirvan como contrapesos externos para velar porque los criterios éticos formen parte de la toma de decisiones de las entidades desarrolladoras de IA. ¿Funcionará? Hay que intentarlo al menos, ¿no crees?

Inicia sesión para ver o añadir un comentario.

Otros usuarios han visto

Ver temas