¿A que te veo? ¿A que te sigo? Privacidad ¿Personal?
🔙🔜 No dejes de ver todo el ciclo para que complementes las ideas de este artículo.
Para que contextualices adecuadamente esta décima parte es necesario que primero hayas mirado el video y los capítulos anteriores. Puedes ir directamente haciendo clic en los números. 1, 2, 3 4, 5, 6, 7, 8. 9. Regálate más de 15 minutos entre la lectura y la visualización del vídeo para que recojas la idea completa de esta nueva entrega.
¿Hasta dónde son propios nuestros datos personales, nuestra privacidad?
Si hay un tema que está generando mayor debate con respecto al avance de la Inteligencia Artificial tiene que ver con nuestra privacidad.
¿Es un debate real? ¿No es cierto que ya hace muchos años les cedemos voluntariamente nuestros datos a todo tipo de organizaciones?
Si pensamos en organizaciones gubernamentales, cedemos los datos porque raramente cuestionamos que éstos vayan a ser usados indebidamente, a la par con que sentimos cierta obligatoriedad de hacerlo. Esta sensación de obligatoriedad hace que no cuestionemos si estas instituciones públicas pueden preguntarnos determinados datos. Simplemente se los damos porque son el gobierno.
Si pensamos en organizaciones no gubernamentales, les cedemos los datos porque generalmente somos nosotros quienes queremos apoyar su labor o alguna causa en particular. Casi nunca pensamos que estos datos serán mal utilizados, hasta que empezamos a recibir llamadas de organizaciones a las cuales no nos hemos apuntado, para que también las apoyemos. Como si se hubieran cedido los datos. O como si “alguien” en “alguna parte” hubiera tenido accedido a ellos. O, porque en la letra pequeña, que casi nunca leemos, autorizamos a las organizaciones a que sean usados por partners u organizaciones aliadas.
Si pensamos en organizaciones comerciales cedemos los datos porque estamos interesados en una transacción que nosotros queremos. Sabemos que estos datos podrán ser utilizados para enviarnos información comercial y casi con seguridad serán cedidos a otras empresas del “grupo” o “holding” de empresas.
Y así podríamos seguir. La verdad es que somos bastante facilistas a la hora de ceder nuestros datos. Básicamente por un mecanismo psicológico conocido a nivel comercial y del que es difícil hacer frente: Nos “chantajean emocionalmente” con la idea manifiesta o tácita, que de no hacerlo vamos a perder unos beneficios de los cuales otras personas ya están gozando. Es una especie de arquetipo sobre la oferta de volver o alcanzar el paraíso. Sabemos, desde el punto de vista racional, que la mayoría de esos ofrecimientos serán tonterías, pero nuestras motivaciones irracionales y muchas veces no-conscientes son quienes manejan los dedos que le dan al botón.
Horizontes impensables con la IA
Con la llegada del Internet y las grandes tecnológicas, hacer nuestro perfil desde las redes se ha hecho cada vez más sofisticado. Ya no es solo que demos gratuitamente nuestros datos, sino que se han inventado programas que pueden registrar nuestra actividad en la red, para establecer un perfil bastante cercano sobre nuestros gustos, hábitos de compra, expectativas, pensamientos.
Con las SIA (Súper Inteligencias Artificiales), el horizonte es ahora aún más amplio. Como lo señala el video de IBM: La IA está en capacidad de hacer perfiles personales, con reconocimiento fácil y biometría para acceder a casi cualquier dato que tengamos en la red, incluyendo, por supuesto nuestra fisonomía.
El debate Ético:
La pregunta no es si debemos pelear por nuestra privacidad, sino si queremos recuperarla.
¿Queremos recuperarla?
¿Para qué?
Si decidiéramos borrar todos los datos que las compañías y organizaciones tienen de nosotros, estaríamos prácticamente fuera de la realidad. Estaríamos fuera del club de quienes les llegan fantásticas ofertas que prometen darnos la felicidad. Estaríamos fuera de las conversaciones de los amigos y amigas que sí recibieron dichas promesas.
Y aún si decidiéramos desaparecer de la red (¿desapareceríamos del todo?), mientras sigamos usando dispositivos estamos siendo susceptibles de ser encontrados por todas los sistemas que nos vigilan, nos persiguen y nos “escanean”.
Veo que muchas personas se hacen las muy “dignas” denunciando acaloradamente que sus datos han sido usados sin su consentimiento. Con seguridad que en alguna parte, en la letra pequeña o en la grande (que tampoco leemos muchas veces) está una autorización explícita por nuestra parte.
RGPD (UE) 2016/679, de 27 de Abril y la LOPD 3/2018, de 5 de Diciembre
En la Unión Europea, hace apenas unos años se unificaron los criterios entró en vigor el Reglamento General de Protección de Datos (RGPD) y en España, su adaptación a este reglamento con la Ley Orgánica de Protección de Datos (LOPD).
Otros países tienen sus propias leyes e iniciativas con resultados dispares. Las multas y sanciones pueden ser millonarias, así que se están desplegando toda clase de filtros con tal de que se dé la ilusión de que la privacidad de las personas se está protegiendo.
Digo ilusión, porque las agencias son pequeñas para el universo de empresas que tienen que vigilar, y porque cuentan con la complicidad del mismo consumidor que, o no sabe cuáles son sus derechos o simplemente no quiere que nadie se meta en sus transacciones de compra y por tanto le da poca importancia a lectura a elementos que se vuelven de paisaje común como la política de “galletas”, las políticas de privacidad y la protección de datos de carácter personal.
El asunto es más complejo porque cada vez más somos compradores y compradoras globales. Así que aunque las páginas web que nos quieren vender algo en Europa tienen que adaptar sus páginas a la normativa, una vez que damos nuestro consentimiento, no sabemos exactamente qué va a pasar con ellos y probablemente ni si quiera en qué país acabarán nuestros datos.
Bajémonos de la nube
Nunca fue más precisa esta expresión sobre la idea de que estamos despistados y equivocados en algo. A excepción de algunos ermitaños que no tienen ningún dispositivo tecnológico y que no han hecho ninguna transacción con alguna organización, y de algunos anti-tecnologías, todos y todas estamos en la nube. Hay que asumirlo, nuestra preciada privacidad es solo una ilusión. Probablemente creada por los muros de nuestras casas, pero en cada dispositivo hay un ventana al mundo que nos mira con ansiedad como un potencial comprador o como una persona que puede ser decisiva en una posible votación.
Reconocimiento facial y escáneres biométricos
Como lo menciona el video, muchos gobiernos, China al parecer el que más, ya están implementando tecnologías con IA para hacer reconocimientos fáciles de sus ciudadanos. Esto se traduce en que están potencialmente controlados o somos potencialmente controlables.
Los beneficios de cara a la seguridad pública y del colectivo son muy atractivos, pero el coste es renunciar a nuestra amada (¿?) intimidad.
Estamos llegando a la visón distópica de la película protagonizada por Tom Cruise “Minority Report” donde en una rocambolesca mezcla de habilidades extrasensoriales de algunos videntes con los mayores avances de la tecnología podríamos predecir quién va a cometer un crimen. Y no solo esto, ser arrestados por el crimen que cometeremos en el futuro.
Parece que aún es ciencia ficción. Pero los números del reconocimiento fácil ya empiezan a arrojar esperanzadores índices en la prevención de delitos.
Un pequeño juego de números
En España, según el INE somos alrededor de 47 millones de personas. En china, en el momento del reportaje del video hay 170 millones de cámara de vigilancia. Si en España tuviéramos esa misma cantidad podríamos decir que hay 3,6 cámaras por cada persona. Es un juego tonto, lo sé.
Si lo aplicamos a la misma China, con una población que ronda los 1400 millones de personas, la cifra parece pequeña, 0,12 cámaras por persona.
El problema no es este juego inútil. Es que, como con esta cantidad, los resultados empiezan a ser muy halagüeños y la intención de casi todos los países, no es solo implementar esta vigilancia social, sino ir haciendo inversiones paulatinas para adquirir cada vez más y más.
De nuevo, el miedo, o la búsqueda de la ilusión de la seguridad, es un buen negocio. Y, por supuesto, los desarrolladores de IA no se iban a quedar por fuera.
Perfiles integrales
Las SIA están en capacidad de hacer perfiles BIO-PSICO-SOCIALES-ESPIRITUALES de cada uno de nosotros. Otra cosa es que lo vayan a hacer pronto, otra que lo puedan hacer sin tener que sortear normativas, y otra lo que quieran o puedan hacer con estos perfiles.
Pero, teniendo estos perfiles integrales, será más fácil todo. Desde la contratación del personal adecuado en las empresas, hasta la oferta de un androide personalizado que se ajuste a todas tus manías y “pendejadas” de humano y finalmente encuentres la felicidad casándote con una máquina, que podrás apagar o silenciar a tu antojo, y que además te podrá procurar casi cualquier placer sexual que te plantees. Podrá saber a qué temperatura prefieres los asientos del coche para tenértelos listos dependiendo de cada estación atmosférica, podrá prepararte el café de acuerdo a tus gustos o a tu reporte médico para que lo tengas a la temperatura justa incluso anticipándose a tu deseo de querer tomártela.
Las posibilidades son infinitas.
Como siempre, volvemos a Star Wars, el mundo se divide en cómo queremos utilizar esta tecnología. Para el bien o para el mal. Habrá que avanzar en alguna visión no maniquea de la vida.
El creador creado
Como ha ocurrido con casi todos los mitos teológicos y religiosos, donde los creadores de los mismos erigen una figura superior que paradójicamente les ha creado a ellos, no hemos caído en la cuenta, que con un par de ajustes, será fácil para nuestras SIA entender que el ser humano puede ser un obstáculo para el avance racional de la existencia en la tierra. Lo que les llevará a plantearse (recuerda que pensarán, deliberarán y decidirán sin participación humana) de qué manera sacar al ser humano de la ecuación. Esta es una vieja reflexión que ya había planteado el agente Smith (una SIA) en la primera película de Matrix, cuando le señala que ha descubierto que los humanos huelen mal, tienen un hedor (hasta ahora el sentido del gusto y el olfato ha sido un dolor de cabeza para los desarrolladores, pero recientemente Google dice haber avanzado en el tema del olfato) y que la clasificación más precisa es la de que los humanos son un virus. Y, que por tanto, deben ser eliminados.
La realidad de los sesgos
Aunque ya lo habíamos mencionado en entregas anteriores, esta tecnología de identificación y creación de perfiles integrales no está exenta de sesgos raciales, sexuales, religiosos, ideológicos.
Un ejemplo muy preocupante lo da el video cuando menciona que algunos investigadores han descubierto que con IA podrían decir qué persona es homosexual. Imaginen esta tecnología en manos de extremistas conservadores.
Ahora un ejemplo frívolo creado para la ocasión: Imaginen que empiecen a existir clubes exclusivos para personas “lindas”. Si no pasas el patrón del reconocimiento facial sobre lo que califica como una persona “linda” (estéticamente) no puede entrar a ciertas localidades. Imagínalo, imagínalo. Extiende la imaginación. Exacto, es la misma estructura, aunque con otras dimensiones e implicaciones de todos las políticas de segregación racial que han existido en la historia de la humanidad.
Ciberseguridad
Tanto en el mundo online como en el offline, la seguridad total no existe. Existe la percepción de seguridad, ilusión de seguridad o seguridad progresiva. Esto significa que quienes se encargan de la seguridad de nuestra vida saben con creces que los y las delincuentes siempre van un paso por delante. Los organismos de seguridad, en un 99% son reactivos. Esto significa que actúan cuando se presenta el delito, porque nunca, o casi nunca, saben cuándo se va a cometer. Los y las delincuentes cuentan con el factor sorpresa. A menos que haya infiltrados en las organizaciones criminales o soplones, es difícil que los estamentos encargados de la seguridad sepan dónde y cuándo se producirá un delito.
Con la seguridad en red pasa lo mismo. Por cada súper hacker que es utilizado por los buenos, hay un “ultra-súper-hacker” que es usado por los malos. De hecho muchos de los analistas de seguridad informática han sido traídos del lado oscuro de la fuerza y puestos a trabajar al servicio de las buenas intenciones. Esta guerra apenas comienza. Aparte de la amenaza de que nuestros datos sean usados para diferentes objetivos de dudosa moralidad (para ellos o para nosotros), el gran apagón constituye la madre de todas las amenazas. Que “legión del mal” produzca un apagón de internet durante el tiempo suficiente para que la economía explote. Y entonces lloraremos por no poder saber en tiempo real el tiempo que va a hacer en nuestra ciudad o cómo estarán los atascos de la carretera. Volveremos al medioevo.
No nos engañemos, somos nosotros
Ya había utilizado este subtítulo en otro artículo. Pero es una advertencia de nuevo.
No es necesaria una base de datos, nosotros, de manera voluntaria, miramos las cámaras de nuestros dispositivos y con ello pueden hacer un perfil predictivo.
No son solo empresas “malvadas” haciendo negocio a costa de nuestro miedo o de los locos sueños de dominación de algún aspirante a dictador o dictadora; somos nosotros quienes voluntariamente hemos entregado a la “red” nuestra vida.
Confiar, nuestro mágico e ingenuo recurso
Solo nos queda confiar que nuestros gobernantes, nuestros empresarios, nuestros genios desarrolladores de tecnología hagan consensos éticos que nos permitan confiar, así sea remotamente que todo ese acceso privilegiado a nuestras vidas sea usado para el bien común.
Comparte tus impresiones.