Sobre algoritmos y ética
Ya hace unos años que los equipos de científicos de datos desarrollan algoritmos para facilitar la toma de decisiones, ya sea en empresas privadas, como en servicios públicos. La democratización computacional mediante los servicios cloud y la apuesta por los algoritmos ha llevado a que la llamada para algunos Inteligencia Artificial forme parte de nuestro día a día. Y hablando de conceptos basados en novelas de ciencia ficción, la primera pregunta que nos surge es: ¿Cuánto van a tardar estas inteligencias en destruir a su creador?
Si nos ponemos dramáticos podríamos decir que ya lo están haciendo, la diferencia es que, evidentemente no tienen autoconciencia, ni estructura humanoide, sino que son cajas negras de código que toman decisiones en lugar nuestro y a las que creemos agnósticas y justas, confiando ciegamente en su criterio. Algoritmos que deciden quién merece salir de prisión, dónde se necesita más seguridad, quién recibe un descuento, una oportunidad laboral, un crédito…
Y al igual que las diferentes revoluciones tecnológicas que han tenido lugar a lo largo de la historia, ahora llega el momento de empezar a reflexionar qué significa hacer un buen uso de esta tecnología. En algunos entornos han olvidado que son solo esto, algoritmos, y se han dejado llevar por los cantos de sirena de la Inteligencia Artificial. Estos algoritmos se desarrollan (aprenden) con datos reales de una sociedad con límites éticos diferentes. Una sociedad machista genera datos machistas, así que si no intervenimos el modelo, este seguirá perpetuando estos patrones machistas en sus decisiones.
Podemos pensar que esto solo ocurre cuando detrás hay un científico de datos o una empresa malvada que solo busca el beneficio inmediato. También podríamos pensar que para protegernos ya están las leyes de protección de datos. Pero nos equivocamos, a parte de la gente malvada y las leyes, existen muchos otros factores que pueden sesgar las decisiones de los algoritmos. Por ejemplo, podemos no usar la variable etnia pero utilizar la variable código postal muy correlacionada con la primera, y por lo tanto, el algoritmo seguirá siendo etnicista.
Cada vez que intervenimos en una etapa del procesado de datos hay riesgo de acumular un nuevo sesgo, por lo que inicialmente era un sesgo inocuo se puede convertir en algo relevante por acumulación.
Este es el motivo por lo que al principio del artículo decía que estamos perdiendo ante la inteligencia artificial y en lugar de que “nos sirvan”, “les servimos”. Con eso no digo que tengamos que prescindir de ellas, al contrario, del mismo modo que haciendo un mal uso nos destruyen; haciendo un buen uso podemos mejorar el desperdicio de recursos, tiempos de procesado, impacto medioambiental y por lo tanto, mejorar nuestro entorno.
Recomendado por LinkedIn
¿Abogamos entonces por el intervencionismo algorítmico? Sí y siempre sí. Debemos crear equipos y generar métodos para auditar estos algoritmos y corregir los posibles sesgos que se generen. De este modo, estaremos más cerca de que podemos considerar sus resultados justos, aunque aún nos queda un largo camino a recorrer para lograr dicho estado.
La siguiente pregunta tiene que ver con la ética y sus límites, una vez estamos de acuerdo en que es necesario auditar estos algoritmos, ¿cuándo debemos corregirlos?, ¿qué campos debemos corregir? Vamos a la eterna pregunta que ya se hacía Juvenal en sus Sátiras en el siglo I: Quis custodiet ipsos custodes? (¿Quién vigila a los vigilantes?). El interventor o auditor del algoritmo, ¿qué criterio tiene para definir qué es el bien? Estas preguntas pueden variar según el interlocutor y su flexibilidad moral, por lo que nos adentramos a un terreno mucho más complejo a explorar.
Una última pregunta a responder es: ¿Ser éticos no perjudica a la calidad del algoritmo?
Intervenir un algoritmo para evitar que genere este sesgo romperá evidentemente con los patrones sociales, por lo que el resultado tampoco puede medirse con los mismos criterios que hasta el momento. Deben generarse nuevos criterios que nos ayuden a determinar la calidad del algoritmo sin considerar estos sesgos sociales que se han recogido en los datos.
Muchas preguntas y pocas respuestas, por lo que tenemos por delante un amplio campo para explorar, crecer e innovar. Desde Datarmony apostamos por un compromiso ético hacia no solo el buen uso de los datos, sino el buen uso de los algoritmos que generamos.
Queremos ayudar a concienciar a las empresas y a la sociedad de la necesidad de crear modelos de datos consecuentes con los dilemas sociales actuales, transparentes y explicables.
Marc Ortega Aguasca