La inteligencia artificial y los sesgos de género
La Inteligencia Artificial, esa penúltima revolución que nos ha traído internet y las nuevas tecnologías, se está popularizando de forma exponencial. Sus aplicaciones y programas están llevando no solo a cambiar sino también a crear nuevas formas de trabajo, nuevas formar de generar contenido para medios de comunicación, empresas, investigación científica, artistas... y, por supuesto, para cualquiera que tenga a mano un ordenador.
Su principal característica es la vez su virtud y su pecado, y también su castigo: se alimenta del contenido ya disponible en internet, lo que puede llevar a confusión: no todo el conocimiento humano está en internet; no todo lo que hay en internet es conocimiento humano, y no todos esos mensajes tienen el mismo valor, el mismo criterio. Y, por supuesto, no es lo mismo conocimiento, información, que creencia, ni esta que opinión. ¿Está realmente la IA preparada para afrontar todo esto? ¿estamos nosotras, nosotros, preparados para saber separar “el grano de la paja”? ¿Sabemos quién habla realmente cuando la IA replica lo que ya se ha dicho anteriormente?
Ante este panorama, las profesiones relacionadas con saber clasificar y dar valor a la información y al conocimiento (periodistas, documentalistas, filósofos, historiadores…), en definitiva, “los de letras”, deberían estar revalorizándose, pero este es tema para otra ocasión.
La reciente celebración de la Cumbre HeForShe de ONU Mujeres, líderes de los sectores público y privado discutieron sobre los riesgos potenciales de la IA y la necesidad de desarrollar esta tecnología de un modo seguro, muy especialmente en lo relacionado con las narrativas en torno a la igualdad de género. Como los modelos de IA obtienen su información de lo ya publicado, esta vuelve a replicar los sesgos de género de esa información, amplificando estos sesgos al perpetuarlos una vez más. Como expresó Sasha Luccioni, científica investigadora y líder climática de la empresa de aprendizaje automático Hugging Face, “el sesgo de la IA no surge de la nada, sino de los patrones que perpetuamos en nuestras sociedades”. Por un lado, la sociedad, a través de acciones legislativas por ejemplo, está luchado por lograr esa igualdad de género. Pero, por otro lado, está teniendo lugar una nueva promoción de esos sesgos, que se multiplican exponencialmente por obra y gracia de internet y la IA. No en vano, Sima Bahous, directora ejecutiva de ONU Mujeres, señaló que las actitudes de los jóvenes al respecto parecen estar retrocediendo.
Recomendado por LinkedIn
En este encuentro, Leonardo Nicoletti, periodista de visualización de datos de Bloomberg, apuntó que la IA, al imitar la expresión humana, no solo “reproduce estereotipos y disparidades que se ven en el mundo real, sino que en realidad los exacerba y los hace parecer mucho peores de lo que realmente son”. Así, al pedir al software de imágenes de IA que le mostrara "jueces", sólo el 3% de las imágenes que creó eran de mujeres.
Por su parte, Joakim Reiter, director de Asuntos Externos y Corporativos de Vodaphone, afirmó que “no se puede permitir que empresas o particulares se lancen a experimentar con algo que tiene un impacto en la sociedad. Las empresas no están aisladas. Cuando lanzas productos y servicios, tienes la responsabilidad de comprender cómo esos productos y servicios interactúan con la sociedad, incluidas las normas sociales, la discriminación y los prejuicios en la sociedad".
Me quedo con esta última reflexión: la necesidad de comprender cómo esos productos y servicios interactúan con la sociedad, la responsabilidad que tienen las empresas que diseñan y lanzan estos productos con la sociedad, la responsabilidad que tenemos también usuarias y usuarios. Basta como ejemplo las repetidas noticias sobre el uso de aplicaciones para generar imágenes “realistas” de niñas y mujeres desnudas, así como otras que no responden a la realidad y que han sido objeto de noticia porque “parecían reales”.
Fuente: ONU Mujeres.