La desprotección del ciudadano frente a los algoritmos de la administración
El 15 de septiembre pasado el TS emitió una sentencia (comparto enlace), cuyo interés quiero subrayar, no desde el punto fiscal, que es máximo desde luego, sino desde el uso de la tecnología algorítmica y su impacto en el ciudadano común.
De forma resumida la sentencia refiere un caso en el que un algoritmo de la AEAT en el programa RentaWeb no permite aplicarse deducciones que el marco legal posibilita al contribuyente.
Es un claro ejemplo de lo que yo califico como "desprotección de datos pasiva". Es decir, aquellos casos en los que el ciudadano la sufre sin darse cuenta, incluso cumplidas todas las formalidades legales externas, hasta que le afectan las consecuencias prácticas producidas por un sesgo del algoritmo utilizado por una institución.
Ya en febrero del 2021 compartí un post sobre el compliance, la ética y los algoritmos (ver enlace abajo) donde advertía de esta posibilidad, recomendando requerir más protección en el contenido, y no solo en el compliance formal. Aquí tenemos un ejemplo claro de tantos otros que se producirán si no se entiende a la mejora y control de los sesgos algorítmicos.