Hacia la moral artificial
Recientemente he matado a una decena de personas y a un par de gatos... participando en el interesantísimo proyecto de MIT Moral Machine (EN), una plataforma para reunir una perspectiva humana en las decisiones morales de la inteligencia artificial, como las que deben tomar ya los coches autónomos.
En esta plataforma, de manera muy visual y como si fuese un videojuego, debemos tomar 13 decisiones a las que se podría llegar a enfrentar un coche autónomo, como ¿debe pegar un volantazo para no atropellar a unos niños no captados por los sensores previamente, y estrellarse contra un muro (contigo dentro)? ¿Influye en la decisión que los niños tengan o no preferencia de paso? ¿Y si en vez de niños es gente mayor?
Esas son algunas de las variables introducidas por el MIT (niños/mayores, hombres/mujeres, personas/mascotas, no ladrones/ladrones...) y otras que vendrán, seguro. De aquí surgirá un algoritmo que haga al coche "decidir", una MORAL determinada por la mayoría, y si vamos jugando con más variables, y a la mayoría no le gusta la gente con sombrero, yo francamente no me acercaría a una carretera con uno puesto. Eso siempre y cuando el algoritmo de MIT sea la religión de la máquina con moral que circule por nuestras carreteras. ¿Los coches japoneses tendrán el mismo algoritmo, la misma moral? ¿Y los saudíes? No hay una moral universal, ¿pero la tendrán los coches?
He empezado la prueba en modo kantiano, he intentado pasar al modo zen, pero he terminado en modo rambo.
Pero las preguntas más importantes son las introspectivas. En mi caso, cuando he ido tomando decisiones, cuando he matado, lo he intentado a hacer a partir de unos criterios más o menos razonables: minimizar el daño, salvaguardar a quien cumple las normas... pero claro, en el coche me figuro que voy yo, con mi familia, y al final me he sorprendido tomando decisiones instintivas, egoístas. He sido un pequeño dios injusto y casi impredecible.
Afortunadamente solo ha sido un juego.
(Entrada original publicada en el blog de pr4).