¿Y USTED A QUIÉN MATARÍA?
Es la pregunta que hace algunos años plantea la web moralmachine desarrollada por Lyad Rahwan’s y el MIT, esto a consecuencia de la polémica que enfrentan los autos que se manejan solos, la cuestión es ¿Ante una situación de peligro qué decidirá el auto? Mercedes Benz ha dicho que en cualquier circunstancia protegerá la vida de sus ocupantes, GOOGLE y TESLA no han tomado una posición y otra vez se ha puesto a la inteligencia artificial en el banquillo, porque las máquinas no tienen ética y ante situaciones extremas que implican la defensa de la vida, pues nada supera la conciencia humana, ¿o sí?
Cuando se trata de priorizar vidas nuestra moral se pone en aprietos y “lo correcto” deja de ser una verdad absoluta.
La respuesta tecno optimista de Lyad y el MIT, fue la irrefutable “basémonos en la data”, y abrieron un espacio de consulta que permite que la personas elijamos quien debe vivir o morir. Hasta el año pasado habían más de 2 millones de resultados, pero no estamos de acuerdo, entre los hallazgos del experimento resalta la variabilidad de respuestas de acuerdo a la nacionalidad de los consultados, por ejemplo en Japón y China privilegian la vida de los ancianos, mientras que en américa latina la de los jóvenes. Cuando se trata de priorizar vidas nuestra moral se pone en aprietos y “lo correcto” deja de ser una verdad absoluta, por duro que parezca. Al hacer el test sufrí al tener que matar a jóvenes ejecutivos por salvar la vida de niños pequeños, pero soy madre de una niña chiquita y en cualquiera de los casos la salvaría, tengo un sesgo ¿Pero quién no?
Algunos investigadores del MIT y de la CMU (Carnegie Mellon Unversity), han planteado una solución histórica, como el contrato social de Rousseau, trabajemos una moral consensuada en base a las decisiones éticas que tomen millones de personas en el mundo ante determinadas circunstancias.
Primero proponen realizar una encuesta al mayor número de personas posible, preguntándoles a quién verían más ético atropellar en determinadas situaciones, en base a las respuestas crearían modelos de preferencia de los votantes para que, en una siguiente fase, diseñen un modelo único basado en las preferencias mayoritarias. Con estos algoritmos incorporados, ante un dilema moral, los carros autónomos actuarían según lo que ha decidido la mayoría de los votantes. Para evaluar la viabilidad de esta teoría crearon este testeo web “moral machine” http://moralmachine.mit.edu/hl/es.
Debo confesar que luego de hacer el test tuve cargo de conciencia por las decisiones que había tomado, pero aunque mis decisiones no sean perfectas mi posición es que no deberían ser los datos los que decidan en situaciones extremas, hay valores inherentes al alma humana que se ponen en manifiesto ante circunstancias de supervivencia y esa virtud no debería ser enajenada.
*Ni el paper publicado en la propuesta del MIT y la CMU, ni en el sitio web se menciona una variable que, al menos a mí me pone la piel de gallina, ¿Qué pasa si entre las posibles víctimas se encuentra alguien de la familia?, hijos, padres, amigos….en ese caso ¿Usted a quién mataría?