¿Estamos preparados para la IA?

¿Estamos preparados para la IA?

CENTENARIO DE ASIMOV

El 2 de enero de este año se cumplía el centenario de Isaac Asimov, uno de los escritores y divulgadores científicos más populares de la historia. Asimov es el autor de "Yo Robot", una de las obras más relevantes de ciencia ficción. El libro es un conjunto de relatos en torno al tema de los robots inteligentes.

El tercero de los relatos, titulado "Razón", trata de Cutie, un prototipo tan avanzado de robot que dispone de capacidades de auto-aprendizaje. El problema surge cuando esto le lleva a tomar auto-consciencia, y de repente empieza a hacerse cuestiones existenciales. Los humanos que conviven con él en la estación tratan de explicarle la verdad: Cutie es un prototipo avanzado de robot que ha sido diseñado para sustituirles. Pero Cutie no solamente no acepta las explicaciones de los humanos, sino que acaba considerándoles como seres inferiores. Los humanos lo viven con gran preocupación hasta que se dan cuenta de que Cutie no solamente no les quiere hacer ningún daño, sino que además está llevando a cabo perfectamente la misión para la que se le había programado inicialmente: el cuidado de la nave.

EL RETO DE GOBERNAR LA IA

No alt text provided for this image

A medida que las máquinas se vuelven más inteligentes, ¿cómo deben ser tratadas y vistas en la sociedad? Una vez que las máquinas puedan actuar de manera similar a los seres humanos, ¿cómo deberían ser gobernadas? ¿Deberíamos considerar las máquinas como humanos u objetos? ¿Qué nivel de responsabilidad atribuimos a los dispositivos mismos y qué nivel sobre las personas que supuestamente los controlan? ¿Y a las empresas que los han creado?

En marzo de 2018, un vehículo autónomo mató a un peatón. Hubo una gran polémica, la gente estaba indignada porque una máquina mató a un ser humano. ¿A quién debemos exigir responsabilidades? ¿Al conductor? ¿A Uber? ¿Al gobierno por no haber regulado debidamente?

A pesar de la evidencia de que los vehículos autónomos tienen tasas de mortalidad mucho más bajas que los vehículos manejados por humanos, el tema de la responsabilidad y el control nos inquieta. La lección de Asimov es que debemos poner en vigencia las leyes y regulaciones ahora para protegernos en el futuro. Y todo se complica porque el debate nos lleva rápidamente a otra dimensión menos científica, la ética.

RETOS ÉTICOS

Ahora que empezamos a ver coches autónomos en nuestras calles, algunas organizaciones ya han emprendido el debate. Pero como demos, la ética de cómo debe actuar un vehículo autónomo en ciertas situaciones es más complicada de lo que parece. ¿Debería el auto chocar contra una pared, matando a los pasajeros, para salvar a los peatones? ¿O viceversa? ¿Qué pasa si un grupo es anciano y los otros adolescentes?

Al reemplazar el controlador humano con su controlador de inteligencia artificial, los fabricantes de automóviles asumen una gran responsabilidad moral y legal que nunca nadie tuvo antes. El conductor humano solía ser responsable de los accidentes causados por sus decisiones; ahora esa responsabilidad está cambiando hacia el controlador de inteligencia artificial que es capaz de salvar o quitar vidas.

EL RETO DEL TRABAJO

No alt text provided for this image

En el relato de Asimov, el robot fue diseñado para sustituir a los humanos en una estación espacial. Precisamente uno de los principales retos de la IA es el desempleo tecnológico, es decir, aquél que se origina por la introducción de nuevas tecnologías. En los años venideros, es muy probable que seamos testigos de cambios significativos en el mercado laboral: los trabajos se volverán obsoletos, las industrias se transformarán radicalmente, los modelos de empleo y las relaciones se redefinirán. Al mismo tiempo, la tecnología impulsará la formación de nuevos roles, posiciones o incluso especializaciones científicas, al tiempo que permitirá a las personas liberar tiempo del trabajo monótono y de bajo valor, para dedicarse a actividades más creativas.

El desempleo tecnológico ya es una preocupación creciente en círculos empresariales y políticos. Como ejemplo, uno de los candidatos a las primarias demócratas de EEUU, Andrew Yang, tiene como medida estrella el pago de 1.000 dólares al mes a cada ciudadano estadounidense mayor de 18 años. Yang argumenta que su experiencia trabajando en Silicon Valley le ha dado la visión de la forma en que la automatización podría afectar la economía en los próximos años.

ENTONCES, ¿CÓMO DEBEMOS PREPARARNOS?

Estar preparados para la IA significa mucho más que aprender a convivir con las máquinas o aprender a programarlas. Más allá, significa preparar los marcos legales, regulatorios y éticos para todo aquéllo que vendrá. Significa aprovechar la oportunidad que nos brinda la IA para mejorar nuestras vidas. Es por eso que iniciativas como el libro blanco para la IA de la Unión Europea o la recientemente anunciada estrategia de IA para Catalunya son noticias en la buena dirección. Sin duda, los países que prioricen el desarrollo tecnológico estarán más preparados y esto les permitirá crear más empleos de calidad y mejorar el bienestar de sus ciudadanos.

German Garcia de Gurtubay

Experto en transformación digital

4 años

Poniendo el dedo en la llaga, sí señor!! :-) Partiendo de que coincido en el 100% de las preguntas planteadas en el artículo y de que en su día devoraba con avidez las obras de Asimov, creo que tu analogía con el relato de "Razón" es particularmente acertada en el contexto actual y de un futuro cercano. Creo recordar que el problema de los humanos con Cutie en el relato era que se creía una especie de profeta de la nueva especie robótica destinada a sustituir a la especie humana como un nuevo paso del plan evolutivo cósmico.. Por esta "razón", Cutie trataba a los humanos con condescendencia paternal, un poco como un humano trataría a su chimpancé mascota al que quiere mucho. Lo cual, no es necesariamente malo para la mascota.. y ahí estaba el quid del relato asimoviano. Más allá de la SF... la pregunta común en todas las situaciones que planteas en el artículo es ¿Qué pasa cuando separamos la "inteligencia" de la "consciencia"? Un algoritmo puede ser inteligente pero no consciente: puede dar un resultado beneficioso pero sin ser consciente de por qué lo es. Y claro, también puede ser perjudicial siguiendo sin ser consciente de ello. Los humanos necesitamos el por qué de lo que vivimos tanto como lo que vivimos. Nuestra historia es casi una búsqueda del sentido de la vida: dioses, naciones, ideologías, filosofías, culturas... todo encaminado a saber por qué hacemos lo que hacemos. Con esta premisa, no es de extrañar que nos inquiete la posibilidad de la toma de decisiones sin que haya siquiera la necesidad de un por qué se toman esas decisiones. Hay mucho que hablar sobre este asunto. Si no recuerdo mal, creo que Asimov también escribió otro inquietante relato sobre coches autónomos que cobran consciencia de sí mismos... los humanos no salían tan bien librados como en "Razón"  ;-)

Roy Franke

Head of EB Digital & Connect | AI | Digital Innovation & Product Management | Digital Learning

4 años

Gracias Martí Fàbrega Gracias por tu artículo. Todavía hay muchas preguntas por responder. Por lo tanto, también es emocionante que el tema de la ética digital esté actualmente muy de moda. No será fácil, pero sigue siendo emocionante

Inicia sesión para ver o añadir un comentario.

Otros usuarios han visto

Ver temas