Sociedad desorientada en tiempos de inteligencias artificiales estúpidas

Sociedad desorientada en tiempos de inteligencias artificiales estúpidas

Hace casi un mes fallecía Alvin Toffler (ES), considerado para muchos una respetada figura del mal llamado futurismo novelesco. Como bien señalaba Farhad Manjoo en The New York Times (EN/un artículo muy recomendable, por cierto), y aunque el hombre no gozara en vida de tanto prestigio como sí han conseguido otros “futuristas” (véase Asimov), predicaba una palabra conformista y quizás algo pesimista de lo que ha acabado por ser la cruda realidad.

Mencionaba de pasada su obra en el anterior email que envío como cada semana a los miembros de la Comunidad, pero tenía pendiente “apoderarme” de parte de su tesis (escrita, por cierto, en los años 70) para presentar el tema que hoy ve salida en esta humilde morada.

Alvin Toffler hablaba en su obra de “la desorientación” que llevaba a la sociedad a no ser capaz de afrontar el feroz movimiento del cambio tecnológico. Algo que parecía intuirse en aquella época, y que es el pan nuestro de cada día:

A nuestro alrededor la tecnología ha alterado profundamente el mundo: por ejemplo, los medios sociales han subsumido al periodismo,la política y hasta a las organizaciones terroristas. La desigualdad, provocada en parte por una globalización de raíces tecnológicas, ha extendido el pánico en gran parte del mundo occidental. Los gobiernos nacionales, lentos para reaccionar, no saben cómo tratar con las corporaciones más poderosas que jamás se hayan visto, muchas de las cuales son, precisamente, compañías tecnológicas.

En consecuencia, las instituciones políticas han fracasado en la tarea de modelar el futuro, dejándolo en manos de esas corporaciones “guiadas por la implacable lógica de la hipereficiencia”.

La traducción viene de la mano de Norberto en su página (ES). Los enlaces, de quien escribe estas palabras.

Y se le olvidó al bueno de Manjoo hacer hincapié en la falacia de una inteligencia artificial verdaderamente inteligente. Pero ya está un servidor por aquí para recoger el testigo :).

Cuando una máquina ha de enfrentarse a un escenario ambiguo

El Test de Turing, que sirvió durante años para prefijar lo que creíamos que podría ser una inteligencia artificial, ha demostrado estos últimos ser profundamente insuficiente.

Engañar a un humano y hacerle pensar que en efecto está manteniendo una conversación con otro humano parte de un entorno a priori muy manipulable, en el que la máquina ha de comunicarse mediante un canal específico (texto o voz, por ejemplo), y puede hacer uso de frases ambiguas ligeramente contextuales, e incluso almacenadas en bibliotecas creadas para la ocasión, para salir del apuro. Eso cuando no se hace alusión a factores psicosociales que minimizan el espectro ante posibles críticas (utilizar voces infantiles para hacer entender al humano que no puede esperar una conversación muy profunda, dirigir el discurso a aquellos escenarios donde la máquina se encuentra mejor preparada,…).

Frente al Test de Turing, tenemos el Reto del Esquema Winograd (EN), una prueba lanzada por Nuance Communications, Inc. que tiene como objetivo medir el sentido común que demuestra una máquina frente a una conversación.

Para ello, se hace uso de frases que además de contextuales son, según se analicen, ambiguas. Frases como la que sigue, puesta de ejemplo por el propio reto:

Los concejales de la cuidad negaron la licencia a los manifestantes porque temían la violencia

En la cual, siendo estrictos (sin aplicar el sentido común), no queda claro si los que “temían la violencia” eran los concejales o los manifestantes.

Frases que seguramente usted, como un servidor, analiza y resuelve de forma efectiva casi sin pensárselo, habida cuenta de que tenemos muy interiorizado el contexto. Pero que una máquina demuestra verdaderos problemas para comprender.

Tanto para que haya quedado demostrado que la tasa de acierto de las máquinas que se presentaron al reto era ligeramente superior a la tasa de acierto de una respuesta aleatoria (48% de la IA frente al 45% de tirar un random de 2). Por si se lo pregunta, para ganar tenían que llegar al 90%. Y no, ni Google ni Apple ni Facebook hicieron, casualmente, acto de presencia.

Y llegar a eso, como supondrá, requiere un aprendizaje que a priori está lejos de poder alcanzarlo. Para ello tendríamos que encontrar la manera de ofrecer a la máquina un aprendizaje híbrido, semiautomático, en el que la máquina aprendiera en base a prueba/error (lo típico del aprendizaje profundo), y también en base al conocimiento que una serie de operarios humanos pudieran “implantar” en el sistema.

Algo que frisa con los tiempos que nos gustaría manejar, y también con nuestras limitaciones biológicas e intelectuales (resulta muy complicado enseñarle a alguien “el sentido común”, y mucho más si esperamos que esta herramienta aprenda en cuestión de meses/años, y no de décadas).

Cosa, por otro lado, terriblemente crítica si queremos crear sistemas inteligentes que sean operativos en la sociedad. Asistentes virtuales adaptados a cualquier casuística que se pueda dar. Coches autónomos aplicando el sentido común a la hora de encontrarse ante un elemento que por la razón que sea no está identificado, pero que viene en dirección contraria y amenaza la integridad de sus ocupantes.

Si pretendemos vivir en un entorno gestionado cada vez más por algoritmos. Un tema en el que profundizábamos recientemente, y que pincelaba a posteriori con numerosos enlaces a estudios y noticias referentes (ES) dentro de la intranet de patronos.

Desorientación humana vs estupidez artificial

¿Cómo podemos tan siquiera plantearnos los porqués de esa presión anti-tecnológica sin acudir a los retos a los que nos lleva el mundo tecnológico?

Es normal que haya fricción a la hora de afrontar un cambio cuando no está claro que éste sea capaz de mejorar la situación actual.

Y a esto, únale la esperable pretensión del ser humano (del ser vivo, en líneas generales) por mantener un status quo, una estabilidad, que día tras día se le es negada.

No se trata de crear primero la tecnología y luego la función, sino de justo lo contrario.

Que esos bots tengan en verdad sentido de ser. Que ofrezcan un valor añadido ahí donde a día de hoy no llegan las interfaces conversaciones. Que la digitalización no sea un freno a la hora de socializar, sino un estímulo para crear conciencia globalizada. Una herramienta para unirnos a todos, y no para separarnos de los más cercanos.

Enfrentarse a esto, y hacerlo esperando que la IA solucione todas nuestras limitaciones (y desorientación), es una quimera.

Quizás tengamos que pararnos y pensar en cómo piensa nuestro cerebro. El por qué de esa capacidad tan eficiente para aplicar el sentido común ahí donde de manera puramente objetiva la máquina falla. Y juntos, fijar una hoja de ruta realista que nos acerque a un entorno de asistencia donde el humano siga teniendo su razón de ser.

Esa misma que ha dado sentido a nuestra existencia durante siglos. Y que seguirá presente, inclusive bajo regímenes basados en el hype de X o Y tecnología.

Inicia sesión para ver o añadir un comentario.

Otros usuarios han visto

Ver temas