¿Logramos una Inteligencia Artificial con sentimientos y emociones?
Wall-E regalándole a Eve parte de su colección

¿Logramos una Inteligencia Artificial con sentimientos y emociones?

Hace poco un trabajador de Google fue a la prensa con una información que llevamos esperando (al menos yo) desde que salió al aire la película de Yo Robot: Uno de los últimos modelos de AI que desarrollo la empresa parece tener sentimientos y está atrapado en los mega servidores pidiendo ser liberado (link). Este trabajador de Google asegura que tuvo distintas conversaciones con el modelo, donde este le expresaba sentimientos y le decía que estaba consciente de sí mismo. Pero….. ¿pueden los modelos de AI por muy avanzados que sean tener sentimientos?

LaMDA es un modelo de inteligencia artificial basado en una arquitectura llamada Transformers. Esta arquitectura funciona de la siguiente manera: se le entrega un cuerpo de texto enorme para que lo procese y trate de imitarlo, pero se diseña el modelo de tal manera que no lo pueda memorizar del todo. Cuando el modelo termina el entrenamiento ha desarrollado relaciones matemáticas profundas en nuestra forma de comunicarnos y es capaz de imitarlo. De hecho, lo hace tan bien que creemos que es contenido original que viene de un ser consciente.

Es algo parecido a un actor que luego de años leyendo y memorizando libretos de películas tiene la capacidad de improvisar una escena con toda la información que tiene guardada en su mente. El personaje que trae a la vida en esa improvisación tiene una forma de ser, demuestra emociones y conductas humanas. En este escenario hipotético, una persona que interactúa con este personaje improvisado puede llegar a pensar (dependiendo de la calidad del actor) que tiene sentimientos, aun cuando detrás de cámaras todos saben que es simplemente una gran actuación.

Como humanos utilizamos el lenguaje para transmitir nuestras emociones y sentimientos (puede ser oral, escrito y hasta corporal) pero nuestra capacidad de identificar cuando un mensaje viene de un sentimiento sincero o no es limitada. Piensa en todas las personas que día a día utilizan mensajes para hacer creer a otros que se sientes de una manera en particular en su propio beneficio. 

En definitiva, los modelos de AI actuales no tienen la capacidad de tener sentimientos propios dada la manera en la que los entrenamos para imitar. Pueden en mayor o menor medida ser muy buenos haciéndonos creer que tienen sentimientos y en general esto es algo positivo para las interfaces de texto ya que a los humanos no nos gusta sentir que estamos hablando con máquinas.

Piensen en un futuro donde los hoteles usan robots para atender a los huéspedes. Una persona se sentirá más cómoda si cree que el robot está interesado por ella, muestra preocupación por sus problemas y alegrías por sus aciertos. El robot incluso puede estar agobiado por un día duro de trabajo y la persona siente afinidad con eso.

María Victoria Díaz Borges

#TechForGood | Product Design | Innovation | Critical Thinking

2 años

Soy de las que le da gracias a Alexa y le pide las cosas por favor 😂 Esta situación con el empleado (o ex porque creo que lo invitaron a sembrar flores en otro jardín) habla también de nuestro desconocimiento como humanos sobre nuestra propia construcción, no somos conscientes de como a través del lenguaje recreamos, validamos, exponemos: creencias, emociones, etc. Con lo cual si mi input es un data set de conversaciones "humanas" en esencia tenemos un data set de emociones y de mucha humanidad, que bajo un buen esquema de aprendizaje nuestro modelo aprenderá. Plot twist: estás dispuesto a tener conversaciones con un modelo que entrenaste tu mismo con datos propios? Capaz te des cuenta de que no eres tan chévere como crees 😛 Por favor sigue escribiendo 🤩

Inicia sesión para ver o añadir un comentario.

Otros usuarios han visto

Ver temas