¿Y qué haremos cuando la IA nos supere?
🔙 No dejes de ver todo el ciclo para que complementes las ideas de este artículo.
Para que contextualices adecuadamente esta undécima parte es necesario que primero hayas mirado el video y los capítulos anteriores. Puedes ir directamente haciendo clic en los números. 1, 2, 3 4, 5, 6, 7, 8. 9, 10, 11.
Puede que algunas(os) de ustedes ahora piensen:
- Estamos en los albores de la extinción del ser humano.
- Lo de la IA sigue siendo ciencia ficción.
- Todavía no tenemos de qué preocuparnos con la IA.
Y es posible que todas(os) tengan razón.
De seguir el ritmo vertiginoso de desarrollo de la IA en todos los sectores del quehacer humano, el horizonte (utópico para algunos, distópico para otros) está mucho más cerca de los que imaginamos.
Muchos de las impresionantes capacidades que potencialmente podrán desarrollar las IA aún están en la imaginación de un loco guionista.
Muchas de las realidades imposibles que hace unos años nos decían que los robots con sus IA incorporadas iban a hacer, ya se están haciendo.
Muchas de cuestionamientos éticos que plantean las IA solo es un potencial “horizonte de sucesos”, como dirían los astrofísicos.
No se trata de tener razón. Como en otras “nuevas” realidades como la nueva ola del feminismo, los impactos del cambio climático, la macroeconomía, la vuelta de la extrema derecha, se trata de saber qué tan informados estamos para tener una opinión, para tomar una posición al respecto, para saber si es necesaria una acción de nuestra parte y si en las sumas y restas de todo eso podemos hacer una diferencia en la mejora de la calidad de cada vez más personas.
En esta última entrega de esta primera aproximación a la Inteligencia Artificial, cumplimos con uno de nuestros objetivos: Dejar más preguntas que respuestas.
El “broche de oro” del documental de IBM y Discovery Channel es hablarnos de las Inteligencias Generales Artificiales (IGA).
Si no has tenido bastante son las siglas que me he inventado a lo largo de estos artículos, quédate por lo menos con ésta: IGA.
Mira el vídeo y luego vamos a las preguntas.
Como dice el futurista George Dvorsky los seres humanos somos una inteligencia general: podemos hacer muchas cosas diferentes en muchos contextos diferentes.
Aún no existe un dispositivo que esté ni siquiera cerca de poder hacer eso. Las IA que hasta ahora tenemos, independientemente de la carcasa en la que vaya instalada, solo una aplicación, un bot, un androide, una ginoide, una pulsera, un gadget, están lejos(por ahora) de poder reproducir el desempeño y la capacidad de adaptación de los humanos a casi cualquier situación que se les presente.
Parte de nuestra maravillosa y suicida inteligencia es la capacidad de acomodar rápidamente nuevos contextos y tratar de darles un sentido y una explicación, aunque finalmente estemos equivocados. Si acertamos nos sentimos eficaces y poderosos. Si nos equivocamos, y lo queremos admitir, ajustamos nuestras ideas y comportamiento para no seguir cometiendo el error o para enmendarlo. Si no queremos admitir nuestra equivocación inventaremos nuevos contextos y explicaciones para justificar nuestra versión de las cosas. Si esta acomodación de hechos equivocados funciona y más personas se lo creen, es posible que nos sintamos igualmente eficaces y poderosos. Luego, si hay algún ápice de conciencia y dependiendo de las consecuencias de habernos reafirmado en un error, vendrá la culpa, e igualmente nos apañaremos con ella.
Esta complejidad del ser humano es la que está muy lejos de ser replicada por las IA. Pero es una pretensión. Cada persona es única, evalúa y decide de maneras únicas. Y aunque podríamos obtener respuestas similares de varias personas, ante determinados estímulos, la evaluación, aplicación y aprendizaje de esta sencilla reacción “conductual” es siempre exclusiva de cada persona. Esta característica suele llamarse en algunos contextos “Singularidad”.
¿Podemos conseguir robots singulares?
Piénsalo un momento. Si en lugar de tener Inteligencias Artificiales específicas para determinadas tareas, pudiéramos tener robots dotados de Inteligencias Generales, capaces, como nosotros, de adaptarse a cualquier circunstancia y actuar en consecuencia.
El reto se ve descomunal. Un descanso para quienes sienten “el aliento” de la máquina respirándole en la nuca. Algo así como “¡Bah!, eso es imposible, no lo van a conseguir nunca. Siempre serán una máquina!”.
Conquistados con espejitos
Una dolorosa y políticamente incorrecta leyenda urbana (histórica) dice que la conquista española en América fue posible gracias a que los indígenas eran ingenuos y “se dejaban engañar fácilmente” con artilugios, entre ellos, con la “magia” de los espejos. Pero lo que no cuenta esta racista y clasista historia es que casi toda la humanidad funciona igual.
Somos susceptibles a los trucos. Cualquier innovación que prometa un momento de admiración, diversión o confusión, puede persuadirnos fácilmente. Aunque hay muchas personas que no les gusta la magia, a casi todo el mundo le sorprenden los trucos que los magos pueden hacer. Amenos que seas un mago o un deprimido escéptico que, o se sabe el truco, o que aún sin saberlo sospecha que lo están engañando, pero tampoco hace nada.
Hasta ahora, muchos de los avances que vemos de las inteligencias artificiales y la robótica son trucos con respecto al potencial que se puede desarrollar. La meta es emular, replicar a los seres vivos, especialmente a los humanos. Así que muchos de algunos desarrollos no son más que incipientes, aunque efectivos, trucos para persuadirnos de lo que vendrá.
No quiero ser injusto con la industria. Detrás de cada truco hay ingenieros, investigadores, empresarios, inversionistas, y cada truco tiene detrás mucho trabajo, pero, como dice el documental, estamos lejos de que los robots alcances la singularidad.
Fuera humanos de la ecuación
Ya lo he cuestionado en varios artículos y ahora esta pregunta tiene un poco más de sentido cuando hablamos de singularidad.
Con el desarrollo exponencial que está teniendo la industria de las IA (montadas sobre cualquier “hardware”)…
¿Cuánto tiempo tardarán las IA en darse cuenta que las “imperfecciones” humanas suponen un riesgo para la supervivencia de la especie y por tanto decidan prescindir de nosotros?
Y el día que esto llegue, ¿Supondrá esto que nos aniquilarán?
¿O pasaremos a tener otro estatus dentro de las jerarquías de dominación del entorno?
¿Seremos aliados, esclavos, idiotas útiles?
¿Cuánto tiempo pasará para que la SUIA(Super Ultra Inteligencia Artificial) decida que tampoco en nuestra función de esclavos o socios menores, es necesaria y por tanto lo mejor sería suprimirnos, por el bien de las mismas SUIA, o del planeta?
Olvídate de la programación por humanos
Las SIA (Súper Inteligencias Artificiales) y las SUIA serán capaces de programarse a sí mismas, sin intervención humana. Y mejorarán de manera, no rápida, rapidísima, su propia programación. Así que se re-escribirán y serán mejores cada vez, replicándose a ellas mismas también a una velocidad vertiginosa.
Pero, como ya hemos visto en capítulos anteriores, estas “maquinas” podrán aprender por imitación, no por programación. En el fondo es la máquina reescribiendo su código a partir de ciertos modelamientos.
Y luego podríamos llegar al punto de máquinas enseñando a máquinas (de nuevo el ser humano fuera). Si una máquina puede escribir su propio código, nada le impide enseñar a otra máquina, y enseñarle precisamente a ser auto-programadora.
¡Fascinante y… espeluznante!
La alineación de objetivos
Los retos a los que se enfrentan los “filósofos” y asesores éticos de la era de las inteligencias artificiales es cómo hacer para que los objetivos de estas máquinas singulares se alineen con nuestros objetivos como seres humanos.
La tarea es mastodóntica.
Ya sabemos que por un lado están los intereses de las mayorías, esa masa informe que llamamos pueblo. Y por otra están los intereses de los que, desde posiciones privilegiadas, se sientan en sus emporios a decidir qué es lo que esa mayoría “realmente” necesita.
Si nosotros, como humanidad, no hemos alcanzado a ponernos de acuerdo sobre qué es lo “realmente” importante, ¿Sobre qué objetivos se alinearán las SUIAs?
¿Todo, en los esfuerzos humanos, sobre los grandes problemas de la humanidad, se resume en nuestro deseo de sobrevivir como especie?
¿Estamos llegando a un punto donde el sistema (nuestra forma de vivir) es insostenible y es necesaria una reducción del número de componentes del sistema para garantizar la supervivencia de la especie?
¿Qué es lo importante? ¿Dejarles un mundo a nuestras hijas e hijos? ¿Pero qué mundo? ¿En manos de quién? ¿De quienes tienen el poder o el dinero suficiente para pagarse lo que sea necesario para garantizar su supervivencia? ¿Los que han podido pagar por máquinas programadas para protegerles?
Cuando de manera ingenua, en el video, Max Tegmark sugiere que deberíamos esforzarnos para que las IA sean programadas para que pase lo que pase en su autoprogramación, éstas siempre estén alineadas con nuestros objetivos, no queda claro cuáles son esos objetivos.
La delincuencia siempre va por delante
Tuve la oportunidad de aprender algo acerca de la seguridad física, por allá a finales del siglo pasado, porque fui nombrado director del capítulo Antioquia de la Asociación de Empresas de Vigilancia Privada. Al mismo tiempo fungía como director de la primera escuela de Vigilancia Privada. Con un equipo de asesores nos encargamos de determinar, de acuerdo con un reglamento general del gobierno colombiano, cuáles eran los contenidos que debían enseñársele a los guardas (o guardias, vigilantes, “seguratas”, “serenos”). ¿Qué se le debe enseñar a una persona que tendrá acceso a un arma de fuego? Enseñarles cómo pueden pensar los delincuentes, sumado a la formación emocional necesaria para que evalúe adecuadamente las situaciones que enfrentará, y además tener una orientación profesional al servicio, son conjugaciones difíciles. A los guardas se les pide que sean super-humanos, pero en la mayoría de los países les pagan menos que el salario mínimo.
Bien, a lo que voy. Uno de los aprendizajes que adquirí es que la seguridad absoluta no existe. Con el desarrollo de la Cyberdelincuencia esto se ha hecho más evidente aún. Los delincuente siempre van un paso, o varios, por delante de los cuerpos de seguridad. La seguridad casi siempre solo puede ser reactiva. Y la seguridad preventiva puede provocar tantos problemas éticos que cada caso se debe estudiar al milímetro.
Ahora traslada esto al mundo de las IAs.
Por cada programador, bien intencionado que quiera alinear los objetivos, habrá un malvado que ya ha desarrollado, (¿Con el dinero de quién?) una versión de la realidad que en nada tiene que ver con esa alineación.
Solo desde una visión ingenua podemos aceptar que todo lo que traerá y están trayendo las IAs son maná del cielo, redención y salvación eterna.
Las IAs matarán más efectivamente, podrán distribuir un virus de manera selectiva más certeramente de tal forma que está al alcance de la mano la exterminación de etnias concretas que no le vengan bien a determinados grupos.
Asimov ha muerto
El consenso, también ingenuo, de que los ingenieros informáticos, como los galenos con el juramento hipocrático, jurarían respetar las leyes de la robótica de la literatura de Isaac Asimov, no es más que eso: Un pensamiento ingenuo.
Si no las conoces te las repito. Las tres leyes fundamentales de la robótica son:
1. Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño.
2. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley.
3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.
Permítanme pensar como un delincuente (pagado con dineros de algún lunático que le interese sobrevivir a toda costa):
1. Un robot, si así lo considera podrá hacer daño a un ser humano si éste atenta contra los intereses de su creador, programador o patrocinador.
2. Un robot permitirá que un ser humano le haga daño a otro ser humano, siempre y cuando esto sea ventajoso para sus intereses.
3. Un robot debe cumplir las órdenes de los ciertos humanos autorizados en su programación.
4. Un robot siempre pondrá su propia existencia por encima de cualquier persona, animal o cosa, que impidan (de manera activa o pasiva) cumplir los objetivos para los que fue programado.
Y se me ocurren unas cuantas más.
Pensar que la industria respetará las leyes de Asimov, solo porque suenan bien con nuestros intereses de supervivencia es simplemente de una ingenuidad ramplona. Es como pretender que Simba no se comerá a Pumba y a Timón solo porque le cuidaron cuando estaba desterrado. En la vida “real” Simba desarrollará sus instintos depredadores y se intentará comer a sus “amigos” primero.
¿Exagero? ¡Por supuesto que exagero! ¿Exagero?
Mirar con esperanza
Si no estamos en la industria. Si no estamos en los ámbitos de poder donde se toman las grandes decisiones. Si no estamos en los equipos de asesoramiento de los diseñadores y programadores informáticos. Si simplemente estamos fuera del entorno de los desarrollos de las IAs, solo podemos aspirar a ser consumidores, idiotas útiles (que cederán alegremente sus datos y opiniones) y, en definitiva, espectadores de un cambio que nos afectará a todas y a todos.
Lamentablemente, nos hemos puesto (nos han puesto) en una posición donde la fe es una de nuestras mejores bazas. Confiar en que las personas que están al frente de los desarrollos y los diseños de las IAs pensarán en nosotros, en el bien común, en el cumplimiento del consenso social sobre qué es lo mejor para la humanidad, para nuestras niñas y niños.
Nos queda mirar con esperanza a que todo esto sirva para hacer un avance significativo en nuestra búsqueda de ser mejores seres humanos armónicamente integrados con nuestro entorno.
Si pensamos que todo lo que promete la IAs es maravilloso, probablemente pequemos de ilusos.
Si nos quedamos a un lado del camino, simplemente esperando a ver qué pasa, seguramente solo seremos idiotas útiles, al servicio de intereses poco claros.
Si nos llenamos de fatalismo, es factible que no seamos capaces de apreciar las grandes oportunidades que nos ofrecen las IAs y nos quedemos rezagados en la historia.
Una mezcla de estos tres extremos, tampoco pareciera suficiente para entender a qué nos enfrentamos. Así que nos queda estudiar, aprender, desarrollar pensamiento crítico, formarnos un criterio y actuar en consecuencia.
Comparte tus impresiones.