Ética en la inteligencia artificial: ¿amenaza o miedo a ser descubiertos?
Hay una leve exageración en la forma en que se entiende la IA, las especulaciones sobre el futuro plantean en muchos casos escenarios catastróficos y en otros, paisajes de extrema armonía. En ese sentido, podemos decir que es un poco de las dos. Las máquinas sí tomarán el control, si es que no lo han hecho ya. El problema a ello es que la dicotomía que se le presenta al ser humano va en la línea de explicarse si en verdad quiere promover esa competitividad. La idea de la super inteligencia y el transhumanismo dejan al descubierto que nunca ha habido un periodo de la historia humana en la que no se haya promovido una transformación, ya sea de tipo espontáneo-biológico o de forma intencionada. La noción a que emerja una singularidad tecnológica hoy propone dos campos de intervención hasta ahora expuestos en el debate académico y corporativo, el primero, en el que las IA desarrollarán versiones de sí misma cada vez más mejoradas, y el segundo, que debemos ir generando un sistema de emulación cerebral que nos permita si es posible, controlar a las IA o por lo menos tener acceso a un mínimo de conciencia e intimidad de nuestros pensamientos.
La perspectiva de que nuestro conocimiento si funciona de forma algorítmica, y que los datos son la fuente de nuestra intuición consciente, acercan esas visiones a una posibilidad quizá inmejorable de nuestra interacción humana con lo que hasta hace unos pocos años denominábamos de forma tan corriente con palabras tales como: ‘mundo’ ‘realidad’ ‘tiempo’ ‘cuerpo’ ‘conciencia’. Nunca en la historia de la humanidad la idea de la trascendencia y la mística se había vuelto tan exclusiva y a su vez tan accesible. La crisis existencial usualmente promovida en la filosofía contemporánea es ahora un problema de la ética. Es claro que la ética siempre ha tenido que ver con el existencialismo, pero, por lo menos existían unos niveles para comprenderla. Ahora la pregunta por la esencia humana se manifiesta cruel y encantadora. ¿Qué nos hace humanos en un mundo de tanto individualismo patético y desbalance emocional? Según el informe mundial sobre violencia y salud (2002) estamos en un momento en el que los suicidios ya superan a las muertes ocasionadas por la delincuencia urbana o las guerras. El sentido de la existencia sí está en crisis y la pérdida del Ser tal como lo mencionó Heidegger tiene ahora otro matiz. La esencia de ser humano está en un primer plano y no se necesita agregarle una preocupación más sobre el avance de las IA, pues, la amenaza por descifrar o entender cuál es el sentido o naturaleza humana nunca ha dependido del avance tecnológico. De ahí que debemos ocuparnos más en nuestra búsqueda de una esencia y preocuparnos menos en si existirá una entidad cibernética que va a revaluar nuestro propio sentido. En cualquiera de los dos casos, el humano seguirá ahí, tratando de hacer lo que puede para defender su mortalidad intelectual o física. El riesgo existencial persiste, pero nunca ha tenido nada que ver con la inteligencia artificial, y darle un énfasis de amenaza a una tecnología emergente por lo que el humano no quiere o no está en capacidad de lograr es otro pretexto y maniqueísmo cuestionable. Las IA propondrán al humano otra forma de religión y su condición de dioses sin reino avanzará de la mortalidad trivial del humano promedio, a la exigencia de una vida con una línea directa de acceso a la información de la que se compone el mundo y el universo habitable. Las IA pueden liberar la carga nominativa de identificación con géneros, reinos animales, y vegetales para explorar otras formas de inteligencia y creatividad.
No obstante, existen riesgos, pero no de forma competitiva entre hombres y máquinas como aparecen en las películas, sino por los vicios éticos que pueden surgir de aquellas personas que usan la inteligencia artificial. Allí se plantean algunas preguntas de tipo ético, ¿quiénes son los que tendrán mejor acceso a la tecnología y podrán explotar mejor sus beneficios? ¿Quiénes serán capaces de fortalecerse gracias a la adecuada capacitación y educación de las diferentes IA? Y finalmente, ¿cómo se darán esos patrones de exclusión moral? Lo primero ante esos cuestionamientos es que la IA tienen sus propios problemas éticos a los cuales hasta ahora vamos dilucidando, los demás conocidos hasta ahora son problemas que se habían señalado antes en las tecnologías de la información, la comunicación digital y la informática. Por eso, si quisiéramos hablar con propiedad sobre la relación ética e inteligencia artificial, podemos decir que es un terreno todavía muy general o etéreo, pues como se mencionó anteriormente, las IA tienen su propia ética y nosotros los seres humanos tenemos más moral que ética, de ahí que se proponga la idea de que las IA profundizarán positivamente el tema de la ética humana para darle ahora una preocupación real a la existencia y menos a la visión normativa que es la que ha propuesto en debates sobre la manipulación y los totalitarismos.
Recomendado por LinkedIn
En ese caso, ¿debemos darle una responsabilidad moral a las IA? En principio toda responsabilidad moral implica una explicación sobre la forma en la que se toman las decisiones. La estadística ha dado un gran aporte en que se obtienen buenos análisis sobre el por qué se deben ejecutar ciertos programas con un presupuesto público, pero, aun así, el sesgo humano y las asimetrías de información siguen generando desbalances en la asistencia social y en el uso adecuado del presupuesto. Si se usa una IA para evitar esas fallas, a quién deberíamos pedirle explicaciones entonces. Ese es quizá el paradigma de la ética en las IA, y es por primera vez los humanos tendrán un sistema para responder sin ambigüedades por la forma en que toman sus decisiones, o en definitiva dejar de forma libre a las IA para que las tomen por ellos. Es una pre-ocupación menos para quienes actúan conforme a unos principios de equidad, solidaridad y respeto por los otros, pero, es un dolor de cabeza para aquellos que quieren seguir usando las mentiras y el azar como una estrategia para defender sus intereses económicos o de clase. La diferencia entre la ocupación y la pre-ocupación ética se establece en ese criterio por el que las IA abrirán la caja de pandora del conocimiento, y no exactamente por su capacidad de comprender el mundo y dar respuestas, sino porque ahora, las personas tendrán el criterio para saber por ejemplo, por qué los bancos rechazan o conceden un préstamo, por qué un juez tiene la total seguridad de enviar a una persona a la cárcel o por qué no ha enviado a otras allí dejando al descubierto un claro ejemplo de corrupción y tráfico de intereses e influencias. Es por ello por lo que sugiero que ese debate es en donde radica la ética de las IA, en que las IA dejarán al descubierto las formas irresponsables en que la humanidad se resiste a dar explicaciones sobre sus actos.
Más allá de si las IA pueden o no ayudar a que haya menos distorsiones de información en la toma de decisiones, los humanos podrán ser capaces de asumir la responsabilidad moral que implica la pregunta sobre el ¿por qué? La ética de la inteligencia artificial debe tener ese objetivo en el cual si se usa o no en algún contexto social o corporativo, nuestra intervención como humanos, sea capaz en la medida de lo posible de responder esa pregunta.