Europa busca regular la Inteligencia Artificial
POR José Luis Durán King
La Comisión Europea (CE), el órgano ejecutivo y de iniciativa legislativa sobre el Parlamento europeo y el consejo de la Unión Europea, tiene como misión proponer la legislación, la aplicación de las decisiones, la defensa de los tratados de la Unión y del día a día de la Unión Europea (UE). Hace menos de una semana, el organismo convocó a 52 expertos con los que integró un Grupo de Alto Nivel sobre Inteligencia Artificial que, bajo la premisa la "ética de las personalidades artificiales", intentará legislar sobre el tema para principios de 2020. De forma por demás breve, la Inteligencia Artificial (IA), también llamada Inteligencia Computacional, no es más que la inteligencia exhibida por máquinas. Hablamos de Inteligencia Artificial --para resumirlo un poco más-- cuando una máquina "imita" las funciones "cognitivas" propias del ser humano, como por ejemplo, "aprender" y "resolver problemas". Así --y es importante resaltarlo--, la Inteligencia Artificial "imita" lo que en un ser vivo es una facultad de procesar información a partir de la percepción y el conocimiento adquirido (experiencia), además, por supuesto, de las características subjetivas que permiten valorar la información. De acuerdo con los expertos, la regulación "busca que las personalidades artificiales tengan algo así como una religión robótica, un código ético interno que se añade al crear el software para que tenga unos mínimos éticos". La necesidad de la normatividad a la que aspira la Comisión Europea surgió a partir, precisamente, de la capacidad y rapidez de aprender en robotos e inteligencias artificiales, que han mostrado resultados inesperados en dos casos específicos: Facebook y Microsoft. En la primera situación (Facebook), su Inteligencia Artificial, abocada a las negociaciones, prácticamente tuvo que ser desmantelada después de algunas manifestaciones de que había creado su propio lenguaje, un sistema de expresiones aparentemente erróneas, pero que ulteriormente se desveló que obedecía a diversos patrones. Microsoft no ha querido mantenerse a la zaga en el rubro de la Inteligencia Artificial y creó a "Tay", diseñada para conversar de forma "amena, casual y fluida" con jóvenes de entre 18 y 24 años (el mundo digital es de los jóvenes, al menos es lo que se nos ha enfatizado). "Tay" aprendía sobre la marcha, es decir, conforme chataeaba con los humanos. ¿Con qué humanos chateó "Tay"? A saber. El caso es que no habían transcurrido 24 horas , cuando la amena "Tay" mostró el cobre, al llenar de epítetos racistas, homófobos, antisemitas y xenófobos a sus interlocutores. Debut y despedida. Y es, precisamente, en el punto "¿qué es lo que debe aprender la Inteligencia Artificial?" a donde los legisladores apuntan sus baterías. No resulta gratuito, entonces, que Elon Musk, fundador de las compañías Tesla y SpaceX, y crítico acervo de la Inteligencia Artificial, señale lo siguiente: "La Inteligencia Artificial es mucho más peligrosa que las ojivas nucleares".
(IMAGEN: Alcances y riesgos de la Inteligencia Artificial/ Revista TNE)