La regulación de la IA, una encrucijada entre la ética y la innovación
Imagen generada con IA

La regulación de la IA, una encrucijada entre la ética y la innovación

La regulación de la IA enfrenta dilemas éticos y de innovación. La UE, China y EE.UU. implementan marcos legales mientras debaten el equilibrio entre seguridad, derechos humanos y avance tecnológico. ¿Cohibirá o impulsará la innovación responsable? El futuro depende de la simbiosis IA-humanidad.

Si hay algo que la inteligencia artificial (IA) traerá consigo con seguridad es una alta dosis dependencia. Si bien ya estamos atrapados en pantallas, en realidades virtuales y mixtas y esta carrera de innovación que no deja de ir a velocidades cade vez más vertiginosas, la IA llega para hacer esto aún mucho más complejo.

Salvo en China, Rusia y algunos países de Oriente Medio, la IA está en manos de las corporaciones que las desarrollan. Desarrollar una IA es un negocio tremendamente caro, por el orden de las decenas de miles de millones de dólares, casi tanto como la armamentista. ¿Por qué tanto interés? Pues, porque es muy poderosa. Una máquina que no sólo contiene una basta cantidad de información, sino que además tiende a llegar a la singularidad.

Es aquí donde viene lo importante y la razón por la que los gobiernos y organismos internacionales andan apurados. Para entrenar una IA hace falta dos cosas: dinero y datos. Los datos son muy relevantes, porque de ellos y de los algoritmos dependerá el sistema de valores que tenga la IA; así es, las IA tienen valores que son programados. Como ejemplo, el reciente lío que se armó Google con su IA generativa Gemini, que mostró un sesgo (bias) tan marcado, que se negaba a producir imágenes de humanos blancos, produciendo así vikingos afros, papas negros, presidentes de estados unidos mongoles… todo en pro de la “diversidad”. (ver Google's Gemini Controversy Explained: AI Model Paused After Accusations Of Bias And Inaccuracy (forbes.com))

Gork, la IA de Elon Musk tiene un temperamento propio, es atrevida, un poco pedante y se especializa en analizar noticias. Claude es una dama en todo el sentido de la palabra, escribe mucho más parecido a los humanos que ChatGPT o Copilot, este último, con un temperamento más de asistente, le gusta guiar antes que dar respuestas.

Pero yendo más allá, lo que verdaderamente preocupa de las IA es su inmensurable capacidad para analizar datos, crear versiones paralelas de la realidad y hacer deep fakes que incluyen audio, video y timbre de voz.

En fin, la inteligencia artificial (IA) se ha convertido en un tema candente a nivel mundial, con países y regiones tomando medidas para regular su uso y desarrollo. Mientras que algunos ven la regulación como una forma de salvaguardar la ética y los derechos humanos, otros temen que pueda obstaculizar la innovación y el progreso tecnológico.

En la Unión Europea, se ha establecido un precedente global con la Ley de Inteligencia Artificial, que clasifica los sistemas de IA según su nivel de riesgo y establece obligaciones específicas para proveedores y usuarios. Esta normativa prohíbe los sistemas que puedan manipular el comportamiento humano, reconocer emociones o realizar categorizaciones biométricas basadas en creencias personales. Además, exige transparencia y el cumplimiento de requisitos para la IA generativa y otros sistemas de "riesgo limitado".

En China, las nuevas regulaciones buscan fomentar el uso innovador de la IA generativa, al tiempo que se enfoca en la seguridad, la moralidad social y los valores socialistas. Los proveedores de servicios de IA deben realizar revisiones de seguridad y registrar sus algoritmos ante el gobierno si sus servicios pueden influir en la opinión pública.

Por su parte, Estados Unidos ha anunciado medidas para regular la IA, incluyendo garantizar la seguridad de los sistemas, realizar pruebas previas a su lanzamiento, promover la transparencia y el etiquetado de contenidos generados por IA. El presidente Joe Biden firmó un decreto que obliga a las tecnológicas a notificar al gobierno sobre avances que representen un "riesgo grave para la seguridad nacional".

Aunque estas iniciativas sugieren una tendencia hacia la regulación de la IA a nivel regional, aún no existe un ente regulador o un marco legal de carácter verdaderamente mundial. Organismos como el IEEE y la OCDE han participado en el diálogo sobre la regulación de la IA, pero su alcance es limitado.

Mientras tanto, la discusión sobre si la regulación cohibirá o motivará la innovación en el sector de la IA sigue abierta. Algunas compañías temen que las restricciones puedan frenar el desarrollo de nuevas tecnologías, mientras que otros argumentan que la regulación es necesaria para garantizar que la IA se desarrolle de manera ética y responsable. Estos temores se extienden incluso dentro de las propias compañías cuando se aborda el tema de la singularidad, el surgimiento de la Inteligencia Artificial General (AGI), una IA autónoma y con “conciencia”. Nadie puede decir con precisión cuán cerca o lejos estamos de ver una IA “viva”.

En última instancia, la clave podría ser encontrar un equilibrio entre la innovación y la protección de los derechos humanos y la seguridad. La IA debe ser diseñada y utilizada de manera segura, centrada en el ser humano y de manera responsable, mejorando nuestras capacidades, el acceso a la salud, la justicia, la economía descentralizada, mientras se evitan efectos negativos y que las corporaciones tomen todas las decisiones sobre los sistemas de valores de sus IAs.

El futuro de la esta herramienta tiene que ver con su simbiosis con el quehacer humano en primera instancia, y con el ser humano en sí, posteriormente. Esperemos que, finalmente, la tecnología siga siendo sea una herramienta que nos permita alcanzar nuevas alturas sin comprometer nuestros valores fundamentales e incluso ponernos frente a un desafío existencial.


Alejandro Canedo Vélez es consultor en comunicación estratégica digital y nuevas tecnologías.


Inicia sesión para ver o añadir un comentario.

Otros usuarios han visto

Ver temas