Atajando a ChatGPT y otras apps IA
Cada vez es más larga la fila de instituciones que quieren regular la inteligencia artificial (IA). El caso más reciente y popular viene siendo ChatGPT, que ha demostrado la necesidad de implementar algún tipo de legislación que mitigue los riesgos y vulnerabilidades en materia de ciberseguridad que vienen presentándose en medio de su sensacionalismo. ¿vale la pena regular y controlar este tipo de desarrollo? La discusión está abierta.
Una de las sensaciones del momento parecer ser ChatGPT. Una inteligencia artificial (IA) que sabe reírse de sí misma, que parece entender las connotaciones del sarcasmo, que sabe las respuestas a un sinnúmero de preguntas, y hasta es capaz de entablar una conversación virtual con una naturalidad que sorprende hasta al más escéptico. Toda una sorpresa por su facilidad de usar y su serie de respuestas tan creíbles y detalladas como ninguna IA ha logrado.
Tiene una impresionante capacidad que va desde la traducción a distintos idiomas hasta la generación de código informático, lo que lo convierte en el modelo de lenguaje que está sorprendiendo a todos los usuarios, y que viene siendo impulsado por un conjunto de datos masivos con el que ChatGPT ha sido construido, lo que le da la suficiente amplitud y variedad de temas.
Aunque al momento parece ser una exploración inocente y divertida entre la interacción entre el humano y la IA, existen también una variedad de riesgos importantes que no parece tener el suficiente protagonismo. Por ejemplo, en una era en la que la desinformación también es una sensación, tiene un extraordinario potencial de generar contenido que podría engañar a una persona.
En concordancia, las técnicas para detectar amenazas como el phishing tendrían que mejorar trascendentalmente. Hoy en día hay algunos tips útiles para reconocer este tipo de correos electrónicos o incluso mensajes de texto fraudulentos, pero ChatGPT podría facilitar la tarea para que estos sean mucho más convincentes, se generen mucho más rápido y fácil y se convierta en una herramienta ampliamente usada en la generación de código de explotación, según lo ha manifestado CheckPoint, empresa líder en soluciones de seguridad informática.
También se especula que, aunque los creadores de ChatGPT trabajan sobre los controles de la aplicación, los usuarios seguirán superando los límites a tal punto de usar la herramienta para escribir malware, solicitando, por ejemplo, la generación de algún código para las famosas pruebas de penetración (usadas para poner a prueba un sistema y descubrir vulnerabilidades del mismo), para luego modificarlo y reutilizarlo para varios ataques cibernéticos.
Recomendado por LinkedIn
Y aunque algunos podrían considerar estos escenarios como surrealistas, en la actualidad ya hay un ejemplo que raya en lo absurdo: en el grupo de Reddit (sitio web de interacción) ya se ha logrado engañar repetidamente a ChatGPT para que interprete un personaje ficticio de IA, llamado DAN, abreviatura de “Do Anything Now”, para responder a consultas sin restricciones éticas.
Por esto y todos los riesgos potenciales que rondan a esta IA, Estados Unidos y China se han sumado este mes a Italia en su intención de legislar y regular la IA para que el uso de estos programas sea más seguro. Al momento, el incumplimiento a la normativa de protección de datos y su falta de filtros para menores de edad han sido los detonantes.
Del lado del Departamento de Comercio de Estados Unidos se evalúa si las iniciativas de IA potencialmente peligrosas deberían pasar por un proceso de certificación antes de su lanzamiento, mientras que la Administración del Ciberespacio de China trabaja por incorporar evaluaciones de seguridad antes de lanzar estos productos al público, de acuerdo con información recopilada por Reuters.
En Europa, Bruselas quiere que los contenidos generados por IA lleven una advertencia específica, ya sea algún texto o imagen, para notificar que dicho contenido ha sido generado por alguna IA, mientras que la Agencia de Protección de Datos de España anunció que iniciará una investigación contra OpenAI, la compañía que desarrolló ChatGPT, por su impacto sobre los derechos de las personas. En Italia ya fue bloqueado su uso y se espera que Francia, Irlanda y Alemania le sigan los pasos por el riesgo para la seguridad de los datos en vista de que se han pasado años debatiendo las mejoras para la Ley de Inteligencia Artificial y no se ha acordado nada.
Tal es la preocupación sobre sus riesgos que ChatGPT será un punto importante en la agenda de la cumbre del G7 el próximo mes dado el aumento en las peticiones para regular los sistemas avanzados de IA. Según legisladores de la Unión Europea, qué mejor oportunidad que una cumbre global de alto nivel para acordar una serie de principios que guíen el desarrollo y control de la IA alrededor del mundo.
Así, la carrera por hacer dinero con la IA va al tiempo que la carrera por regularla, reavivando así las tensiones entre la innovación y la regulación. Pues bien, la IA es parte de los retos que se deben incluir como un beneficio en el desarrollo de las capacidades para diversos sectores y una debida regulación parece ser la respuesta para atajar los riesgos latentes y podría evitarse su prohibición de manera generalizada. Ya es hora de que propuestas como la Ley de Inteligencia Artificial en la Unión Europea rinda frutos y ChatGPT no debería ralentizar este proceso.
¿Y en Colombia?, de un barrido investigativo en general, aún no se ha mencionado algún tipo de legislación o regulación en materia. Sería interesante ver cómo avanza este devenir normativo y regulatorio en materia en China, Europa y Estados Unidos, y replicar, dadas las particularidades propias del país, lineamientos en materia. #IA #chatGTP #Colombia