Ley IA Act

Ley IA Act

Hace tiempo que no escribo, en un intento por retomar cosas que me gustan estoy redactando estas líneas, no sé si lo hago bien o no, sé qué podría hacer un video de 1 minuto cómo es la tendencia ahora, pero a mi me gusta escribir, lo siento, soy una rebelde.

En Abril del 2021 (en plena pandemia) el mundo veía por primera vez una propuesta para ley oficial en la Unión Europea para regular la Inteligencia Artificial y está, al fin, fue ratificada en Marzo 2024 y si es refrendada entrará en vigor en el año 2026 o, a como van las cosas, mucho antes. 

Pero ¿Por qué es necesaria esta ley? bueno, aquí voy a dar unos pequeños pasos hacia atrás. Este intento de contención de la IA por medio de una ley no comenzó con la IA misma, si no con la gran ola tecnológica de los últimos 50 años desde que se inventó el transistor, recordemos que la la ley de Moore dice “El número de transistores se duplica cada 2 años” y esa ley ha sido efectiva por las últimas 5 décadas, ahora la Lay de Huang ha cambiado ese 2 a 1000… ¿Qué tiene que ver esto con la IA? bueno, muchos de los avances que se han logrado en los últimos años en IA tienen que ver con que el poder computo es más alto cada año y más accesible y esto es porque al momento que una tecnología se esparce por el mundo, se adapta, se replica, y los costos se adecuan para hacerla accesible a todos. Hoy puedes hacer uso de modelos entrenados desde un navegador web o tu smartphone, puedes levantar poderosas instancias de cómputo para entrenar tus propios modelos, y ahora, la IA está junto a nosotros en muchas formas, por ejemplo tu Alexa o las hermosas imágenes generadas por Midjourney.

La ley aborda cuatro categorías de riesgo de IA:

  • Riesgo inaceptable. Cualquier aplicación de la IA que aborde este nivel de riesgo estará totalmente prohibida, como por ejemplo: Sistemas policiales predictivos que valoran la probabilidad de las personas de cometer un delito, Sistemas de calificación social que analicen ciertas características, relevantes o no, para ejercer un trato segregativo y/o perjudicial sobre las personas.
  • Riesgo alto. Sistemas utilizados en entornos laborales para evaluar al candidato para contratación, promociones y beneficios, Sistemas de educación que monitorean y califican el rendimiento de los estudiantes y sistemas utilizados en procesos judiciales y democráticos, entre otros sistemas.
  • Riesgo limitado. Todos aquellos que cumplen con las obligaciones y reglas de transparencia de uso de IA especificas. Por ejemplo, por tales y/o aplicaciones que usan IA generativa para crear texto y/o imágenes y que informan esto apropiadamente a sus usuarios.
  • Riesgo mínimo o nulo. Herramientas y/o sistemas de IA que no interactúan directamente con las personas o que tienen muy poco impacto material cuando lo hacen, por ejemplo los filtros de spam o malas palabras en los redactores y sistemas de gestión de emails.

Pero ¿Quien evita el uso o diseño de IA para otros fines? por ejemplo: para la cyber-delincuencia esto ha sido el nuevo caldo de cultivo para implementar nuevas maneras de fraudes, como “La patrona” en México donde con IA igualan la voz (en algunos casos imagen) de la jefa de la casa y hacen creer a los familiares y/o auxiliares del hogar que algo ha sucedido y deben entregar dinero y bienes a las personas que les muestran la “videollamada”. Esto lo podemos extrapolar a las grandes esferas empresariales, en Hong Kong un empleado transfirió millones de dólares a diferentes cuentas después de que fuera engañado por una falsa videollamada grupal.

De igual forma la IA generativa se está volviendo popular para realizar de manera “más eficiente y rápida” la generación de enlaces o publicidad phishing masiva.

Es por eso que la ciberseguridad y la gestión de la IA está tomando un importante lugar en la agenda de los gobiernos; recordemos varios portales gubernamentales de diferentes países han sido atacados y vandalizados con mayor regularidad los últimos 2 años, y apenas hace unas horas se reportó un nuevo hackeo a sitio de la SEDENA y Portal de empleo (México).

Las leyes de gestión no coartan nuestra libertad de uso y creatividad con la IA y demás herramientas digitales, simplemente las colocan en ese preciso lugar de herramientas que pueden llegar a ser dispositivos de riesgo si no se gestiona su correcto uso en los intersistemas donde estén implementados. El mal uso y delinquir a través de la IA es sin duda por la más pura intervención humana.

En conclusión, la regulación de la Inteligencia Artificial en la Unión Europea es un paso crucial para equilibrar la innovación tecnológica de la mano de protección del bienestar humanos y la seguridad. Esta ley no pretende limitar la creatividad o el avance tecnológico, sino asegurar que el uso de la IA sea ético y seguro. A medida que la IA se integra más profundamente en nuestras vidas, es fundamental contar con un marco de uso legislativo que prevenga abusos y fraudes y promueva el uso responsable la IA, para que no olvidemos lo que es: una herramienta cuyo uso y fin depende de nosotros.

Inicia sesión para ver o añadir un comentario.

Otros usuarios han visto

Ver temas