¿Qué desafíos nos depara la IA en los siguientes 5 años?

¿Qué desafíos nos depara la IA en los siguientes 5 años?


¿Qué desafíos nos depara la IA en los siguientes 5 años?

 

Por: Alejandro Canedo Vélez* Consultor en comunicación estratégica y nuevas tecnologías.

La inteligencia artificial generativa (IAG) ha surgido como un boom de innovación y faro hacia el progreso de la humanidad, prometiendo transformaciones revolucionarias en múltiples sectores, por no decir en todos. Sin embargo, a medida que avanzamos hacia una donde el algoritmo será el dios de los contenido (incluyendo deepfakes y desinformación masiva), es muy posible que pronto las IA comiencen a tomar decisiones, a aprender de maneras cada vez más complejas y eventualmente tener experiencias en la realidad física. No es una locura creer que podríamos estar caminando hacia una “dictadura del algoritmo”

¿Cuáles son los límites de la tecnología, hasta dónde la IA impactará a la sociedad, la economía y la cultura?

 

La Expansión de la IA Generativa

El estado actual y las tendencias futuras de la IA sugieren que experimentaremos una integración cada vez más profunda de esta tecnología en la vida cotidiana, los procesos empresariales, el sistema educativo y la medicina, entre otros. Desde la mejora en el procesamiento del lenguaje natural (NLP) que, al permitir una comunicación más fluida entre humanos y máquinas, está transformando los paradigmas de interacción humano computadora, hasta la adopción de sistemas de inteligencia artificial en la ciberseguridad o los recientes logros de interfases cerebro-computadora como Neuralink de Tesla, la IA está redefiniendo las fronteras del posible y lanzándonos incluso más allá de la ciencia ficción.

Mirando hacia el siguiente lustro, se anticipa que innovaciones como el edge computing y las aplicaciones de IA en el diseño creativo, los agentes IA, la ultra-personalización de la educación, los robots humanoides y largo etcétera de cosas que, para los que nacimos en el Siglo XX se acercan más a la magia y la fantasía que a cualesquiera cosas que hayamos podido prever. Sin duda la tecnología nos llevará a nuevos horizontes a una velocidad jamás experimentada por la especie humana y, si todo sale bien, podremos gozar de una era de creatividad y eficiencia sin precedentes.

La IA Generativa es apenas la punta de un iceberg cuyas profundidades, al menos por ahora, escapan a nuestra comprensión, ya que más allá de estos primeros pasos, los que podríamos considerar los ‘pininos’ de la IA, eventualmente alcanzaremos la Inteligencia Artificial General, una IA capaz de tener una “experiencia de vida” en la realidad física, aunque los expertos mencionan que esto no podrá suceder antes de 2030

 

Sectores en la Encrucijada

Podríamos mencionar a muchos como los sectores más susceptibles a ser transformados por la IA —y posiblemente desafiados— los que incluyen la creatividad, el diseño, la educación, la salud, la programación y el comercio. En cada uno de estos sectores la IA tiene el potencial de colaborar con humanos para crear obras únicas y obtener resultados hasta ahora impensados en tiempo literalmente inhumanos. La ciberseguridad es otro campo crucial, ya que la complejidad y omnipresencia de la IA exigirá sin duda soluciones innovadoras para proteger datos y privacidad. Hay que aceptarlo: en este punto las IA son más inteligentes que los humanos en una multitud de aspectos. Además, la medicina, el diagnóstico médico, y la atención al cliente son áreas donde la IA generativa ofrecerá sin duda mejoras significativas en eficiencia y personalización, pero también planteará algunas preguntas sobre la privacidad de los datos y la ética de las decisiones automatizadas.

Pero, creo yo, que de todos los sectores afectados es la educación la que sufrirá el mayor impacto. Aclaro que utilizo la palabra “sufrirá” con plena conciencia pues, a diferencia de la medicina, por ejemplo, donde la IA es sin duda un gran aliado desde antes que se popularice, el sector de la educación queda en una situación de obsolescencia insalvable. Esto quiere decir que, a diferencia de áreas como la salud en la que la IA está y continuará contribuyendo grandemente, la educación deberá enfrentar un cambio radicar de paradigmas justo en el núcleo de su esencia: el rol de maestro y el acceso a la información. ¿Cómo o en qué tiene que educar un profesor humano en un mundo donde toda la información es pública y los tutores de IA personalizados están disponibles 24/7 y además cuentan con toda la información del mundo?

 

Desafíos Éticos Significativos

1. Privacidad y Seguridad de los Datos: A medida que la IA se integra más en nuestros sistemas y servicios, la recopilación y análisis de datos masivos plantea preocupaciones sobre la privacidad de los individuos y la seguridad de sus informaciones personales. En tanto la IA se vaya integrando en nuestras vidas y actividades, el acceso que tendrán sobre nuestra información personal pasará a ser secundaria en comparación a todo lo que la IA sabrá de lo que hacemos cada minuto, sobre cómo interactuamos y, lo más importante, lo que deseamos.

No cabe dudas de que la privacidad y seguridad será unos de los más grandes desafíos a los que nos enfrentará la IA pues, al final de cuentas, tendremos que decidir entre entregar los datos casi sin excepción para disfrutar de los servicios de la IA o, directamente, renunciar a la tecnología lo que, dadas las circunstancias, equivaldrá sin duda a una especia de muerte civil.

 

2. Sesgo y Discriminación: Los algoritmos de IA generativa, entrenados con datos del mundo real, pueden perpetuar e incluso amplificar sesgos existentes, lo que lleva a resultados discriminatorios en contratación, justicia penal y acceso a servicios.

Citemos un ejemplo extremo que, valga la aclaración, será meramente ilustrativo. Supongamos que un modelo de lenguaje es entrenado para reconocer rostros humanos. Para este fin se le proporciona una base de datos de entrenamiento que contiene 10.000 rostros de personas pero, en un acto de descuido y omisión, los “entrenadores” no se percatan que entre los 10.000 rostros proporcionados en la base de datos de entrenamiento, el 99% corresponde a personas caucásicas. Ahora pregúntate: ¿qué pasará cuando a la IA se le muestre la fotografía de una persona latina o africana? Eso es lo que se conoce como “bias” o sesgo en la inteligencia artificial.

 

3. Autenticidad y Propiedad Intelectual: ¿Te has preguntado cómo se han entrenado a las IA, con qué información? Pues la a capacidad de la IA para generar contenido realista depende directamente de los data sets (bases de dato) con las que se las ha entrenado; a saber: todo el contenido de internet entre 1990 y noviembre de 2021 y otros. Esto plantea preguntas sobre la autenticidad, la autoría y los derechos de propiedad intelectual de caa pieza de texto, imagen o video que genera la inteligencia artificial ya que tratándose de un software y no de un cerebro humano, esto desafía nuestras concepciones tradicionales de creatividad y originalidad. Para resumir: ¿A quién pertenece lo que genera la IA; a la empresa que la entrenó, al algoritmo, ¿a la IA misma o a quien escribió el prompt?

4. Políticas públicas y la responsabilidad Estatal

Las políticas públicas y las estrategias nacionales no son meros marcos regulatorios para la IA; son los catalizadores que podrían definir la trayectoria del desarrollo de la IA y su integración en la sociedad. El enfoque que un país adopta en relación con la IA puede amplificar sus beneficios o mitigar sus riesgos, y a menudo es un reflejo de sus valores culturales, sus prioridades económicas y su visión de futuro. La ausencia de estas acciones determinará sin duda la supervivencia o extinción de patrimonios históricos y culturales de los pueblos.

Por ejemplo, algunas naciones pueden optar por promover un enfoque de "innovación a toda costa", buscando capturar los beneficios económicos de estar a la vanguardia de la tecnología de IA. Estas estrategias suelen enfocarse en fomentar la inversión en investigación y desarrollo, ofrecer incentivos fiscales a las startups de IA y simplificar las regulaciones para acelerar la comercialización de nuevas tecnologías. Otras podrían participar en la confección de datasets para complementar el entrenamiento de las IA con saberes culturales patrimoniales de culturas y grupos minoritarios, con el fin de resguardarlas.

 

En contraste, otros países pueden tomar una postura más cautelosa, poniendo el énfasis en la protección de los derechos de los ciudadanos y la ética de la IA. Esto podría traducirse en políticas que promuevan la transparencia, la equidad y la rendición de cuentas, como leyes de protección de datos personales más estrictas, requerimientos para la auditoría de algoritmos y la promoción de estándares internacionales para las prácticas de IA, así como restricciones y sanciones que comprometerían su desarrollo.

 

5. La educación, un pilar indeleble

Un aspecto distintivo es el papel de las estrategias nacionales en la educación. Al reconstruir los currículos para incluir la alfabetización en IA y el pensamiento computacional desde edades tempranas, los países pueden preparar a las generaciones futuras no solo para utilizar la IA, sino para entenderla y cuestionarla críticamente.

Además, en el escenario internacional, las alianzas y la diplomacia en torno a la IA son cada vez más prominentes. Los países buscan establecer normas y estándares internacionales, sabiendo que la IA no conoce fronteras y que sus implicaciones éticas y de seguridad requieren cooperación más allá de los límites nacionales.

Finalmente, la estrategia de IA de un país puede influir significativamente en su posición geopolítica. Las naciones que se posicionan como líderes en IA podrían no solo cosechar beneficios económicos, sino también aumentar su influencia global y su poder blando.

6. Transparencia y Responsabilidad: La llamada "caja negra" de la toma de decisiones de la IA puede dificultar la comprensión de cómo se llega a ciertas conclusiones o creaciones, planteando desafíos para la rendición de cuentas y la transparencia, aspectos esenciales e inexcusables para el funcionamiento y desarrollo seguro de la inteligencia artificial.

La transparencia y la responsabilidad, por lo tanto, son aspectos cruciales en el desarrollo y la implementación de sistemas de IA. A continuación, una explicación detallada:

Transparencia: La transparencia en la IA se refiere a la claridad con la que se pueden entender los procesos y decisiones tomados por un sistema de IA. Esto es importante porque permite a los usuarios y a los afectados por las decisiones de la IA comprender cómo se generan estas decisiones. La falta de transparencia, a menudo denominada “caja negra”, significa que los procesos internos de un sistema de IA son opacos y no se pueden examinar fácilmente, lo que compromete la auditoría.

Responsabilidad: La responsabilidad implica que se puede (o debería poder) atribuir y exigir responsabilidades por las acciones y decisiones de un sistema de IA. Esto es esencial para establecer confianza y para asegurar que se puedan tomar medidas correctivas en caso de errores o problemas. Sin responsabilidad, sería difícil determinar quién es responsable de los resultados de la IA, especialmente si estos resultados tienen consecuencias negativas, como efectivamente ya ha sucedido y aún seguirá pasando.

Para que la responsabilidad se haga efectiva, es menester que los desarrolladores de la IA se enmarquen en preceptos éticos los que, por lo pronto, aún no están regulados o están parcialmente regulados a nivel regional. Esto, aunque es bueno no lo es del todo, ya que la implicancia enorme de la IA en toda la humanidad y en casi todas las actividades humanas, cualquier decisión que se tome a este respecto debería ser considerado de alcance universal.

Desafíos de la “Caja Negra”: Los sistemas de IA, especialmente aquellos basados en aprendizaje profundo, pueden ser extremadamente complejos, con millones de parámetros y decisiones no lineales. Esto hace que sea difícil para los humanos rastrear cómo la IA llega a una conclusión específica. Esta complejidad, residida en las llamadas “capas ocultas” plantea desafíos significativos para la transparencia y la responsabilidad, porque:

  1. Comprensión Humana: Los procesos complejos pueden ser incomprensibles para los humanos, lo que dificulta la explicación de las decisiones de la IA.
  2. Rendición de Cuentas: Si no se entiende cómo funciona la IA, puede ser complicado responsabilizar a alguien cuando las cosas van mal.
  3. Confianza del Usuario: La falta de transparencia puede erosionar la confianza del usuario en la IA, ya que no pueden verificar ni entender cómo se toman las decisiones.

Soluciones Potenciales: Para abordar estos desafíos, se están desarrollando técnicas como la IA explicable (XAI), que busca hacer que los sistemas de IA sean más interpretables y sus decisiones más fáciles de explicar. Además, se están estableciendo marcos legales y éticos para garantizar que los desarrolladores y usuarios de sistemas de IA sean conscientes de sus responsabilidades y estén preparados para actuar de manera ética y legalmente responsable.

Las soluciones potenciales que actualmente se plantean son las siguientes:

  • Inteligencia Artificial Ética: Desarrollo de sistemas de IA alineados con principios éticos como la equidad, la no discriminación, la privacidad y la transparencia desde las etapas iniciales de diseño.
  • IA Explicable (XAI): Técnicas que permiten comprender mejor los procesos internos de los sistemas de IA y cómo se toman las decisiones, aumentando la transparencia.
  • Marcos Legales y Regulatorios: Establecimiento de leyes y regulaciones claras sobre privacidad de datos, responsabilidad, derechos de propiedad intelectual, etc.
  • Gobernanza de IA: Creación de organismos y comités independientes que supervisen y auditen el desarrollo y uso de la IA generativa bajo criterios éticos.
  • Colaboración Multidisciplinaria: Diálogo constante entre expertos en IA, científicos, filósofos, legisladores y ciudadanos para definir lineamientos éticos.
  • Educación y Concientización: Programas para formar a desarrolladores, usuarios y público en general sobre riesgos e implicaciones éticas de la IA.

Si bien estas aproximaciones no resuelven todos los retos, representan pasos importantes hacia un futuro donde la IA coexista armónicamente con los valores humanos fundamentales.

 

En resumen, la transparencia y la responsabilidad son fundamentales para garantizar que la IA se desarrolle y utilice de manera que beneficie a la sociedad, minimizando los riesgos y maximizando la confianza y la comprensión.

7. Impacto Laboral y Social: La automatización impulsada por la IA generativa promete eficiencia y costos reducidos, pero también plantea el riesgo de desplazar amplias franjas de la fuerza laboral, exacerbando la desigualdad y el desempleo.

Sin embargo, es menester tener presente que no es la IA precisamente la que, eventualmente, podría dejarte sin trabajo, sino que serán las personas que sepan utilizarla y sacarle provecho antes que tú.

 

8. Conclusión

En conclusión, mientras navegamos por el futuro de la IA generativa, es imperativo que las consideraciones éticas guíen nuestro desarrollo y aplicación de esta tecnología. Los marcos regulatorios, las normas éticas y las políticas de gobernanza deberán evolucionar para abordar estos desafíos, asegurando que la IA generativa se desarrolle de manera que beneficie a la sociedad en su conjunto, respetando la dignidad y los derechos de todos los individuos. La colaboración entre desarrolladores, legisladores, académicos y la sociedad civil será clave para forjar un futuro donde la IA generativa pueda alcanzar su potencial transformador sin sacrificar nuestros valores éticos fundamentales.

La inteligencia artificial generativa representa un avance tecnológico sin precedentes que augura profundas transformaciones en prácticamente todos los ámbitos de la vida humana. Si bien promete enormes beneficios en eficiencia, creatividad y progreso, también plantea desafíos éticos significativos relacionados con la privacidad, la discriminación, la autenticidad, la transparencia, la responsabilidad y el impacto laboral y social. A medida que la IA se integre más en nuestras vidas, será crucial abordar estas preocupaciones de manera proactiva y colaborativa entre desarrolladores, legisladores, académicos y la sociedad civil. Sólo mediante un diálogo abierto, marcos regulatorios sólidos y un compromiso con los valores éticos fundamentales, podremos cosechar los frutos de esta revolución tecnológica sin comprometer nuestra dignidad y derechos individuales. Es un llamado a la reflexión colectiva para forjar un futuro donde la IA sea una herramienta al servicio del bienestar humano. ¿Estarán las corporaciones dispuestas a que así sea?

 

Inicia sesión para ver o añadir un comentario.

Otros usuarios han visto

Ver temas