Innovación con responsabilidad: los retos de la IA en la prevención de prácticas corruptas y fraudulentas.
La batalla contra la corrupción y el fraude está entrando en una nueva fase gracias a los avances en la inteligencia artificial. Con la capacidad de analizar grandes volúmenes de datos e identificar patrones complejos, estas herramientas ofrecen nuevas oportunidades para abordar un problema arraigado en la sociedad..
Sin embargo, aunque la IA ofrece grandes ventajas en la lucha contra estas prácticas, no podemos pasar por alto los desafíos que enfrenta. Aquí te comparto 3 de los desafíos más frecuentes que he observado en la aplicación de estas herramientas:
A. Sesgos
Los algoritmos se alimentan de datos, y si estos datos contienen sesgos o estos datos no son representativos, las conclusiones derivadas podrían ser erróneas o injustas. Si las características seleccionadas para entrenar el modelo no representan adecuadamente la complejidad y diversidad del problema, esto puede llevar a que el modelo pase por alto ciertos tipos de comportamiento corrupto o que sobregeneralice ciertas características como indicadores de corrupción.
Un ejemplo es el caso de la Agencia del Seguro de Desempleo de Michigan (UIA) y el programa MiDAS para detectar fraudes en seguros de desempleo. Aunque la implementación de esta herramienta resultó en un aumento significativo en el número de personas identificadas como sospechosas de fraude y generó ahorros cercanos a los 70 millones de dólares para la agencia, lamentablemente, la tasa de error del sistema era de aproximadamente el 90%. Esto debido a que MiDAS tenía sesgos heredados respecto a determinadas conductas que al final resultaban ser no constitutivas de fraude.
B. Privacidad y protección de datos.
Recomendado por LinkedIn
La inteligencia artificial requiere el acceso a grandes volúmenes de datos para su correcto funcionamiento. Sin embargo, la gestión de estos datos plantea serias preocupaciones en relación con la privacidad y la protección. El uso indebido o la exposición involuntaria de éstos pueden tener graves consecuencias. Para ello, es necesario verificar que las herramientas de IA se adecuen a la regulación aplicable a la recolección, tratamiento y protección de datos personales en cada región o país.
Por ejemplo, con la entrada en vigor de la General Data Protection Regulation (GDPR) en la Unión Europea muchas empresas tecnológicas del ramo se vieron en la necesidad de revisar y ajustar sus políticas privacidad y protección de datos para no infringir las nuevas directrices al momento de procesar información potencialmente sensible.
C. Transparencia
Una "caja negra" es una descripción que se aplica a algunos sistemas de deep learning que toman un input y proporcionan un output, pero los cálculos y las razones que se producen en el intermedio no son del todo claros. Los sistemas de IA de caja negra toman decisiones de forma experimental o intuitiva, sin la capacidad de exponer razones de fondo. Esto es problemático no solo por la falta de transparencia, sino también por los posibles sesgos heredados por los algoritmos que pueden llevar a decisiones injustas o erróneas.
Un ejemplo ilustrativo es el caso de Checkr, una empresa que utiliza IA en sus servicios de verificación de antecedentes. Sin embargo, esta compañía ha enfrentado una serie de demandas debido a errores significativos que han tenido graves consecuencias para individuos en busca de empleo. Por ejemplo, un hombre que aspiraba a trabajar como conductor para Uber fue rechazado debido a una incorrecta asociación con una condena por asesinato, la cual en realidad correspondía a otra persona con un nombre similar. Este caso, lamentablemente, no es único; hay cientos de reclamos similares en contra de la empresa.
En resumen, mientras la IA promete ser una poderosa aliada en el combate a las prácticas corruptas y fraudulentas, es fundamental ejercer precaución y estar conscientes de las limitaciones actuales de estas herramientas. Por otra parte, aunque están en proceso de perfeccionamiento, el ritmo acelerado de avance tecnológico nos insta a continuar explorando nuevas formas de integrar la IA de manera ética y efectiva en estas tareas. Mantenernos alerta, colaborar en su desarrollo responsable y fomentar la transparencia son pasos clave para asegurar que la IA se convierta en una herramienta eficaz en la búsqueda de una sociedad más justa y transparente.
Senior Manager, S-LATAM Corporate Intelligence Services at Deloitte
6 mesesBravo!