5 Tendencias de la Inteligencia Artificial para el 2022 y mas allá.

5 Tendencias de la Inteligencia Artificial para el 2022 y mas allá.

En mi empresa todos conocen el poder que tiene la inteligencia artificial (IA) para moldear positivamente el futuro, tanto en los negocios como en el mundo en general. Mientras que muchas empresas son relativamente nuevas en la implementación de IA, yo he pasado años escudriñando prominentes casos de uso y manteniéndome al tanto de las últimas tendencias.

El entusiasmo por la IA no ha hecho más que crecer en el 2022, pero las tendencias que se mantienen son las que diferencian el entusiasmo infundado de la fría y dura realidad. En este artículo desmitificaé ese entusiasmo y palabras rimbombantes, para repasar lo que considero que son las cinco principales tendencias actuales de IA y el Machine Learning, y cómo predigo que afectarán a la ciencia de datos en los próximos años.

¿Cómo les fue a nuestras predicciones anteriores?

Tal y como expuse en mi manifiesto de ciencia de datos, la responsabilidad es una parte esencial del papel de un científico de datos. Sería negligente si no reconociera mis anteriores predicciones sobre IA para el año 2020 y más allá, para ver si se han hecho realidad.

  • Modelos que controlan a otros modelos: RapidMiner ayudó a cumplir esta profecía (shhh... si,eso es hacer trampa) al desarrollar nuestras propias capacidades de detección de sesgos, aunque la tecnología todavía tiene un camino que recorrer antes de que podamos confiar plenamente en los modelos para gestionar los sesgos (bias) por sí mismos. El espíritu de la predicción inicial, que consistía en un mayor énfasis en la detección de desajustes y sesgos en los modelos, ciertamente se ha cumplido. Cada vez más organizaciones se centran en establecer la equidad en IA. Salesforce, Airbnb y Fidelity han nombrado recientemente a Jefes de Ética para que se ocupen de los desajustes y sesgos en los modelos de inteligencia artificial y creen una ciencia de datos más ética.
  • Democratización del aprendizaje profundo automático (auto deep learning): Si bien se han hecho algunos progresos en el aumento de la accesibilidad del aprendizaje profundo a los "usuarios ciudadanos"("citizen users"), y los casos de uso del aprendizaje profundo (AP) están más ampliamente adoptados que hace dos años, hay muchos más métodos de AP que podrían utilizarse para resolver problemas complejos. La tecnología de visión por computador, por ejemplo, podría aprovecharse aún más para la visibilidad de la cadena de suministro, la detección de anomalías y la computación de borde "edge computing" (más sobre visión por computador más adelante).
  • Entrenamiento sin etiquetas (lables): El aprendizaje por transferencia es un tipo específico de aprendizaje automático en el que se reutiliza un modelo preentrenado como parte de un nuevo modelo de Machine Learning(ML) para lograr procesos de aprendizaje más rápidos y precisos. El aumento del uso del aprendizaje de transferencia, junto con las capacidades de crowdsourcing como el etiquetado crowdsourced de Appen, hizo que esta predicción fuera bastante acertada.
  • La rendición de cuentas (accountability) es la nueva precisión (accuracy) : El período de luna de miel para la ciencia de datos está ciertamente llegando a su fin, y aunque un mayor énfasis en ModelOps ha mejorado la supervisión de los modelos y la rendición de cuentas, todavía hay un importante cambio de cultura que debe producirse. El hecho de que la mayoría de los modelos sigan sin ponerse en producción me indica que seguimos sin lograr una verdadera rendición de cuentas en nuestro sector.
  • Ensamble 2.0: Características profundas (deep features) e IA explicable: Aunque las características profundas no se han hecho realidad de la forma que yo esperaba, la IA explicable, en particular los modelos comprensibles, se ha convertido en un tema de gran importancia. LIME y SHAP, dos explicadores populares, son capaces de abstraer la parte difícil de entender el aprendizaje profundo para hacer que los modelos de ML sean más fácilmente interpretables para los científicos de datos ciudadanos y los analistas de negocios.

No todas las predicciones que hicimos fueron un éxito, pero en general, vimos grandes avances hacia prácticas más éticas y responsables en la ciencia de datos. Ahora, vamos a centrar nuestra atención en mis predicciones de IA para los próximos años.

1. La evolución continua de la ciencia de datos automatizada

Las herramientas AutoML destinadas a hacer más accesible la creación de modelos a los no expertos se han convertido en omnipresentes, y el aumento de la IA como servicio sugiere que otros avances en la automatización e incremento en otras partes del ciclo de vida de desarrollo de la IA, pronto se convertirán también en soluciones de uso común.

Aunque AutoML puede ahorrar tiempo y energía y hacer que el análisis predictivo sea más accesible para los que no son científicos de datos, sus capacidades actuales no pueden sustituir a un verdadero científico de datos. Los científicos de datos hacen mucho más que construir modelos. Gestionan todo el ciclo de desarrollo de la IA.

Dicho esto, preveo que en el 2022 se producirán nuevos avances en la automatización de las tareas de la ciencia de datos y las "habilidades blandas" comúnmente olvidadas. Imagínense que un programa sea capaz de realizar un análisis de casos de uso y decirle qué problemas podrían resolver mejor sus datos, en cuestión de segundos. Otras áreas, como la detección de sesgos, la evaluación de riesgos y la recomendación de objetivos, también son espacios con muchas en oportunidades de innovación.

2. Bifurcación del mercado DSML

Los principales expertos y analistas, como Gartner, han informado de una bifurcación del mercado de Ciencia de Datos/Machine Learning (DSML por sus siglas en ingles) en dos segmentos: experto "de ingeniería" o "multipersona". Las plataformas de ingeniería de DSML están centradas en el código y tienen como objetivo la ingeniería de sistemas potenciados por el ML para la ciencia de los datos. Las plataformas multipersona, por el contrario, se centran en la democratización y en dar acceso y poder a las capacidades de la ciencia de datos a un público no técnico.

Una de las principales tendencias del aprendizaje automático que veo en los próximos años es que AWS establecerá un monopolio sobre el segmento de mercado de la ingeniería con mucho código: simplemente tienen demasiadas ventajas, demasiado impulso y demasiado valor que ofrecer a los desarrolladores. Mientras tanto, múltiples plataformas con diferentes puntos fuertes satisfacerán las necesidades de los equipos multipersona.

Las plataformas que dan prioridad a la capacitación de sus usuarios son esenciales para llegar a un público más amplio, permitiendo la colaboración entre personas y el trabajar más fácilmente en casos de uso de DSML específicos para cada linea de negocio.

3. Aceptación del bajo código (Low Code)

Los beneficios de negocio de los enfoques de bajo código son enormes, especialmente en la ciencia de datos. Un grupo diverso de desarrolladores ciudadanos puede construir sus propios modelos sin tener que meterse de lleno en el entrevero del código complejo. En esto consiste el concepto de "democratización".

Sin embargo, los beneficios de las soluciones de bajo código no sólo se aplican a los principiantes. Pasarse al código bajo permite a los desarrolladores experimentados centrarse en la codificación altamente personalizada para procesos de negocio complejos, al tiempo que los libera de la construcción de modelos y aplicaciones de bajo nivel. Ve este video para saber cómo los científicos de datos de Domino's están ampliando los modelos basados en R con la interfaz de bajo código de RapidMiner, para facilitar la previsión de la demanda de la cadena de suministro.

Puede parecer que estoy loco (¡me han llamado cosas peores!), pero preveo que los programadores se convertirán en los impulsores de la adopción de soluciones de bajo código. El uso de soluciones de bajo código significa que los proyectos de ciencia de datos están más impulsados por el jalar (por ejemplo: el usuario que quiere un proyecto) que por el empuje (la parte interesada que quiere que se haga algo). Adoptar el código bajo significa que los desarrolladores pueden construir modelos más rápidamente y delegar más tareas, dando a los codificadores la oportunidad de ser significativamente más productivos.

4. El auge de la IA medioambiental

Las iniciativas de sostenibilidad están aumentando en todas las industrias, sobre todo en sectores tradicionalmente poco respetuosos con el medio ambiente como la energía, el petróleo y el gas. Con un número cada vez mayor de organizaciones que se comprometen a "ser ecológicas", las empresas se ven obligadas a implantar tecnologías que les permitan reducir su huella medioambiental al tiempo que obtienen ingresos.

La IA ya se está utilizando para combatir retos medioambientales como la reducción del derroche de energía, la prevención de la deforestación futura, la lucha contra la contaminación marina y la creación de políticas de tratamiento de aguas seguras. Aunque preveo que la IA seguirá utilizándose para casos de uso sostenible, también espero que se preste atención a la reducción de la huella de carbono de la propia IA.

Los modelos de ML que aprenden de grandes cantidades de datos pueden ser más precisos, pero también tienen un impacto medioambiental mucho más negativo. Si bien el aumento del uso de métodos de aprendizaje por transferencia y la transición a la computación en la nube son medios para reducir la huella, existe la oportunidad de optimizar los algoritmos de ML no sólo para lograr tiempos de ejecución más rápidos o un menor uso de la memoria, sino también para reducir el consumo de energía. Además, la exploración de métodos alternativos para la refrigeración de los centros de datos, el uso de menos hardware físico y el compromiso de los proveedores de la nube de ser neutrales en cuanto a las emisiones de carbono son fundamentales para crear una IA realmente más ecológica.

5. La visión por ordenador se vuelve cada vez más pragmática

En mi revisión de las predicciones para 2020 mencioné que la visión por ordenador podría aplicarse a muchos más casos de uso, y veo que eso ocurrirá en 2022. La visión por ordenador se ha enfrentado a retos en el pasado cuando se ejecutaba en la nube, ya que limitaba mucho sus aplicaciones en el mundo real. Los tiempos de respuesta lentos, los elevados costes operativos y la falta de privacidad se ven agravados por los requisitos de hardware y la complejidad del escalado.

La computación de borde (edge computing) ha dado grandes pasos para hacer más accesible la visión por ordenador. AWS ya ha respondido a los deseos de los desarrolladores de implementar modelos de Vision por Computador (CV por sus siglas en inglés) en el borde con el lanzamiento de AWS Panorama. Las innovaciones similares y la simplificación de la visión informática democratizan los proyectos complejos de IA y los hacen más asequibles.

Preveo que otros proveedores responderán con sus propias soluciones, haciendo que la visión por ordenador sea más accesible para los proyectos que requieren procesamiento en tiempo real. Los fabricantes, por ejemplo, pueden implementar la CV para detectar defectos en los materiales, vigilar las entradas de los edificios para aumentar la seguridad y alertar al personal en tiempo real.

¿Tienex curiosidad por saber cómo hacer que estas tendencias de la IA funcionen para ti y tu organización? Consulta un estudio reciente que realizamos con Forrester sobre la desmitificación de los casos de uso de la ciencia de datos: Acelera tu transformación impulsada por los datos.


Traducido del artículo original 5 Artificial Intelligence Trends to Watch for in 2022 | RapidMiner por Ingo Mierswa

Inicia sesión para ver o añadir un comentario.

Otros usuarios han visto

Ver temas