No importa los robots asesinos: aquí hay seis peligros reales de la IA a los que hay que tener cuidado en 2019
El año pasado, una serie de controversias reveló un lado más oscuro (y más tonto) de la inteligencia artificial.
- por Will Knight y Karen Hao 7 de enero de 2019
que estaba de moda preocuparse por la posibilidad de que las máquinas súper inteligentes se apoderen del mundo. El año pasado demostró que la IA puede causar todo tipo de peligros mucho antes de que eso suceda.
Los últimos métodos de inteligencia artificial sobresalen en tareas perceptivas como la clasificación de imágenes y la transcripción del habla, pero la exageración y el entusiasmo por estas habilidades han disimulado lo lejos que estamos de construir máquinas tan inteligentes como nosotros . Seis controversias a partir de 2018 se destacan como advertencias de que incluso los algoritmos de inteligencia artificial más inteligentes pueden comportarse mal, o que su aplicación descuidada puede tener consecuencias graves.
1. AUTOS QUE CHOCAN
Después de un accidente fatal que involucró a uno de los autos que conducía Uber en marzo, los investigadores descubrieron que la tecnología de la compañía había fallado catastróficamente, de una manera que podría haberse evitado fácilmente.
Los fabricantes de automóviles como Ford y General Motors, los recién llegados como Uber y una horda de nuevas empresas se apresuran a comercializar una tecnología que, a pesar de su inmadurez, ya ha visto miles de millones de dólares en inversiones. Waymo, una subsidiaria de Alphabet, ha hecho el mayor progreso; se puso en marcha el primer servicio de taxi totalmente autónoma en Arizona el año pasado. Pero incluso la tecnología de Waymo es limitada , y los autos autónomos no pueden conducir en todas partes y en todas las condiciones.
Qué ver en 2019: los reguladores en los EE. UU. Y en otros lugares hasta ahora han adoptado un enfoque de no intervención por temor a sofocar la innovación. La Administración Nacional de Seguridad del Tráfico en las Carreteras de EE. UU. Incluso ha señalado que las reglas de seguridad existentes pueden estar relajadas . Pero los peatones y los conductores humanos no se han registrado para ser conejillos de indias. Otro accidente grave en 2019 podría cambiar las actitudes de los reguladores.
2. BOTS DE MANIPULACIÓN POLÍTICA.
En marzo, se supo que Cambridge Analytica, una empresa de consultoría política, había explotado las prácticas de intercambio de datos de Facebook para influir en las elecciones presidenciales de 2016 en Estados Unidos . El alboroto resultante mostró cómo los algoritmos que deciden qué noticias e información aparecerán en las redes sociales se pueden utilizar para amplificar la información errónea, socavar el debate saludable y aislar a los ciudadanos con diferentes puntos de vista.
Durante una audiencia en el Congreso, el CEO de Facebook, Mark Zuckerberg, prometió que la IA podría ser entrenada para detectar y bloquear contenido malicioso , aunque aún está lejos de poder entenderel significado del texto, las imágenes o el video.
Qué ver en 2019: la promesa de Zuckerberg se pondrá a prueba en las elecciones celebradas en dos de los países más grandes de África: Sudáfrica y Nigeria . El largo período previo a la elección de los Estados Unidos en 2020 también ha comenzado, y podría inspirar nuevos tipos de tecnología de información errónea impulsada por AI, incluidos los chatbots maliciosos .
3. ALGORITMOS PARA LA PAZ.
El año pasado, un movimiento de paz de AI tomó forma cuando los empleados de Google se enteraron de que su empleador estaba suministrando tecnología a la Fuerza Aérea de los EE. UU. Para clasificar las imágenes de aviones no tripulados. Los trabajadores temían que esto pudiera ser un paso decisivo hacia el suministro de tecnología para automatizar los ataques letales de aviones no tripulados. En respuesta, la compañía abandonó el Proyecto Maven , como se llamaba, y creó un código de ética de AI .
Los académicos y los pesos pesados de la industria han respaldado una campaña para prohibir el uso de armas autónomas. Sin embargo, el uso militar de la IA solo está ganando impulso, y otras compañías, como Microsoft y Amazon , no han mostrado reservas en cuanto a ayudar.
A qué se debe prestar atención en 2019: aunque el gasto del Pentágono en proyectos de inteligencia artificial está aumentando, los activistas esperan que surja un tratado preventivo que prohíba las armas autónomas de una serie de reuniones de la ONU programadas para este año.
4. UN ENFRENTAMIENTO DE VIGILANCIA.
La capacidad sobrehumana de AI para identificar rostros ha llevado a los países a implementar tecnología de vigilancia a un ritmo notable. El reconocimiento facial también le permite desbloquear su teléfono y etiquetar sus fotos automáticamente en las redes sociales.
Grupos de libertades civiles advierten de un futuro distópico . La tecnología es una forma formidable de invadir la privacidad de las personas, y los sesgos en los datos de capacitación hacen que sea posible automatizar la discriminación.
En muchos países , especialmente en China, el reconocimiento de caras se está utilizando ampliamente para la vigilancia policial y gubernamental . Amazon está vendiendo la tecnología a las agencias de inmigración y cumplimiento de la ley de EE. UU.
A qué se debe prestar atención en 2019: el reconocimiento facial se extenderá a los vehículos y cámaras web , y se utilizará para rastrear sus emociones y su identidad . Pero también podemos ver alguna regulación preliminar de este año.
5. FALSEA HASTA QUE LO ROMPAS.
Una proliferación de videos " deepfake" el año pasado demostró lo fácil que se está convirtiendo en hacer clips falsos utilizando AI. Esto significa pornografía falsa de celebridades, muchos mashups de películas raras y, potencialmente, campañas de desprestigio político .
Las redes de confrontación generativa (GAN), que involucran dos redes neuronales en duelo, pueden conjugar imágenes y videos extraordinariamente realistas pero completamente inventados. Nvidia mostró recientemente cómo las GAN pueden generar caras fotorrealistas de cualquier raza, género y edad que desee.
Qué ver en 2019: a medida que mejoren las fallas, la gente probablemente comenzará a ser engañada este año. DARPA probará nuevos métodos para detectar fallas profundas . Pero como esto también se basa en la inteligencia artificial, será un juego del gato y el ratón.
6. DISCRIMINACIÓN ALGORÍTMICA.
El sesgo fue descubierto en numerosas herramientas comerciales el año pasado. Los algoritmos de visión entrenados en conjuntos de datos nobalanceados no reconocieron a las mujeres o personas de color; Se comprobó que la contratación de programas alimentados con datos históricos perpetuaba la discriminación que ya existe .
Relacionado con la cuestión del sesgo, y más difícil de solucionar, está la falta de diversidad en todo el campo de la IA. Las mujeres ocupan, como máximo, el 30% de los empleos de la industria y menos del 25% de los roles docentes en las mejores universidades. Hay comparativamente pocos investigadores negros y latinos también.
Qué esperar en 2019: veremos métodos para detectar y mitigar bia s y algoritmos que pueden producir resultados imparciales a partir de datos sesgados . La Conferencia Internacional sobre Aprendizaje Automático, una importante conferencia de AI, se llevará a cabo en Etiopía en 2020 porque los científicos africanos que investigan problemas de sesgo podrían tener problemas para obtener visas para viajar a otras regiones. Otros eventos también podrían moverse.
FUENTE: technologyreview