Max Tegmark presidente del Future of Life Institute e inteligencia artificial general: "Existe riesgo de crear tecnología que no podamos controlar"
“Utilice la IA de manera responsable para resolver problemas del mundo real o correrá el riesgo de crear una tecnología que no podamos controlar”.
Así lo destacó el investigador Max Tegmark, académico del Massachusetts Institute of Technology y presidente del Future of Life Institute, hablando ante los asistentes a la Web Summit de Lisboa, Portugal
«Soy optimista y voy a argumentar que podemos crear un futuro increíblemente inspirador con herramientas de inteligencia artificial siempre y cuando no construyamos una IAG, que es innecesaria, indeseable y prevenible», dijo Tegmark.
Según agregó en su diálogo, Tegmark se pronunció en contra del desarrollo de la inteligencia artificial general (IA más inteligente que la humana, capaz de realizar prácticamente todas las tareas) y, en cambio, abogó por el uso responsable de la «IA como herramienta» para lograr beneficios sociales.
Cabe recordar que Tegmark fue seleccionado como una de las 100 personas más influyentes en inteligencia artificial en 2023 por la revista TIME. Describió la inteligencia artificial como una tecnología poderosa para abordar problemas específicos como curar enfermedades, mejorar la seguridad y abordar el cambio climático, e incluso ayudar con los Objetivos de Desarrollo Sostenible de las Naciones Unidas. Por el contrario, la IA general (IA más inteligente que los humanos) podría volverse incontrolable, autorreplicarse y evolucionar hacia una «especie digital» que desplace a la humanidad.
ENFERMEDADES Y PROBLEMAS
Los críticos pueden argumentar que es imposible separar la IA beneficiosa de la IA dañina, pero Tegmark no está de acuerdo. “Yo voy a argumentar que sí, que podemos”, dijo y pidió a la multitud asistente a su exposición en la Web Summit que levantara la mano si querían que la IA ayudara a curar enfermedades y resolver problemas. “Son muchas manos”, observó y preguntó si alguien quería una IA que hiciera que la humanidad quedara obsoleta económicamente y nos reemplazara. “No veo ni una sola mano”, dijo entonces.
En opinión de Tegmark, existen los peligros de una IAG (Inteligencia Artificial General) no regulada con los de una biotecnología no regulada, como la clonación humana o la ingeniería genética riesgosa. Los estándares de seguridad en biotecnología han permitido avances que han salvado vidas al tiempo que minimizan los riesgos, y dijo que la IA necesita salvaguardas similares.
Dijo Tegmark: “Imaginemos que alguien afirmara que la biotecnología debe permanecer completamente desregulada, permitiendo prácticas peligrosas como la clonación humana, o que la sociedad perdería el acceso a innovaciones que salvan vidas, como las vacunas. Usted diría que esto es una tontería porque sabe que si tenemos estándares de seguridad legalmente obligatorios, entonces las empresas innovarán y los cumplirán y le darán medicamentos seguros. De la misma manera, si alguien le dice: ‘Oye, necesitamos tener una IAG completamente desregulada, de lo contrario no puede tener ninguna de las emocionantes herramientas de IA que tanto le entusiasman aquí en Web Summit’, también diría que eso es una tontería”.
“Tenemos que dejar de confiar en que la IA general sea algo a largo plazo, o podríamos ser acusados de ser dinosaurios estancados en 2021”, dijo Tegmark, quien explicó: “¿Cree que la IA general todavía está a décadas de distancia? Piénselo de nuevo. Está la rapidez con la que han avanzado las capacidades de IA, derrumbando las predicciones anteriores sobre los plazos de la IA general. En 2024, los robots no solo bailan, sino que también doblan la ropa, y hace solo seis años, la mayoría de los expertos en IA creían que dominar el lenguaje y el conocimiento, como lo demuestran herramientas como ChatGPT-4, estaba a décadas de distancia”.
MAQUINA Y HUMANIDAD
“Podría decirse que ya pasamos la prueba de Turing” -dijo Tegmark refiriéndose a una comprobación de si una máquina puede mantener una conversación con tanta naturalidad que no se puede decir que no es humana.
Los optimistas pueden afirmar que la IAG es controlable, pero Tegmark dijo que no hay evidencia que respalde esto. “Una vez que estas inteligencias artificiales se vuelvan más inteligentes que nosotros, tomarán el control, nos harán irrelevantes”, dijo.
Tegmark destacó cómo una pequeña minoría apoya el desarrollo de la IAG, incluso si corre el riesgo de reemplazar a la humanidad. Hizo referencia a Richard Sutton, un profesor y científico informático canadiense, que ve el tema como el siguiente paso en la evolución, y al inversor Marc Andreessen, famoso creador del navegador de internet Netscape, quien tuiteó que la IAG es “gloriosamente inherentemente incontrolable”.
Argumentando que que la IA debería ser regulada como otras tecnologías prohibidas, como la clonación humana y las armas biológicas, Tegmark destacó: “Voy a luchar por el derecho de mi hijo de un año a tener un futuro significativo incluso si algún tipo de eugenesia digital siente que sus robots son de alguna manera más dignos”.
Tegmark calificó la carrera por desarrollar la IAG como una «guerra del opio», impulsada por la falsa esperanza de que se puede controlar. «No hay incentivo para que ningún gobierno, incluido el gobierno chino, juegue a este juego y construya una IAG que les quite todo su poder a medida que pierden el control sobre ella», dijo el referido presidente del Future of Life Institute.
En opinión de Tegmark, Estados Unidos y China deberían crear estándares de seguridad exigibles para la IA, similares a los de otras industrias importantes. Una vez que estos estén en vigor a nivel nacional, instó a las dos naciones a liderar un esfuerzo global para detener el desarrollo de la IAG en áreas no reguladas como Corea del Norte.
En su visión técnica, los humanos definirían las especificaciones para una IA de herramientas, y una IA poderosa, pero no confiable, crearía la herramienta, escribiría su código y produciría una prueba de que cumple con los requisitos. «No es necesario que entiendas nada de eso porque, al igual que es mucho más difícil encontrar una aguja en un pajar que verificar que es una aguja después de haberla encontrado, es mucho más difícil encontrar una prueba que verificar la prueba después de haberla encontrado», dijo Tegmark.
Este enfoque, según dijo, podría conducir a un futuro floreciente impulsado por la IA de herramientas, siempre que la humanidad evite la arrogancia de desarrollar la IAG.
En éste sentido, Tegmark se basó en una lección de la antigua Grecia: “No se dejen llevar por la arrogancia como Ícaro. La IA nos está dando a los humanos unas alas intelectuales increíbles con las que podemos hacer cosas que van más allá de los sueños más descabellados de nuestros antepasados, siempre y cuando no las desperdiciemos en absoluto tratando obsesivamente de volar hacia el sol y construir una IA artificial”.
INDICACIONES
En su libro “Vida 3.0”, Tegmark expone una serie de indicaciones:
Recomendado por LinkedIn
• Si algún día logramos construir una IA artificial a nivel humano, esto puede desencadenar una explosión de inteligencia que nos deje muy atrás.
• Si un grupo de humanos logra controlar una explosión de inteligencia, puede ser capaz de apoderarse del mundo en cuestión de años.
• Si los humanos no logran controlar una explosión de inteligencia, la propia IA puede apoderarse del mundo aún más rápido.
• Mientras que una explosión rápida de inteligencia probablemente conduzca a una única potencia mundial, una explosión lenta que se prolongue durante años o décadas puede tener más probabilidades de conducir a un escenario multipolar con un equilibrio de poder entre una gran cantidad de entidades bastante independientes.
• La historia de la vida muestra que se autoorganiza en una jerarquía cada vez más compleja moldeada por la colaboración, la competencia y el control. Es probable que la superinteligencia permita la coordinación en escalas cósmicas cada vez mayores, pero no está claro si finalmente conducirá a un control más totalitario de arriba hacia abajo o a un mayor empoderamiento individual.
• Los cíborgs son plausibles, pero posiblemente no sean la ruta más rápida hacia la inteligencia artificial avanzada.
• Tenemos que empezar a pensar seriamente en qué resultado preferimos y cómo avanzar en esa dirección, porque si no sabemos lo que queremos, es poco probable que lo consigamos.
CONOZCA MAS:
——— o0o ———