Lo hacemos por tu bien, así verás lo que se te viene encima.
Estos últimos días se ha generado bastante ruido sobre la entrevista de Mira Murati, Chief Technology Officer de OpenAI, en su antigua universidad, Dartmouth Engineering. Puedes verla íntegra en Youtube.
En esta charla se ha comentado mucho sobre las referencias a cómo afectará la IA generativa a los trabajos creativos, especialmente una frase que se ha considerado despectiva donde dijo: “Algunos trabajos creativos tal vez desaparezcan, pero tal vez no deberían haber estado allí en primer lugar si el contenido que sale de él no es de muy alta calidad.” De estas declaraciones se ha dicho que destilan una falta de conocimiento del proceso creativo y una arrogancia al haber utilizado contenido de creadores para entrenar los modelos sin su permiso. En esta entrevista, con una de las últimas preguntas del público, Murati, tiró pelotas fuera sobre el origen de los datos de capacitación y la compensación que deberían haber recibido los propietarios de esos datos.
“Algunos trabajos creativos tal vez desaparezcan, pero tal vez no deberían haber estado allí en primer lugar si el contenido que sale de él no es de muy alta calidad.”
No es la primera vez que las declaraciones de Murati son polémicas. Personalmente, no dudo de sus capacidades para el puesto de CTO, pero sí me cuestiono si es la persona más adecuada para ser portavoz de una compañía como OpenAI.
Pero a mí, realmente, la parte de la conversación que me ha parecido más relevante es la que explica el modelo de trabajo que se ha implementado hasta el momento en OpenAI para el lanzamiento de sus productos, especialmente ChatGPT.
Declaró que se vieron, en cierta manera, obligados a lanzar ChatGPT al ver que las empresas que tenían acceso a la API de GPT-3 no le sacaban partido. Según su opinión, esa situación procedía de que en este campo los productos se crean de una forma poco habitual: “se parte de capacidades, se parte de una tecnología, no se parte de cuál es el problema en el mundo que estoy tratando de abordar.”
Para demostrar el potencial de sus modelos, se lanzó al público en general ChatGPT el 30 de noviembre de 2022. Según sus propias palabras: “Creo que quizás lo más importante que hizo ChatGPT fue llevar la IA al público. La conciencia le da a la gente un sentido intuitivo real de lo que la tecnología es capaz de hacer y también de sus riesgos.”
“Creo que quizás lo más importante que hizo ChatGPT fue llevar la IA al público. La conciencia le da a la gente un sentido intuitivo real de lo que la tecnología es capaz de hacer y también de sus riesgos.”
Estoy de acuerdo con esa afirmación, pero no tengo tan claro que ese sea el mejor camino para el desarrollo e implementación de tecnologías tan disruptivas como estas. En otro momento de la conversación, vuelve a referirse a un modelo en el que se implementa la tecnología de forma masiva en el entorno de trabajo. Viendo el impacto, se predice de qué manera afectará al entorno laboral y, estudiando el impacto, se buscan soluciones, aunque quizás pueda ser un poco tarde. Concretamente, declaró: “La verdad es que realmente no entendemos el impacto que la IA tendrá en los trabajos. El primer paso es ayudar a las personas a comprender de qué son capaces estos sistemas, qué pueden hacer, integrarlos en sus flujos de trabajo y luego comenzar a predecir y pronosticar el impacto. La gente no se da cuenta de cuánto ya se están utilizando estas herramientas y eso no se está estudiando en absoluto. Deberíamos estudiar lo que está pasando ahora mismo con la naturaleza del trabajo y la educación, y eso nos ayudará a prepararnos para estas mayores capacidades.”
Murati destacó la importancia de obtener retroalimentación de los usuarios para mejorar el alineamiento del sistema con lo que la gente desea. Por ejemplo, ChatGPT, utilizado por más de 100 millones de personas, recopila comentarios que ayudan a ajustar y mejorar el sistema. Pero, ¿realmente esos comentarios son representativos de lo que los usuarios desean de una herramienta de la que no conocen realmente su total potencial?
Los valores humanos integrados en productos como GPT y la forma en la que se incorporarán principios como equidad, honestidad e integridad en estas herramientas provienen de los datos utilizados para entrenarlos.
Otro momento revelador para mí en la conversación es cuando se habla de los valores con los que se entrenan los modelos. Mira Murati declara que los valores humanos integrados en productos como GPT y la forma en la que se incorporarán principios como equidad, honestidad e integridad en estas herramientas provienen de los datos utilizados para entrenarlos, que incluyen información de Internet, datos con licencia y contribuciones de contratistas humanos que etiquetan ciertos temas. ¿Realmente esas fuentes de datos garantizan que la herramienta sea ecuánime, honesta e íntegra? Tengo la sensación de que, de nuevo, la visión es tirar la piedra para ver dónde llega y, en cierta manera, esperar que terceros se encarguen de algunos aspectos relevantes.
De nuevo, esa idea se mantiene cuando indica que están trabajando en capas de personalización que permitirán que “una escuela, una iglesia, un país, incluso un estado, puedan proporcionar sus propios valores, más específicos y precisos además de este sistema predeterminado que tiene valores humanos básicos”.
Murati también mencionó el desarrollo del SPEC (System for Providing Enhanced Control), que busca proporcionar transparencia sobre los valores en el sistema y construir un mecanismo de retroalimentación para evolucionar estos valores con el tiempo. Describió esta iniciativa como una "constitución" para sistemas de IA, que evoluciona junto con nuestros valores cambiantes.
Pero parece ser que esta metodología de aprender haciendo o “learning by doing” se está revisando, teniendo en cuenta los riesgos que pueden generar modelos más avanzados. Ejemplos de ello son la retirada de funcionalidades de las soluciones de generación de imágenes de Gemini de Google. Una de las primeras víctimas de esta revisión previa al lanzamiento han sido las capacidades avanzadas del chat de voz de GPT-4, que por el momento ha visto retrasado su lanzamiento al detectarse problemas de seguridad y la queja de Scarlett Johansson que ha llevado a retirar una voz sintética que se parecía demasiado a la protagonista de la película “Her”.
Recomendado por LinkedIn
Declaró sobre los datos biométricos que el modelo de trabajo es más garantista: “En términos más amplios, con el tema de la biometría, nuestra estrategia es dar acceso a algunas personas inicialmente, expertos o miembros del equipo rojo que nos ayudan a comprender muy bien el riesgo y las capacidades, luego crear mitigaciones y dar acceso a más personas a medida que nos sentimos más seguros en torno a esas mitigaciones. No permitimos que las personas hagan sus propias voces con esta tecnología porque todavía estamos estudiando los riesgos y no estamos seguros de que podamos manejar el mal uso en esa área todavía.”
Por tanto, es fundamental reconocer los peligros inherentes al lanzamiento de productos de inteligencia artificial sin un exhaustivo análisis previo de los riesgos que pueden acarrear para los usuarios finales. La aproximación de "learning by doing" o "aprender haciendo" adoptada por empresas como OpenAI, si bien puede acelerar la innovación y la adopción de nuevas tecnologías, también puede generar consecuencias no deseadas y potencialmente dañinas. La IA generativa, al estar aún en una fase de evolución, presenta numerosos desafíos y riesgos que deben ser cuidadosamente evaluados antes de su implementación masiva.
La falta de una comprensión profunda del impacto de la IA en el entorno laboral y educativo, como ha señalado Murati, subraya la necesidad urgente de estudios y análisis rigurosos para anticipar y mitigar posibles efectos adversos. No basta con lanzar un producto al mercado y esperar que los comentarios de los usuarios, que a menudo no están plenamente conscientes del alcance y potencial de estas herramientas, proporcionen toda la información necesaria para realizar ajustes críticos.
Además, la dependencia de datos provenientes de fuentes diversas y no siempre fiables para entrenar los modelos plantea serias dudas sobre la equidad, honestidad e integridad de los resultados. La idea de que valores humanos básicos puedan ser integrados a través de estos datos es cuestionable, y confiar en la personalización de valores por parte de instituciones específicas no garantiza un enfoque uniforme y justo.
Es imperativo que las empresas de tecnología adopten un enfoque más cauteloso y responsable, implementando robustos mecanismos de evaluación de riesgos y obteniendo la opinión de expertos en ética y seguridad antes de lanzar productos al público. Además, los gobiernos deben desempeñar un papel crucial en este proceso, estableciendo y haciendo cumplir regulaciones que garanticen que estos desarrollos se realicen siguiendo directrices estrictas y responsables. Solo así se podrá asegurar que el desarrollo de la IA avance de manera segura, ética y beneficiosa para toda la sociedad, evitando así la posibilidad de consecuencias negativas que podrían haber sido previstas y mitigadas con un análisis más profundo y prudente.
Si eso supone una ralentización de la innovación, bienvenida sea.
Esta semana me han parecido relevantes los siguientes temas:
Permíteme agradecerte el tiempo que dedicas a la lectura de este boletín. No dejes de compartirlo con quien creas que pueda tener interés en él y apreciaré cualquier comentario que realices y enriquezca el debate.
! Sobre todo, alimenta sin descanso tu curiosidad ¡