¿Qué puede hacer la inteligencia artificial en el derecho?
En una entrega anterior empezamos a conversar sobre el contexto de la aplicación de inteligencia artificial (IA) en el derecho. Ahora profundizaremos un poco más en los conceptos de esta disciplina.
Esto es importante porque el hype que rodea a una nueva tecnología se comporta también como una suerte de niebla, que impide ver con claridad sus posibilidades reales, efectivas; y los riesgos que efectivamente conlleva. Esta niebla genera una confusión que va desde la posición de “esta tecnología no aplica para nosotros”, hasta las personas que temen que las inteligencias artificiales (así nombradas, como entes) se revelen y tomen el control de nuestra vidas, contra nuestra voluntad. Como la computadora HAL[1] 9000, de la película “2001, A Space Odissey”[1].
Como es usual, ninguno de los extremos está en lo cierto. Por una parte, si bien la inteligencia artificial puede ser usada, como otras tecnologías, por seres humanos para fines poco aplaudibles, los robots de IA, per se, no pueden tomar el control del planeta pues carecen de dos características indispensables, que no forman parte de su estructura:
1. Consciencia de sí mismos, en tanto entidades cognoscentes, y
2. Voluntad propia, como la del personaje de “Pinky y Cerebro”, que todos los días se propone “tratar de conquistar el mundo”.
Si algunas aplicaciones de inteligencia artificial me dicen cuántas calorías comer, qué ejercicio hacer, y me llevan por calles desconocidas para evitar el tránsito de la ciudad, es porque yo se los permito, y no motu proprio. Pero ese es un tema que trataremos en otro documento. Lo importante aquí es hacer notar la falta de claridad en las posibilidades reales y aplicaciones efectivas de la inteligencia artificial, así como de sus verdaderos riesgos.
La inteligencia artificial se refiere a soluciones informáticas que pueden reflejar algunas facetas del comportamiento humano, gracias a que pueden aprender, a que pueden ser entrenadas. En el caso de la inteligencia artificial generativa basada en modelos grandes de lenguaje, popularizada por ChatGPT, es posible:
● Indizar grandes volúmenes de información en formato de textos; no sólo por “palabras clave”, sino también por el contenido de los documentos a nivel de frases, oraciones y párrafos.
● Entender preguntas realizadas en lenguaje humano; o, al menos, sin requerir el uso una sintaxis rígida para formularlas.
● Localizar documentos entre un gran volumen; en otras palabras, encontrar una aguja en un pajar.
● Priorizar y seleccionar entre la información encontrada, la más apropiada para la consulta.
● Redactar respuestas con base en esta información, en un lenguaje humano.
Pareciera, por la publicidad y las noticias, que las tecnologías emergentes acaban de nacer ayer, casi de repente. La realidad es que, en general, llevan años fermentándose en laboratorios y en unidades de investigación y desarrollo, de universidades y de empresas tecnológicas; incluso aquellas nacidas por serendipia. Por ejemplo, el mouse o ratón (desplazado ahora de muchos dispositivos por las pantallas touch) se conoció ampliamente en el mercado en 1984, cuando se incluyó como parte de la Apple Macintosh. Sin embargo, ya había aparecido comercialmente tres años antes en otra computadora personal que no tuvo el mismo éxito, la Xerox Star 8010. Más atrás, se había presentado el primer modelo oficial en 1968; por supuesto, después de un trabajo previo de conceptualización y diseño, de varios años. El asunto es que mientras unos fabricantes aprovecharon esta maduración de la tecnología para ofrecer dispositivos muy funcionales, ergonómicos o muy resistentes, otros simplemente se montaron en la ola y vendieron productos incómodos, con funcionalidad limitada, o de poca duración.
Recomendado por LinkedIn
Algo similar ocurre con la inteligencia artificial. Su conceptualización ya rondaba las mentes de matemáticos desde la década de 1940, pero tomó forma cuando al famoso matemático Alan Turing (sí, el de la película “El código enigma” o “The Imitation Game”), se preguntó si una máquina podía pensar. Propuso un juego para responder esta pregunta. (De ahí el título original de la película que, siguiendo una tradición de la industria cinematográfica mexicana, se cambió por otro “más comercial”, relacionado en este caso con la guerra). El reto era que una computadora conversara con una persona, emulando tan bien la respuesta humana, que esta no pudiera darse cuenta de que platicaba en realidad con una máquina.
El desarrollo de la inteligencia artificial continuó lado a lado con el de la computación. Sin embargo, el avance era más a nivel teórico pues, si bien la capacidad de las computadoras se incrementaba vertiginosamente, no se dispuso por mucho tiempo, al menos a nivel público, de la potencia de cómputo necesaria para implementar la inteligencia artificial de manera amplia.
En este contexto, desde los 70s hasta los 90s hubo esfuerzos por desarrollar software que “pensara”, pero sin gran éxito. Entre otras razones, porque se buscaba reflejar en una computadora el pensamiento humano (algo que, hoy por hoy, todavía no nos queda muy claro cómo funciona). Fue hasta la década pasada que mucha de la teoría de inteligencia artificial pudo ser aplicada a nivel público, gracias a la disponibilidad de un gran poder de cómputo, así como la posibilidad de combinar la potencia de muchas computadoras en red o en la nube. También hubo un cambio en el enfoque, al menos en el nivel comercial: no buscar que la máquina “pensara” como un ser humano, sino que respondiera como lo haría un ser humano ante ciertos retos y tareas.
El punto de inflexión fue en 2011, cuando Watson, la inteligencia artificial de IBM ganó el concurso Jeopardy. Luego, en 2014, una computadora logró superar el Test de Turing. Logró engañar a un ser humano, haciéndole creer que está interactuando con otra persona, y no con una computadora.
Este resurgimiento de la inteligencia artificial con un enfoque menos “filosófico”, y con más aplicabilidad en la vida diaria, atrajo una gran cantidad de empresas y de profesionales. Muchos de ellos habían seguido el desarrollo de la disciplina desde que sólo era casi teoría; o al menos, desde que se empezaron a ofrecer comercialmente herramientas de inteligencia artificial aplicables en empresas, como IBM Watson. Pero también atrajo a un número muy grande de recién llegados (newcomers), que desconocían el marco de trabajo de la inteligencia artificial y, por ende, la manera correcta de aplicarla en cada caso. Bueno, tampoco se trata de culparlos, pues esta disciplina tiene el glamour de lo nuevo, de sus referencias en la ciencia ficción; es “lo de hoy”. Y por supuesto, la posibilidad de entrar a un nuevo mercado.
Tenemos entonces un repentino mar de proveedores, en el que no siempre será fácil distinguir entre los recién llegados y los que ya han andado la ruta de la maduración de la inteligencia artificial, Menos aún, quienes entienden la problemática, necesidades y expectativas de los profesionales de áreas tan alejadas de las matemáticas, como las de los expertos en materia legal.
En el caso de las soluciones de inteligencia artificial para el tema legal, deberán ser especializadas y además entrenadas con documentos legales, propios de la práctica particular de cada despacho. Esto significa que, al esfuerzo de construcción inicial de la herramienta, hay que agregar el de entrenarla con una muestra de documentos, representativa y de gran calidad, hasta alcanzar el nivel de confiabilidad que la práctica legal exige.
Este proceso se lleva un tiempo en el que todavía no hay retorno de la inversión y se depende de la habilidad, conocimientos y metodología del proveedor de la solución. Por ello es importante que los despachos legales cuenten con mayor información de las posibilidades y riesgos reales; «positivos», dirían los abogados.
En la siguiente entrega discutiremos las maneras en las que las soluciones de inteligencia artificial son provistas, para ver cuáles pueden ser las más apropiadas para los despachos legales y encontrar una forma de seleccionar el proveedor que más convenga al contexto particular de cada organización dedicada a la práctica del derecho.
[1] Dato curioso, ahora que están de moda los algoritmos: HAL significa “Heuristically Programmed Algorithmic Computer”, computadora algorítmica programada de manera heurística; algo muy cercano a la inteligencia artificial.
--
7 mesesMuy interesante y útil la informacion