En los medios
21/12/23
Comprender la IA y su contribución al Derecho
David Mielnik, profesor de la Maestría en Derecho Penal y de la Carrera de Abogacía, fue entrevistado sobre DoctIA, la herramienta de inteligencia artificial que creó para buscar jurisprudencia de la CSJN.
David Mielnik es el creador de DoctIA: una herramienta de Inteligencia Artificial que, a través de un algoritmo, pone a disposición de su usuario jurisprudencia sistematizada sobre temas jurídicos de consulta. Nos abrió las puertas de su algoritmo y compartió con nosotros su sólida formación en Tecnologías Informáticas y de la Comunicación (TICS,) y su involucrada perspectiva en el estudio de la contribución de la IA al Derecho.
AMJA: ¿Cuál es tu perspectiva, en general, de la Inteligencia Artificial? ¿Qué fue lo que te motivó a adentrarte en ese mundo?
DM: Tras años de estudio, desarrollo de investigaciones y publicaciones sobre las maneras en las que la aplicación de la Inteligencia Artificial puede contribuir a comprender mejor aquello en lo que se está convirtiendo el derecho, parto de la idea de que esta herramienta puede ser muy provechosa para la humanidad, pero también plantea desafíos, para los cuales tenemos que estar preparados las abogadas y los abogados. En esa tarea, pude observar que hay mucha discusión, muchos diálogos sobre la mirada del derecho sobre la Inteligencia Artificial, -cómo regularla, cómo contener aquellos peores costados, que efectivamente existen- pero para ello es necesario involucrarse con la tecnología, verla, explorarla, programarla; en resumen experimentar de propia mano dónde es exactamente que aparecen los sesgos, dónde aparecen los problemas. En ese sentido, parte de mi investigación está motivada por entender mejor la tecnología en sí, desde el punto de vista de un abogado, pero con conocimientos técnicos concretos sobre cómo funciona. Al mismo tiempo, el Derecho mismo se está convirtiendo en un fenómeno de “Big Data”, donde las herramientas de análisis legal tradicionales, como ha ocurrido muchas veces en la historia del Derecho, empiezan a mostrar algunas limitaciones, esta vez, como producto del volumen masivo que esa alcanzando la información legal. Es ejemplo de esto la cantidad de sentencias dictadas por los Tribunales en general, que se han multiplicado exponencialmente en los últimos años. No hay intelecto humano que pueda procesar toda esa información en tiempo útil. En otros momentos, el derecho siempre se nutrió de la sociología, de la economía, de a psicología, ahora de las neurociencias también, para superar obstáculos conceptuales. Hoy en día, yo creo que una de las principales dificultades que presenta el acceso epistémico al fenómeno del derecho -es decir, a la construcción social colectiva de coordinación que nos guía en las sociedades modernas- está dada por la escala y el volumen de la información disponible. Entonces para eso, me empecé a interesar por la manera que se podría usar la IA para contribuir con el derecho, a partir de la experiencia de otras disciplinas (no sólo en las ciencias exactas, sino también en ciencias sociales como la sociología o la ciencia política) donde hace décadas se utilizan métodos informáticos, el procesamiento de datos, el procesamiento del lenguaje natural, etc. para potenciar las capacidades analíticas. Siento que somos los abogados y las abogadas los que estamos un poco rezagados en este ámbito, sin que haya ninguna razón de peso para que eso sea así. De esa inquietud salieron trabajos de investigación, una tesis de maestría, y ahora una disertación doctoral que está en marcha.
AMJA: ¿Nos podrías compartir en qué consiste DoctIA y a qué objetivos apuntaste con su desarrollo?
DM: He desarrollado distintos algoritmos y aplicaciones. Puntualmente DoctIA recibe ese nombre por la combinación entre los términos “Doctrina” e “Inteligencia Artificial”. Su origen tiene que ver con que yo estudié derecho por esas ganas que sentía de involucrarme en los problemas. No sólo de estudiarlos, sino particularmente con el propósito de contribuir de alguna manera a resolverlos, a aportar en su resolución. Así, además de la investigación académica, que se proyecta en la docencia y la publicación de comentarios y observaciones, quería hacer alguna contribución práctica a la manera en que la IA nos puede ayudar a entender y a dar cuenta del Derecho como fenómeno social. DoctIA en particular es un algoritmo al que uno puede mostrarle un texto, un enunciado jurídico, digamos, una afirmación sobre el derecho, y lo que hace DoctIA es interpretar lo que uno quiso decir, el sentido conceptual o semántico de lo que uno está diciendo, y a partir de eso el sistema sugiere 10 precedentes jurisprudenciales relevantes como cita o referencia del texto propio. La diferencia con otros buscadores es que éstos parten de términos que uno debe ingresar (nomencladores), y esos sistemas, digamos, “tradicionales”, encuentran los documentos de la base en los que esos términos (y no otros cercanos semánticamente) se repiten con más frecuencia. El abordaje en DoctIA es diferente: uno escribe en lenguaje natural un texto jurídico, una afirmación, como por ejemplo “los crímenes contra la humanidad son imprescriptibles”, o “la revisión del recurso de casación debe ser amplia y exhaustiva”, y el sistema de IA va a entender de qué está hablando uno y le va a ofrecer 10 fallos de la colección oficial de sumarios de la base de jurisprudencia de la Corte que, de alguna manera, estén vinculados con aquello que uno ha dicho, y por eso los puede utilizar como respaldo de esa afirmación sobre el derecho que ha ingresado. Y los va a encontrar incluso si cometió algún error de tipeo y, más importante, incluso si la manera que tiene uno de expresar una idea no es exactamente la misma que la adoptada por la Corte (por ejemplo, si la Corte usa “crímenes de lesa humanidad” o “graves violaciones a los derechos humanos cometidas durante la última dictadura”, en lugar de “crímenes contra la humanidad”). De esa manera se incorpora una nueva contribución a la herramienta de gran valor agregado que ya hace muchos años la Corte, desde la página de jurisprudencia del Máximo Tribunal, ofrece a la sociedad. Un aspecto que me parece importante en todas las herramientas de IA que uno empieza a incorporar en la práctica en el derecho, es el problema de las llamadas “alucinaciones”. Este es un defecto que se ha comenzado a ver en los grandes modelos del lenguaje e inteligencias artificiales generativas, por ejemplo, en ChatGPT. De hecho, cobró bastante notoriedad el caso de un abogado que, en un caso que se litigó contra la compañía aérea Avianca en Estados Unidos, e incluso, lo que es más grave, un Juez, en Brasil, que, recurriendo a estas herramientas, han culminado citando precedentes inexistentes en sus escritos, lo cual le puede generar responsabilidades importantes a nivel profesional. Cuando me refiero a jurisprudencia falsa o inexistente quiero decir referencias jurisprudenciales generadas por una IA que “alucinó” que existía un precedente que en realidad no existe; tanto porque ya el nombre del precedente no existe, o el contenido que la IA le atribuye no tiene nada que ver con el contenido real del fallo. “Alucinación” es un término técnico, pero bastante gráfico, que se usa en el ámbito de la discusión sobre estos temas, y se verifica al interactuar en lenguaje natural con la inteligencia artificial generativa, cuando parte de la respuesta que genera el algoritmo puede ser falsa o inexistente, aspecto especialmente alarmante cuando se refiere a enunciados fácticos, por ejemplo, cierta jurisprudencia que podría respaldar una opinión jurídica. Este fenómeno es un problema con el que tienen que lidiar los programadores porque el algoritmo no tiene manera, per se, para distinguir lo que es real de lo que no lo es. Por ahora hay maneras de mitigar el problema, pero no es una situación que se pueda, en el momento, reducir a 0. Por eso, en la arquitectura que le di a DoctIA, me encargué de producirla ya desde el principio de una manera tal que no pueda alucinar. Si bien es un algoritmo mucho más simple en su arquitectura neuronal que un gran modelo del lenguaje como ChatGPT, en el fondo está diseñada para cumplir una función muy específica, y está pensada para ser minimalista, resolver un problema concreto que es el de la búsqueda de jurisprudencia, y a cambio de esa simplicidad tenemos un sistema que no puede alucinar. En este aspecto, ahí no hay margen de error y todos los resultados que arroja DoctIA contienen una referencia al fallo original en la base de datos de la CSJN.
AMJA: ¿Dado que, en el escenario del amplio volumen de decisiones del Tribunal y su dispersión, la herramienta dota de eficiencia a la búsqueda de precedentes, considerás que esta herramienta contribuye a la consolidación de la vinculatoriedad de las decisiones de la CSJN?
DM: Considero que el inmenso volumen de decisiones jurisdiccionales que existe actualmente, su dispersión y dificultad de conocimiento por parte los operadores, contribuye a que éstos, al lidiar con un caso en concreto, no siempre puedan aplicar los precedentes correctos. En muchos casos, la búsqueda de jurisprudencia es muy reducida, se limita a una consulta informal con otros colegas, y eso conspira contra la mejor solución del caso. Al contrario, idealmente, creo cada nuevo argumento de un litigante, y cada fallo de un Tribunal, debería involucrar una búsqueda exhaustiva de precedentes, con los que ha de establecerse un diálogo permanente, incluso si es para rechazar las doctrinas anteriores. Lo que no debería ocurrir es que hagamos de cuenta que esos precedentes no existen. Pero las dificultades para acercarnos a este ideal son varias: dispersión, inaccesibilidad, etc., que se condensan en la idea del volumen o la escala de la información, pero que no se limita a intentar hacer las búsquedas más rápidas y eficientes, sino idóneas. Como ha señalado Dworkin, el derecho es una “novela en cadena” a la que todas y todos estamos convocados a aportar. Esto involucra muchos valores que son importantes para la administración de justicia y se vinculan con que, en la argumentación o resolución del caso, se conozca de la manera más plena los precedentes que contribuyen en su resolución.
AMJA: ¿la IA podría servir para reducir el campo de discrecionalidad en la selección de precedentes, y dotar de mayor objetividad a la identificación de la jurisprudencia aplicable?
DM: Ese es un punto fundamental de todas estas herramientas, porque el problema del volumen y la dispersión de las decisiones es un problema que tenemos hace mucho tiempo, y la manera tradicional que tenemos de lidiar con ese problema es apelar a colecciones curadas, oficiales, de tales precedentes, en las que intervinieron profesionales de suma solvencia. Pero tal selección, al no poder contener todas las decisiones relevantes sobre un tema, implica necesariamente la proyección de un criterio subjetivo de quien confecciona esa colección, que, si bien puede ser sumamente solvente y formado, necesariamente es parcial. Eso es lo que estadística se llamaría “sesgo de selección”, sobre cómo conformamos la muestra que vamos a estudiar. La adopción de herramientas que permitan lidiar con grandes volúmenes de información, al trabajar sobre todas las decisiones, miles y miles de decisiones y no un subgrupo preseleccionado, seguramente contribuye a minimizar ese inconveniente. La muestra que toma la IA se acerca más a la población objetiva de todos los fallos que uno quisiera estudiar, y que, por su volumen, no son susceptibles de ser analizados en la misma dimensión por la mente humana. Uno siempre suele mirar con desconfianza a la Inteligencia Artificial porque introduce sesgos, amplifica sesgos, pero también puede pasar que existan sesgos en las personas que clasifican precedentes y deciden cuáles entran a una colección y cuáles no, y en este sentido la IA puede ayudar a superarlos y resolverlos. Comprender la tecnología puede ayudarnos también a ajustar nuestras expectativas a lo que podamos esperar de la tecnología, y también ser más optimistas en cosas en las que el desconocimiento nos genera cierto prejuicio.
AMJA: ¿Es posible que el algoritmo contribuya con la vinculatoriedad de los precedentes de la CSJN, así como evitar jurisprudencia contradictoria?
DM: El tema de la fuerza vinculante de los fallos es un problema clásico del derecho que podemos repensar a la luz de las nuevas tecnologías. Es maravilloso poder abordar problemas que son muy antiguos desde una perspectiva renovada. Siempre haciendo énfasis en que la IA puede hacer una contribución y no que viene a resolver todo, sí me parece que hay elemento de contribución, por parte la IA a la fuerza vinculante de las decisiones máximo tribunal de la nación y el correlativo deber de leal acatamiento que tienen los demás tribunales de la República. En este sentido, hay un aspecto sencillo, pero decisivo, en el que la tecnología puede contribuir, y es que los fallos, para que sean vinculantes, tienen primero que poder ser conocidos. En tal sentido, la tecnología hace accesible la jurisprudencia, y esa posibilidad de conocimiento es un elemento básico, pero indispensable para su vinculatoriedad. Es un punto decisivo, si bien modesto, pero es innegable, aunque muy fácil de pasar por alto, que el acceso sustantivo a la jurisprudencia es una precondición de su obligatoriedad. Por eso, al permitir conocer con mayor facilidad los fallos vinculados con un caso, DoctIA puede contribuir a cimentar esa precondición de la obligatoriedad de las decisiones de la Corte.
AMJA: Generalmente existen temas que generan reticencia cuando se analizan los aportes de las TICs. Uno es la protección que deba otorgarse a la IA, en cuanto al concepto de persona. ¿Puede asimilarse la IA a la Inteligencia humana?
DM: Creo que ésta es una de las discusiones que subrayan lo importante de que abogados y abogadas profundicemos en algunos aspectos técnicos de lo que sabemos sobre esta tecnología, sobre todo porque ese aprendizaje, aunque algo fuera de nuestra “zona de confort”, está en nuestro alcance, y eso serviría para desmitificar algunas cosas que giran en torno a la IA. El uso de la palabra inteligencia con relación a esta tecnología se popularizó en la década de los ‘60, y si bien se refiere con ello a tecnología que puede hacer cosas sorprendentes, lo cierto es que no llega a parecerse en nada a la inteligencia humana. De hecho, hay mucha inteligencia humana puesta detrás de los algoritmos a los que llamamos “Inteligencia Artificial”. Pero hay que enfatizar que es sólo un nombre que se le dio a una tecnología. Y hay que entenderla como una metáfora, no más que eso. La IA ciertamente no razona, ni piensa; no trabaja de ninguna manera comparable a como lo hace un ser humano, de manera tal que pueda asimilarse a la inteligencia humana. Por ejemplo, las redes neuronales, como las que están detrás de ChatGPT no llegan a una respuesta en base a un razonamiento. Haciendo una gran simplificación, podría decirse que, a partir de millones y millones de parámetros, lo que hacen es estimar cuál sería la respuesta correcta, la que maximiza las chances de adecuación a la instrucción que se le dio. Los algoritmos, por más simples o complejos que sean, están “entrenados” (otra metáfora que simplemente describe un proceso estadístico de ajuste de parámetros internos) para indicar, en base a números y estadísticas, que una respuesta sea más correcta que otra. No hay una conciencia incorporando contenido. Por ello, no hay un paralelismo posible entre la IA y la inteligencia humana. En todo caso, en los diálogos sobre IA, hay que tener presente que muchos términos -como ”inteligencia”, “aprendizaje”, “predicción”, “sesgo”, etc.- nos causan alarma porque pensamos en sus acepciones coloquiales, pero en realidad se trata de términos técnicos que provienen de la estadística y las matemáticas. De los profesionales del Derecho se esperará que ofrezcamos las herramientas para regular esta tecnología del modo que resulte más beneficioso para la sociedad. Por eso, para tener conversaciones cada vez más informadas y productivas, tanto entre abogados, como con la comunidad científica que está detrás de su desarrollo, es imprescindible formarnos en sus pormenores técnicos. Es un imperativo de la capacitación continua que la sociedad espera de nosotros.