Por Rubén Chaia
EL CASO “AYINDE”: UN FALLO QUE NOS INTERPELA SOBRE LA RESPONSABILIDAD, LÍMITES Y CONTROLES DE LA IA EN LA CITA DE PRECEDENTES
COMENTARIO A FALLO “AYINDE” DEL TRIBUNAL SUPERIOR DE JUSTICIA DE LONDRES (SENTENCIA DEL 6 DE JUNIO DE 2025)
El caso. En el caso, el demandante, el Sr. Ayinde, interpuso un recurso de revisión judicial contra el municipio londinense de Haringey (demandado) por no haberle proporcionado alojamiento provisional a la espera de la revisión legal de la decisión que lo declaraba sin necesidad prioritaria de vivienda. Según señala el fallo, al exponer el caso, el demandante citó un antecedente que no existe, si bien el número de cita sí existe, se refiere a un caso diferente. Otros cuatro casos adicionales citados tampoco existen, dice el fallo. La demandada solicita que se le envíen los casos citados, pero no lo consigue. Luego se presenta ante el juez y solicita una condena en costas contra el Centro Jurídico en función de que habían citado cinco casos falsos, no habían presentado copias de los casos cuando se les solicitó y habían tergiversado la interpretación del artículo 188(3) de la Ley de Vivienda de 1996 al argumentar. La actora dijo que había guardado copias sobre los casos y por error las había arrastrado e incorporado. El juez indicó que no entendía cómo eso pudo suceder. Para el juez no son errores cosméticos, son graves y debieron ser explicados cuando se les requirió[1].
Fallo del Tribunal superior. En la sentencia dictada por el Tribunal Superior de Justicia —sentencia del 6 de junio de 2025—,concluye —sintéticamente expuso, sobre lo que me interesa remarcar— que hay dos posibles escenarios. Uno es que la abogada incluyó deliberadamente citas falsas en su trabajo escrito. Esto constituiría un claro desacato al tribunal. El otro es que utilizó herramientas de inteligencia artificial generativa para elaborar su lista de casos o redactar parte de los motivos de la demanda. En ese caso, su negación (en una declaración testifical respaldada por una declaración veraz) es falsa. De nuevo, esto constituiría un desacato. En todas las circunstancias, consideramos que se cumplen los requisitos para iniciar un procedimiento por desacato. Sin embargo, agrega, “hemos decidido no iniciar un procedimiento por desacato ni remitir el caso a los Oficiales de Justicia”. En primer lugar, existen varias cuestiones de hecho que no podrían determinarse fácilmente en el curso de un procedimiento sumario por desacato. En segundo lugar, se plantean dudas sobre posibles fallos de quienes fueron responsables de la formación de la abogada, de su supervisión, de la aprobación de su pasantía, de su asignación de trabajo y de la comercialización de sus servicios. Estas cuestiones no podrían abordarse en un procedimiento por desacato interpuesto únicamente contra la abogada. En tercer lugar, porque la misma ya ha sido expuesta en una sentencia pública; ha sido remitida al regulador y su conducta.
Como dije, más allá de lo que ha resuelto, me importa remarcar las consideraciones que realiza el Tribunal superior en la introducción del fallo por cuanto desarrolla conceptos y fija alcances sobre la materia. Así dice:
IA Poderosa herramienta. Riesgos y oportunidades. La inteligencia artificial es una herramienta que conlleva riesgos y oportunidades. Por lo tanto, su uso debe realizarse con un grado adecuado de supervisión y dentro de un marco regulatorio que garantice el cumplimiento de estándares profesionales y éticos bien establecidos, si se desea mantener la confianza pública en la administración de justicia.
Precaución en el uso de la herramienta. Los modelos de lenguaje como ChatGPT no son capaces de realizar investigaciones jurídicas confiables. Estas herramientas pueden producir respuestas aparentemente coherentes y plausibles a las indicaciones, pero estas respuestas coherentes y plausibles pueden resultar completamente incorrectas. Las respuestas pueden hacer afirmaciones seguras que simplemente son falsas. Pueden citar fuentes inexistentes. Pueden pretender citar pasajes de una fuente genuina que no aparecen en ella.
Deberes de comprobar la exactitud. Quienes utilizan inteligencia artificial para realizar investigaciones jurídicas, a pesar de estos riesgos, tienen el deber profesional de comprobar la exactitud de dichas investigaciones consultando fuentes fidedignas antes de utilizarlas en su labor profesional (por ejemplo, para asesorar a clientes o ante un tribunal). Entre las fuentes fidedignas se incluyen la base de datos de legislación del Gobierno, la base de datos de sentencias judiciales de los Archivos Nacionales, los Informes Jurídicos oficiales publicados por el Consejo Incorporado de Informes Jurídicos de Inglaterra y Gales y las bases de datos de editoriales jurídicas de prestigio.
Esta obligación recae sobre los abogados que utilizan inteligencia artificial para realizar investigaciones por sí mismos o se basan en el trabajo de otros que ya lo han hecho. Esto no difiere de la responsabilidad de un abogado que se basa en el trabajo de un abogado en prácticas, por ejemplo, o en la información obtenida mediante una búsqueda en internet.
Responsabilidad profesional. Citando un párrafo de la Guía para el uso de ChatGPT —“Considerations when using ChatGPT and generative artificial intelligence software based on large language models”— el fallo señala: No importa que el engaño al tribunal haya sido involuntario, ya que se consideraría incompetente y negligente. Dicha conducta desacredita la profesión (incumplimiento del Deber Fundamental 5), lo que podría derivar en procedimientos disciplinarios. Los abogados también pueden enfrentarse a demandas por negligencia profesional, difamación o protección de datos por el uso descuidado o inapropiado de estos sistemas. Como se mencionó anteriormente, los datos utilizados para capacitar a los LLM generativos pueden no estar actualizados y, en ocasiones, generar respuestas ambiguas, inexactas o con sesgos inherentes.
En este contexto afirma el fallo siguiendo al Manual sobre deberes de abogados que deben cumplir con su deber ante el tribunal en la administración de justicia y en esa línea exige actuar con honestidad e integridad agregando que no deben comportarse de forma que pueda socavar la confianza pública depositada en la profesión. Deben ofrecer un trabajo competente a cada cliente. Indicando que el cumplimiento de estos deberes fundamentales, busca lograr los siguientes resultados: que el tribunal pueda confiar en la información que le proporcionan quienes llevan los litigios y los abogados que comparecen ante él. Así se asegura la correcta administración de justicia y quienes comparecen ante el tribunal comprenden claramente sus deberes ante el mismo.
En otro párrafo, citando al Manual, sostiene que los abogados tienen el deber de no engañar ni intentar engañar, a sabiendas o imprudentemente, al tribunal ni a ninguna otra persona. Tienen el deber de no redactar ningún documento que contenga una alegación que el autor no considere debidamente defendible y de proporcionar un trabajo de calidad.
Advierte sobre el uso del ChatGPT. Todas las computadoras pueden cometer errores. Sin embargo, los modelos de lenguaje de IA como ChatGPT pueden ser más propensos a ello. Esto se debe a que funcionan anticipando el texto que debería seguir a la entrada que reciben, pero carecen de un concepto de "realidad". El resultado se conoce como "alucinación", donde un sistema produce resultados altamente plausibles pero incorrectos.
Facultades del tribunal. Sobre las facultades del tribunal, el fallo indica que cuenta con diversas facultades para garantizar que los abogados cumplan con sus obligaciones. En caso de incumplimiento, las facultades del tribunal incluyen la amonestación pública al abogado, la imposición de una condena en costas, la imposición de una condena en costas inservibles, la desestimación del caso, la remisión a un organismo regulador, la iniciación de un procedimiento por desacato y la remisión a la policía.
La respuesta del tribunal dependerá de los hechos particulares del caso. Entre los factores relevantes probablemente se incluirán: (a) la importancia de establecer y aplicar estándares adecuados; (b) las circunstancias en las que se presentó material falso ante el tribunal; (c) si se proporcionó una explicación inmediata, completa y veraz al tribunal y a las demás partes del caso; (d) las medidas adoptadas para mitigar el daño, si las hubiere; (e) el tiempo y los gastos incurridos por las demás partes del caso, y los recursos utilizados por el tribunal para abordar el asunto; (f) el impacto en el litigio subyacente; y (g) el objetivo primordial de resolver los casos de forma justa y a un costo proporcionado. Pudiendo iniciarse una investigación criminal o, incluso, la actividad del letrado puede configurar desacato al presentar material falso ante el tribunal con la intención de que el tribunal lo trate como genuino dependiendo del conocimiento que posea.
Consideraciones conclusivas. Este fallo me parece importante en cuanto fija límites y propone estándares para el uso de herramientas que aportan las nuevas tecnologías, especialmente en materia de citas de precedentes.
Desde ya que valora los avances, pero también señala que deben medirse los riesgos en la utilización de estas herramientas. El tribunal deja en claro las obligaciones que tienen quienes pretenden utilizarlas y el deber ético de informarse, de confirmar fuentes antes de presentar esa información, como también la necesidad de aclarar o bien, admitir y/o subsanar en el caso de cometer errores.
El uso IA para citar precedentes erróneos, falsos, inexistentes que lleven a postular interpretaciones por fuera de lo que los tribunales han establecido como también, el uso de evidencia digital manipulada o alterada con fines de llevar al error de quien decide es algo que debe ser abordado con seriedad en nuestro medio tal como lo he trabajado en La Prueba Digital.
Los profesionales del derecho tenemos la obligación de desarrollar habilidades que permitan el uso responsable de estas herramientas, como también de impedir que el servicio de justicia se vea afectado y sus valores distorsionados por citas o pruebas que no concuerdan con la realidad.
En fin, las reglas éticas imponen conductas positivas y negativas a todos los que trabajamos en el sistema judicial tales como: a) evitar crear o introducir una información falsa, b) modificar una información verdadera a punto tal de convertirla en falsa o perjudicial para la verdad del proceso, c) colaborar en la ejecución de un plan criminal dando consejos o información para evitar la persecución o lograr la impunidad.
Es tarea de todos trabajar por la transparencia en el manejo y resolución de los casos que la sociedad nos ha confiado. El uso responsable y ético de IA como de todas las herramientas que hoy se nos ofrecen, no puede quedar marginada de esta misión[2].
Acceder al fallo completo <<aquí>>
Notas
[1] Si bien son dos casos, trataré este que me resulta más cercano a lo que pretendo exponer.
[2] Los abogados deben estar preparados para considerar las implicaciones del avance tecnológico en sus prácticas. En la legislación comparada, la Regla 1.1 de Conducta Profesional de la Asociación de Abogados de Estados Unidos establece que un abogado debe ser competente, lo que “requiere el conocimiento jurídico, la habilidad, la minuciosidad y la preparación razonablemente necesaria para la representación”. Además, el comentario 8 bajo la Regla 1.1 establece específicamente que “para mantener el conocimiento y la habilidad necesarios, un abogado debe mantenerse al tanto de los cambios en la ley y su práctica, incluidos los beneficios y riesgos asociados con la tecnología relevante”.
Si desea participar de nuestra «Sección Doctrina», contáctenos aquí >>