Inteligencia artificial en la Justicia

¿Aceptarías una sentencia dictada por un algoritmo?

No estamos tan lejos de que algoritmos tomen decisiones jurídicas sobre nosotros tan importantes como mandarnos a la cárcel, dejarnos libres, o decidir si nos quitan una deuda o no

Jorge Campanillas

Abogado especialista Derecho Digital

Viernes, 14 de marzo 2025, 13:23

Lawrence Lessig, nuestro gran gurú para los que nos dedicamos al derecho digital, afirmó hace ya unos cuantos años en su obra 'El código y otras leyes del ciberespacio' que «el código es la ley». Lessig quiso subrayar que el software y la arquitectura digital no solo reflejan normas, sino que las implementan y las hacen cumplir de manera ineludible. El código informatico y el jurídico no dejan de ser reglas que en el primer caso son interpretadas por una máquina, en el segundo son interpretadas únicamente por las personas. Pero… esto que hasta hace poco tiempo era una verdad, la Inteligencia Artificial Generativa lo ha puesto todo patas arriba. Si el código jurídico, que no deja de ser código que las máquinas saben muy bien interpretar, le añadimos la capacidad de éstas de comprender el lenguaje natural a través de algoritmos de IA ¿qué resultado tenemos? Que la IA sea capaz de tomar decisiones conforme a los hechos que le describimos y el código que debe analizar.

Publicidad

Esto que, reitero, nos parecía ciencia ficción hace unos años, o quizá uno de los capítulos de terror de 'Black Mirror', no está tan lejos. Recientemente, Cataluña ha dado un paso significativo con el proyecto AI4JUSTICE, una iniciativa que busca agilizar la resolución de sentencias judiciales a través de la inteligencia artificial. Este sistema se presenta como un asistente para los jueces, permitiéndoles redactar resoluciones basadas en un análisis automatizado de jurisprudencia previa. Su aplicación inicial se ha centrado en procedimientos de menor complejidad, como las reclamaciones por cláusulas suelo o litigios de tráfico aéreo.

Para una IA es fácil determinar, por ejemplo si nuestra escritura de la hipoteca tiene una cláusula suelo y rápidamente dictar una resolución o sentencia conforme a la normativa y jurisprudencia existente. Las ventajas son muy claras, se optimiza el tiempo de la administración de justicia, los jueces/as pueden dedicarse quizá a casos más complejos y simplemente supervisar que la resolución es correcta, sin «alucionaciones» ni otras desagradables sorpresas que puede generar la IA. Las ventajas también son para el ciudadano, que observará una justicia más rápida y ágil y en la que podrá seguir recurriendo a una supervisión humana en caso de considerar no ajustada a derecho la resolución adoptada por la JusticIA.

«La implementación de la inteligencia artificial en el ámbito judicial plantea serios desafíos jurídicos y éticos, como el sesgo algorítmico»

Sin embargo, la implementación de la inteligencia artificial en el ámbito judicial plantea serios desafíos jurídicos y éticos. Uno de los principales es el sesgo algorítmico: si los modelos de IA se entrenan con datos históricos que contienen patrones discriminatorios, pueden perpetuar y amplificar esas desigualdades en las resoluciones judiciales. No hablamos de casos hipotéticos, esto ya ha sucedido en algunos sistemas de IA aplicados en el ámbito penal en EE.UU. Sistemas que han tenido que ser retirados para su revisión, puesto que los algoritmos, por ejemplo, de evaluación de riesgos de reincidencia mostraban graves sesgos raciales.

Otro problema crítico es la opacidad de los algoritmos, las denominadas «cajas negras». En el derecho, la motivación de las resoluciones es un pilar fundamental: los jueces deben justificar sus decisiones con base en criterios jurídicos claros. ¿Pero qué ocurre cuando una IA sugiere una resolución sin que nadie pueda explicar como ha llegado a ese razonamiento? Lamentablemente, la mayoría de estos sistemas son cajas negras, ya que las empresas desarrolladoras suelen alegar razones de seguridad y secreto comercial para no revelar cómo funcionan sus modelos. Si bien no podemos «abrir el cerebro» de un juez para comprender exactamente cómo ha llegado a una conclusión éste debe motivar sus respuestas, sin embargo en el caso de los algoritmos sí deberíamos poder auditar su lógica y los criterios que emplean en la toma de decisiones a fin de evitar todo lo posible los sesgos y, por supuesto, sin pensar mal, instrucciones dadas por la empresa, entidad desarrolladora (o Estado/Gobierno que la implanta) que nada tienen que ver con la normativa ni la jurisprudencia ¿se acuerdan de aquello que el código es la ley?

Publicidad

«La incorporación de la inteligencia artificial en el sistema judicial es inevitable, pero su aplicación debe ser prudente, garantista y sometida a estrictos controles»

En fin, la incorporación de la inteligencia artificial en el sistema judicial es inevitable, pero su aplicación debe ser prudente, garantista y sometida a estrictos controles. La inteligencia artificial debe servir como una herramienta de apoyo, ayudando a optimizar el trabajo de los jueces y la justicia pero sin sustituirla completamente. Porque, al fin y al cabo, no podemos permitir que la justicia se convierta en una versión del Juez Dredd Judge, donde una máquina no solo aplica la ley, sino que la interpreta y la ejecuta sin margen de revisión. «¡Yo soy la ley!» puede ser una frase icónica en el cómic y el cine, pero en la vida real, la justicia requiere algo más que un algoritmo dictando sentencias sin matices, ni humanidad y con graves sesgos.

La verdadera cuestión que debemos plantearnos ahora es: ¿quién escribe el algoritmo de nuestra justicIA futura? La respuesta a esta pregunta definirá si la inteligencia artificial se convierte en un aliado del Estado de derecho o en un riesgo para las garantías jurídicas y procesales.

Este contenido es exclusivo para suscriptores

Suscríbete los 2 primeros meses gratis

Publicidad