Inteligencia artificial: ¿Sustituyendo al juez?

Texto publicado como editorial del boletín 2/10 del Instituto Iberoamericano de Derecho Procesal.

El advenimiento de la inteligencia artificial y su eventual aplicación en el sistema de justicia ha generado profunda preocupación en la procesalística iberoamericana. Una de las principales reacciones a nivel institucional fue prohibir que se reemplace el razonamiento del magistrado (art. 172, par. 2, nuevo CPC panameño), o que no puede haber sustitución de un sistema de IA respecto de la interpretación de hechos, valoración de pruebas y decisión, entendidas como “actividades irremplazables” (fundamentos 296 y 298, sentencia T-323-24 de la Corte Constitucional colombiana).

Pero, en este contexto, ¿qué significa “sustitución”? Una posibilidad es entenderla como una escisión o quiebre entre la decisión jurisdiccional y la autoría humana de ésta, a efectos de atribución y de responsabilidad. O sea, la prohibición de sustitución busca evitar atribuir a la IA –entendida como agente– la responsabilidad por las decisiones jurisdiccionales; por ello, la IA no debiera ser autora de éstas, sino debe seguir siéndolo el juez humano.

De ello se sigue lo siguiente: i) queda prohibida una decisión 100% automatizada (sin intervención del humano no sólo en la predicción, sino también en el juicio, decisión y ejecución); y ii) se prohíbe una decisión que, aunque no sea automatizada, no tengasupervisión humana.

Bajo este concepto, y pensando en las actividades así llamadas “irremplazables”, podemos tener dos lecturas: a) Sustitución en sentido fuerte (SSF) en que se prohíbe cualquier tipo intervención de la IA, dado que si el juez es el responsable de la decisión debe hacerlo sin agentes externos; o b) sustitución en sentido débil (SSD), bajo la cual sí puede haber intervención de la IA, pero siempre que haya supervisión y control del juez.

La SSF parece ser demasiado rigurosa pues quedaría bloqueada toda forma de hacer más eficiente la toma de decisión. Además, se estaría haciendo tábula rasa, como si todo sistema de IA fuese igual de perjudicial o riesgoso. Tampoco se llega a atender el avance de la tecnología.

Empero, si optamos por la SSD, también encontramos diversos problemas: ¿En qué aspecto de la decisión o proceso decisorio podría incidir el sistema de IA? ¿Qué grado de injerencia debería tener el sistema de IA? ¿Qué grado de supervisión y control y quién debería hacerlo? Nótese que hay razonamientos menos complejos, como la selección del segmento normativo en que se busca la norma aplicable, o la identificación de precedentes a partir de sumillas; y otros más profundos, tales como identificación de factores entre precedentes, construcción de probabilidades estadísticas o valoración de pruebas.

De otro lado, sobre la supervisión y el control, es importante tener mucho cuidado con no exigir del juez más de lo que razonablemente se puede obtener. En efecto, éste podría no comprender el funcionamiento del sistema debido a su complejidad, lo cual, a su vez, depende del nivel de exactitud (accuracy) que se quiera para cierto aspecto de la decisión. En efecto, si se quiere predicciones más exactas se requerirá de algoritmos estadísticos más complejos. A lo sumo, pues, la comprensión del juez residiría en saber qué información introducir al sistema y, eventualmente, comprender el output.

Pero, ¿es que realmente nuncadeberíamos sustituir el razonamiento humano? Sin perjuicio de resoluciones de trámite o más simples en que sí podría ser viable, no debe olvidarse que en las sentencias judiciales hay muchos procesos y subprocesos decisorios. Todo ellos, evidentemente, son parte del razonamiento humano. Hay cadenas inferenciales en la premisa normativa y también en la premisa fáctica, y muchas de esas premisas están basadas en argumentos de muy diverso tipo. Muchas de ellas rigurosamente forman parte de las “actividades irremplazables” (o, al menos, son insumos de éstas), e inclusive pueden ser condiciones necesarias para la conclusión final, esto es, la norma aplicable al caso o los hechos probados.

Pensemos en casos diferentes a las “actividades irremplazables” tales como borradores de resoluciones, síntesis de piezas procesales para incorporarlas en la parte expositiva, transcripción de audiencias o informes estadísticos que arrojan predicciones (a partir de las cuales se extraen razones para decidir). Así pues, si esta información ingresa a la decisión a través de sistemas de IA, pasará a ser premisas que conforman inferencias y que tendrán una mayor o menor injerencia en el resultado final. Por consiguiente, estas actividades que serían “reemplazables” pueden terminar impactando en las “irremplazables”.

En todos estos ejemplos, al menos en alguna medida sí que existe sustitución (aunque sea una SSD). Pero no sólo ello: es inevitable que la haya. Y, de hecho, la sustitución crecerá más en tanto que los sistemas de IA evolucionen para realizar más funciones, incidiendo de manera más directa en la decisión. Aunque siempre exista supervisión del juez (que, por supuesto, es lo deseable), eso no quita que el sistema de IA pueda terminar condicionando o inclinando seriamente el sentido de la decisión, precisamente debido a la eficiencia que todo sistema de IA debe conseguir; sobre todo en el caso de procesos decisorios que la IA claramente desarrolla mejor que el humano, como el análisis estadístico para evaluar riesgos hacia el futuro o, inclusive, el análisis de precedentes judiciales.

Pienso que hablar de “prohibición de sustitución” esconde muchos aspectos importantes sobre los que se debe adoptar decisiones éticas y de política pública más puntuales. Más allá que, visto desde la amplitud de lo que implica el “razonamiento humano”, siempre exista sustitución, por detrás de esto reside una discusión profunda muy conocida en el ámbito de la ética de la IA a nivel general: la tensión entre eficiencia y explicabilidad en los sistemas de IA. Un criterio para resolverla en el ámbito de la justicia podría ser el siguiente: privilegiar más la eficiencia o la explicabilidad dependerá de la función del sistema y de lo que se quiera lograr: así, debe haber mayor explicabilidad en tanto haya mayor injerencia en la decisión; y mayor eficiencia en tanto haya menor injerencia en la decisión (aunque todavía se debería determinar qué grado de explicabilidad se puede o se debe lograr).

Así, adoptar a rajatabla el principio de que “nunca debe haber sustitución” o blindar el uso de la IA en “actividades irremplazables” no sólo no resuelve los problemas; más bien genera muchos otros. La tecnología avanza y hay sistemas que pueden contribuir decisivamente a la eficiencia en la adopción de la decisión judicial (piénsese, además, que hay muchos costos involucrados a nivel macro). El encapsulamiento tecnológico no siempre es una buena idea. Pero, en contraste con ello, mucho se ha avanzado en las discusiones sobre ética de la IA que bien los procesalistas podríamos aprovechar para reorientar nuestras discusiones académicas; ello es decisivo para, a su vez, alimentar y dar forma a las decisiones políticas.

1 Comments on “Inteligencia artificial: ¿Sustituyendo al juez?”

Deja un comentario