El juicio comenzó sin jueces. Ni abogados. Ni estrados de madera noble. Al demandante lo representaba una inteligencia artificial, y al Estado, otra. El árbitro del proceso era un algoritmo entrenado con millones de sentencias previas. Era un experimento, sí. Pero también una advertencia: el futuro del litigio está siendo redactado en lenguaje de programación. Y nadie —ni los jueces ni los juristas tradicionales— parece tener del todo claro quién está escribiendo el código.

La irrupción de la IA en los tribunales

El derecho ha sido, desde siempre, un ritual humano. Una coreografía que mezcla solemnidad y palabra, donde las personas visten trajes para hablar con mayor legitimidad, y las decisiones se redactan en términos a veces complejos e inentendibles. Sin embargo, en los márgenes de este teatro solemne, la inteligencia artificial comienza a desplegar su propia gramática. Silenciosa, sin ropaje ni humanidad, pero con una eficacia que incomoda.

Quizás el fenómeno no sea nuevo —ya convivimos con algoritmos que nos sugieren qué mirar, qué comprar, incluso con quién intimar—, pero su irrupción en el ámbito judicial trastoca algo más profundo. ¿Puede una máquina participar de un debate sobre aquello que es justo? ¿Puede interpretar, ponderar, decidir? ¿Puede sustituir aquello que, hasta ahora, creíamos reservado al juicio humano?

Hay ejemplos. Algunos espeluznantes.

El algoritmo ante el estrado: ¿Puede la inteligencia artificial ser abogada o jueza?

En Estados Unidos, existe un sistema llamado COMPAS, que otorga puntajes de riesgo a personas acusadas de delitos, para determinar la posibilidad de reincidencia. Una puntuación, como si la libertad —o la posibilidad de que alguien pretenda huir de la justicia— pudiera cuantificarse tan sencillamente. Ese número, opaco y no explicable —propiedad de una empresa privada—, convenció a más de un juez norteamericano para aplicar condenas de muchos años de prisión, o admitir la prisión preventiva en diversos casos. No hay instancia de contradicción ni de explicación. Hay un cálculo, frío, definitivo. Un oráculo moderno disfrazado de neutralidad matemática.

En China, algunas provincias experimentan con “tribunales inteligentes”. No es un título de ciencia ficción. En Hangzhou, por ejemplo, ciertos conflictos menores son resueltos por sistemas automatizados que emiten decisiones sin intervención humana. El proceso es digital, el fallo es algorítmico. No hay juez. No hay juicio. No hay tiempo procesal. Lo que hay es velocidad, eficiencia, y la inquietud persistente de que algo esencial se pierde cuando el conflicto humano es procesado como si fuera una ecuación.

Estonia ensaya con jueces robot para casos civiles simples. Francia y Reino Unido experimentan con softwares que analizan jurisprudencia y sugieren estrategias legales. En América Latina, el avance es más tibio, pero no inexistente. En Colombia y Brasil, la IA colabora en la distribución de causas y la predicción de cargas de trabajo. En Argentina, algunas fiscalías ya utilizan asistentes digitales que sugieren calificaciones legales preliminares a partir de los hechos narrados por las víctimas; en algunas provincias como Río Negro se utiliza IA para redactar ciertos dictámenes judiciales. No son aún decisores, pero tampoco son inocuos. Su sola presencia transforma las condiciones de producción de la justicia.

El algoritmo ante el estrado: ¿Puede la inteligencia artificial ser abogada o jueza?

Imagen: Confilegal

No se trata aquí de una mirada tecnófoba, al contrario, quién escribe es un entusiasta de la tecnología. La inteligencia artificial puede ofrecer herramientas valiosas: acortar plazos, reducir costos, democratizar el acceso a información jurídica. Pero también puede amplificar sesgos, opacar decisiones, deshumanizar el proceso. Un algoritmo que recomienda sentencias en función de patrones estadísticos puede reforzar injusticias estructurales, sin que nadie lo note, porque su autoridad parecerá técnica, neutral, objetiva.

Pero el derecho no es eso. Es una mezcla de ritos, creencias, ciencia y disputas de poder: es decir, un campo de batalla inherentemente cambiante, en tensión y subjetivo por demás. Es interpretación, es lenguaje, es tensión entre la norma y el caso, es una batalla dialéctica entre las partes. Y por eso la pregunta no es solo si una IA puede operar en los tribunales, sino si puede formar parte del acto humano de juzgar: si puede comprender el silencio de una víctima, la contradicción en el discurso de un testigo, la ambigüedad deliberada de un abogado que no busca precisión, sino persuasión.

En esta escena de transición —ni totalmente humana, ni del todo automatizada—, conviven antiguos rituales con nuevas lógicas de datos. Y mientras tanto, el sistema judicial parece caminar sobre una cornisa: entre la promesa de la eficiencia y el riesgo de la deshumanización. Como si el juicio se estuviera desplazando de la plaza pública a una nube de servidores, y nadie supiera aún quién tiene la última palabra.

El algoritmo ante el estrado: ¿Puede la inteligencia artificial ser abogada o jueza?

Conclusión: El juicio como refugio de lo humano

La inteligencia artificial avanza sin pedir permiso. Su lenguaje es otro: no conoce la duda, no vacila, no necesita almorzar ni dormir. Mientras tanto, el derecho —con sus tiempos lentos, sus formas heredadas del siglo XIX, sus latencias humanas— parece a veces una pieza de museo. Y sin embargo, en ese desajuste tal vez habite su mayor virtud: ser el último espacio donde el conflicto no se resuelve por cálculo, sino por el profundo y esencial acto humano de interpretar e inferir.

¿Puede un chatbot ser abogado? Sí. Ya lo es, al menos en tareas básicas, repetitivas, procesales. ¿Puede ser juez? Quizás también. Pero lo más importante no es si puede, sino si debe.

Porque el derecho no es solo una técnica. Es una narrativa social que condensa un clima de época y la cosmovisión hegemónica de una era política. Un lenguaje de lo posible, pero también de lo justo. Y hay algo en el juicio —en su teatralidad, en su tiempo dilatado, en su potencia simbólica— que se resiste a la automatización. Una escena donde se juega el límite entre la norma y la excepción. Entre lo que se espera y lo que se merece.

La inteligencia artificial, con todo su poder, puede ayudarnos a hacer más eficientes los procesos, a reducir el error humano, a democratizar el acceso a la información jurídica. Pero no puede —al menos por ahora— captar el dolor de una víctima, la ironía de un testigo, el tono quebrado de una confesión. No puede comprender que la justicia, en su forma más compleja, no siempre es predecible. Que hay casos donde la ley escrita es insuficiente, y donde el único camino posible es el de la interpretación.

Y eso —esa grieta entre el dato y el dolor— es todavía terreno humano.

Lo que está en juego, entonces, no es solo cómo usamos las herramientas. Es qué tipo de justicia queremos habitar. Y si, en la búsqueda de una eficiencia absoluta, no estaremos firmando la sentencia de muerte del juicio como espacio ético, como experiencia comunitaria, como drama humano.

Quizás, en un futuro no tan lejano, la mayoría de los litigios menores se resuelvan por IA. Y quizás esté bien. Pero que quede, al menos, una trinchera. Un espacio donde la palabra todavía importe. Donde se escuche, se dude, se repare.

Un espacio donde no todo sea código.