03 de Diciembre de 2025
Edición 7348 ISSN 1667-8486
Próxima Actualización: 04/12/2025
La ONU advierte sobre el impacto de la IA

La justicia no se programa

Un informe de la Relatora Especial sobre la independencia de magistrados y abogados, alertó al Consejo de Derechos Humanos de la ONU sobre los riesgos que conlleva el uso de sistemas de inteligencia artificial en los sistemas judiciales.

(IA Meta)
Por:
Santiago
Rubin
Por:
Santiago
Rubin

Un informe de la Relatora Especial sobre la independencia de magistrados y abogados, dependiente Consejo de Derechos Humanos de las Naciones Unidas en su, analiza cómo los sistemas de inteligencia artificial (IA) impactan en la función judicial y en el ejercicio independiente de la abogacía.

El documento subraya que la introducción de la IA en la administración de justicia —a través de herramientas de análisis predictivo, gestión de expedientes o apoyo a decisiones— presenta oportunidades de eficiencia, pero también plantea riesgos serios si no se adoptan salvaguardas adecuadas.

En el texto se advierte que el uso creciente de sistemas automatizados en los tribunales puede afectar la autonomía decisional de jueces y magistrados, especialmente cuando los algoritmos generan sugerencias o predicciones que influyen en la valoración de pruebas o en la determinación de sentencias.

 

“La tendencia humana a seguir las recomendaciones de los algoritmos y a confiar en la calidad aparentemente científica de la IA puede, de forma casi imperceptible, erosionar la discrecionalidad judicial y conducir al sesgo de automatización.”

 

El informe señala que la delegación de funciones jurisdiccionales en sistemas opacos, cuyo funcionamiento no siempre es comprensible ni auditable, puede socavar el principio de independencia judicial y el derecho de las partes a un debido proceso.

“La tendencia humana a seguir las recomendaciones de los algoritmos y a confiar en la calidad aparentemente científica de la IA puede, de forma casi imperceptible, erosionar la discrecionalidad judicial y conducir al sesgo de automatización.”, se alertó.

Asimismo, la relatora resalta que el uso de IA en etapas críticas del proceso —como la evaluación de riesgos o la fijación de penas— puede introducir sesgos estructurales, replicando desigualdades históricas o discriminación algorítmica. “El juez no debe convertirse en un operador técnico de decisiones automatizadas”, advierte el documento.

“En una decisión histórica de 2025 sobre el uso judicial de la IA, el Tribunal Supremo del Pakistán observó que “la justicia debe ser vista como legítima por aquellos a quienes sirve, y esta legitimidad se deriva de la creencia de que otro ser humano ha escuchado, comprendido y actuado realmente con conciencia.”, se tomó como ejemplo.

En materia de transparencia y rendición de cuentas, el informe enfatiza que toda incorporación de IA en la justicia debe estar acompañada de criterios claros de transparencia y supervisión. Los Estados deben garantizar que los sistemas sean auditables, explicables y sujetos a control humano efectivo.

 

“Existe el riesgo de que el sesgo de automatización —la tendencia a considerar acríticamente que las soluciones ofrecidas por la tecnología, como la IA, son correctas— haga ineficaz la aportación humana.”

 

En este sentido, la Relatora insta a los poderes judiciales a conservar la autoridad última sobre toda decisión y a mantener la capacidad de revisar y justificar los resultados producidos por herramientas tecnológicas.

“Existe el riesgo de que el sesgo de automatización —la tendencia a considerar acríticamente que las soluciones ofrecidas por la tecnología, como la IA, son correctas— haga ineficaz la aportación humana.”, continúa advirtiendo. 

"La verificación se ve a menudo como un correctivo a los riesgos de la IA… Sin embargo, algunos sistemas no son susceptibles de tal revisión, ya que un juez no puede entrar fácilmente en la caja negra de un algoritmo y determinar si se basó en datos erróneos o discriminatorios. La judicatura debe considerar si la verificación es factible y cuándo, y evaluar rigurosamente los riesgos de externalizar tareas a la IA a la luz de esa evaluación.", se expresa en dicho sentido. 

Protección de la función legal y confidencialidad

Otro aspecto abordado en el documento es la necesidad de proteger la confidencialidad de las comunicaciones abogado-cliente frente a sistemas de IA que procesan datos sensibles. Sosteniéndose que el uso de plataformas digitales en la práctica profesional debe respetar el secreto profesional y el derecho de defensa.

 

“La Relatora Especial considera que el derecho a ser oído por un tribunal independiente e imparcial requiere el derecho a la asistencia de un letrado elegido libremente, requiere el acceso a un abogado humano.”

 

La relatora también menciona el riesgo de vigilancia masiva o recolección de datos personales en entornos judiciales y abogacía, lo que podría vulnerar la privacidad de litigantes y operadores judiciales.

“La Relatora Especial considera que el derecho a ser oído por un tribunal independiente e imparcial requiere el derecho a la asistencia de un letrado elegido libremente, requiere el acceso a un abogado humano.”, indica el documento, que agrega: “Por mucho que se haya avanzado en el desarrollo de una IA jurídica especializada, la tecnología no puede ofrecer todos los servicios de un abogado”.

Entre las principales recomendaciones, el informe propone prohibir el uso de sistemas de IA que sustituyan la toma de decisiones judiciales; garantizar la intervención humana significativa en todas las etapas del proceso.; fomentar la capacitación de magistrados, abogados y funcionarios sobre los alcances y límites de la IA.

Finalmente, la Relatora llama a los Estados y organismos judiciales a adoptar un enfoque de “IA centrada en los derechos humanos”, donde la tecnología sea una herramienta de apoyo, y no un factor de sustitución del juicio y criterio humanos.

Documento relacionado:


Estimado colega periodista: si va a utilizar parte esta nota o del fallo adjunto como "inspiración" para su producción, por favor cítenos como fuente incluyendo el link activo a http://www.diariojudicial.com. Si se trata de una nota firmada, no omita el nombre del autor. Muchas gracias.

Notas relacionadas:
La Justicia de Nueva York se sube al tren de la IA
La IA como herramienta, no como juez
La alzada pidió la intervención del TSJ
Al juez lo condenó ChatGPT
Otra vez las alucinaciones judiciales
Gol en contra por usar mal ChatGPT
Cuidado con el mal uso de la IA
Chanta-GPT
Uso de Inteligencia Artificial en la Justicia
La máquina suma, el juez decide

VOLVER A LA TAPA

Diariojudicial.com es un emprendimiento de Diario Judicial.com S.A.
Propietario: Diario Judicial.com S.A. Amenábar 590 Ciudad Autónoma de Buenos Aires
Directora: Esther Analía Zygier. Registro de propiedad intelectual 54570890 Ley 11.723.
Descarga
la portada del diario en formato PDF

Reciba diariamente por e-mail todas las noticias del ámbito judicial.
Copyright ® 1999 - 2025 . Diario Judicial. Todos los derechos reservadores. ISSSN 1667-8486