Un informe de la Relatora Especial sobre la independencia de magistrados y abogados, dependiente Consejo de Derechos Humanos de las Naciones Unidas en su, analiza cómo los sistemas de inteligencia artificial (IA) impactan en la función judicial y en el ejercicio independiente de la abogacía.
El documento subraya que la introducción de la IA en la administración de justicia —a través de herramientas de análisis predictivo, gestión de expedientes o apoyo a decisiones— presenta oportunidades de eficiencia, pero también plantea riesgos serios si no se adoptan salvaguardas adecuadas.
En el texto se advierte que el uso creciente de sistemas automatizados en los tribunales puede afectar la autonomía decisional de jueces y magistrados, especialmente cuando los algoritmos generan sugerencias o predicciones que influyen en la valoración de pruebas o en la determinación de sentencias.
“La tendencia humana a seguir las recomendaciones de los algoritmos y a confiar en la calidad aparentemente científica de la IA puede, de forma casi imperceptible, erosionar la discrecionalidad judicial y conducir al sesgo de automatización.”
El informe señala que la delegación de funciones jurisdiccionales en sistemas opacos, cuyo funcionamiento no siempre es comprensible ni auditable, puede socavar el principio de independencia judicial y el derecho de las partes a un debido proceso.
“La tendencia humana a seguir las recomendaciones de los algoritmos y a confiar en la calidad aparentemente científica de la IA puede, de forma casi imperceptible, erosionar la discrecionalidad judicial y conducir al sesgo de automatización.”, se alertó.
Asimismo, la relatora resalta que el uso de IA en etapas críticas del proceso —como la evaluación de riesgos o la fijación de penas— puede introducir sesgos estructurales, replicando desigualdades históricas o discriminación algorítmica. “El juez no debe convertirse en un operador técnico de decisiones automatizadas”, advierte el documento.
“En una decisión histórica de 2025 sobre el uso judicial de la IA, el Tribunal Supremo del Pakistán observó que “la justicia debe ser vista como legítima por aquellos a quienes sirve, y esta legitimidad se deriva de la creencia de que otro ser humano ha escuchado, comprendido y actuado realmente con conciencia.”, se tomó como ejemplo.
En materia de transparencia y rendición de cuentas, el informe enfatiza que toda incorporación de IA en la justicia debe estar acompañada de criterios claros de transparencia y supervisión. Los Estados deben garantizar que los sistemas sean auditables, explicables y sujetos a control humano efectivo.
“Existe el riesgo de que el sesgo de automatización —la tendencia a considerar acríticamente que las soluciones ofrecidas por la tecnología, como la IA, son correctas— haga ineficaz la aportación humana.”
En este sentido, la Relatora insta a los poderes judiciales a conservar la autoridad última sobre toda decisión y a mantener la capacidad de revisar y justificar los resultados producidos por herramientas tecnológicas.
“Existe el riesgo de que el sesgo de automatización —la tendencia a considerar acríticamente que las soluciones ofrecidas por la tecnología, como la IA, son correctas— haga ineficaz la aportación humana.”, continúa advirtiendo.
"La verificación se ve a menudo como un correctivo a los riesgos de la IA… Sin embargo, algunos sistemas no son susceptibles de tal revisión, ya que un juez no puede entrar fácilmente en la caja negra de un algoritmo y determinar si se basó en datos erróneos o discriminatorios. La judicatura debe considerar si la verificación es factible y cuándo, y evaluar rigurosamente los riesgos de externalizar tareas a la IA a la luz de esa evaluación.", se expresa en dicho sentido.
Protección de la función legal y confidencialidad
Otro aspecto abordado en el documento es la necesidad de proteger la confidencialidad de las comunicaciones abogado-cliente frente a sistemas de IA que procesan datos sensibles. Sosteniéndose que el uso de plataformas digitales en la práctica profesional debe respetar el secreto profesional y el derecho de defensa.
“La Relatora Especial considera que el derecho a ser oído por un tribunal independiente e imparcial requiere el derecho a la asistencia de un letrado elegido libremente, requiere el acceso a un abogado humano.”
La relatora también menciona el riesgo de vigilancia masiva o recolección de datos personales en entornos judiciales y abogacía, lo que podría vulnerar la privacidad de litigantes y operadores judiciales.
“La Relatora Especial considera que el derecho a ser oído por un tribunal independiente e imparcial requiere el derecho a la asistencia de un letrado elegido libremente, requiere el acceso a un abogado humano.”, indica el documento, que agrega: “Por mucho que se haya avanzado en el desarrollo de una IA jurídica especializada, la tecnología no puede ofrecer todos los servicios de un abogado”.
Entre las principales recomendaciones, el informe propone prohibir el uso de sistemas de IA que sustituyan la toma de decisiones judiciales; garantizar la intervención humana significativa en todas las etapas del proceso.; fomentar la capacitación de magistrados, abogados y funcionarios sobre los alcances y límites de la IA.
Finalmente, la Relatora llama a los Estados y organismos judiciales a adoptar un enfoque de “IA centrada en los derechos humanos”, donde la tecnología sea una herramienta de apoyo, y no un factor de sustitución del juicio y criterio humanos.