17 de Diciembre de 2025
Edición 7357 ISSN 1667-8486
Próxima Actualización: 18/12/2025
Justicia y algoritmos

La IA, sin toga ni martillo

UNESCO publicó sus nuevas directrices globales para el uso responsable de sistemas de inteligencia artificial en cortes y tribunales. "Las autoridades judiciales deberían estudiar periódicamente cómo sus miembros utilizan los sistemas de IA", recomienda el texto.

(IA Meta)
Por:
Santiago
Rubin
Por:
Santiago
Rubin

UNESCO difundió recientemente el documento titulado “Guidelines for the Use of AI Systems in Courts and Tribunals”, destinado a fijar un marco global para la incorporación responsable de tecnologías de inteligencia artificial en los sistemas judiciales del mundo. 

La publicación, integrada por principios y una serie de recomendaciones operativas, llega en un contexto de expansión acelerada de herramientas basadas en IA y de uso creciente por jueces, funcionarios judiciales, abogados y operadores jurídicos.

 

“Las autoridades judiciales deberían estudiar periódicamente cómo sus miembros utilizan los sistemas de IA. La investigación podría documentar casos prácticos para mostrar buenas prácticas y posibles obstáculos que deben evitarse.”

 

El organismo plantea que la transformación digital ya no es un horizonte distante: múltiples jurisdicciones emplean sistemas algorítmicos para clasificación de documentos, traducción automática, gestión de expedientes, análisis predictivo y asistencia en redacción de sentencias. Sin embargo, la adopción resulta desigual y, en ocasiones, carente de estándares mínimos de transparencia, seguridad y respeto a los derechos humanos.

“Las autoridades judiciales deberían estudiar periódicamente cómo sus miembros utilizan los sistemas de IA. La investigación podría documentar casos prácticos para mostrar buenas prácticas y posibles obstáculos que deben evitarse.”, expresa dicho documento.

La guía parte de un diagnóstico: sin controles adecuados, el uso de IA en la justicia puede vulnerar principios esenciales -como debido proceso, igualdad ante la ley y no discriminación- y afectar la independencia judicial. Por ese motivo, UNESCO establece un piso normativo al que los sistemas judiciales deberían ajustar todo desarrollo, adquisición o uso de herramientas de IA.

 

“Las herramientas de IA no sustituyen el razonamiento jurídico cualificado, el juicio humano ni el asesoramiento legal personalizado. Por ejemplo, los chatbots de IA impulsados ​​por LLM generan texto uniendo secuencias de formas lingüísticas detectadas en sus datos de entrenamiento «según información probabilística sobre cómo se combinan, pero sin referencia alguna al significado».”

 

Los sistemas deben respetar, proteger y promover derechos fundamentales, con especial cuidado hacia mujeres, personas con discapacidad, niños, migrantes y otros grupos vulnerables, explica el texto, a la par que enfatiza la necesidad de evitar que los modelos reproduzcan sesgos o generen impactos desiguales.

“Las herramientas de IA no sustituyen el razonamiento jurídico cualificado, el juicio humano ni el asesoramiento legal personalizado. Por ejemplo, los chatbots de IA impulsados ​​por LLM generan texto uniendo secuencias de formas lingüísticas detectadas en sus datos de entrenamiento «según información probabilística sobre cómo se combinan, pero sin referencia alguna al significado».”, se lee en la guía. 

 

Se establece que la inteligencia artificial puede mejorar la eficiencia y ampliar el acceso a justicia, pero también crear riesgos inéditos. Por ello, sostiene que la adopción debe ser cautelosa, gradual y centrada en el ser humano, sin delegar facultades jurisdiccionales ni permitir que sistemas opacos influyan decisivamente en la vida de las personas.

 

El documento dedica un apartado a los modelos de lenguaje generativo, cuya presencia en juzgados y estudios jurídicos creció exponencialmente. UNESCO advierte que no deben utilizarse para elaborar pruebas, reemplazar pericias ni producir razonamientos jurídicos autónomos, tampoco deben incluirse datos personales o confidenciales en prompts, especialmente cuando se usan modelos comerciales de acceso abierto.

UNESCO fue contundente al señalar la inteligencia artificial puede mejorar la eficiencia y ampliar el acceso a justicia, pero también puede crear riesgos inéditos. Por ello, pone de resalto que la adopción debe ser cautelosa, gradual y centrada en el ser humano, sin delegar facultades jurisdiccionales ni permitir que sistemas opacos influyan decisivamente en la vida de las personas.



Estimado colega periodista: si va a utilizar parte esta nota o del fallo adjunto como "inspiración" para su producción, por favor cítenos como fuente incluyendo el link activo a http://www.diariojudicial.com. Si se trata de una nota firmada, no omita el nombre del autor. Muchas gracias.

Notas relacionadas:
Nueva regulación bonaerense para sistemas inteligentes
IA con papeles
Otra vez el mal uso de IA
ChatGPT no es tu pasante
La ONU advierte sobre el impacto de la IA
La justicia no se programa
La Justicia de Nueva York se sube al tren de la IA
La IA como herramienta, no como juez

VOLVER A LA TAPA

Diariojudicial.com es un emprendimiento de Diario Judicial.com S.A.
Propietario: Diario Judicial.com S.A. Amenábar 590 Ciudad Autónoma de Buenos Aires
Directora: Esther Analía Zygier. Registro de propiedad intelectual 54570890 Ley 11.723.
Descarga
la portada del diario en formato PDF

Reciba diariamente por e-mail todas las noticias del ámbito judicial.
Copyright ® 1999 - 2025 . Diario Judicial. Todos los derechos reservadores. ISSSN 1667-8486