UNESCO difundió recientemente el documento titulado “Guidelines for the Use of AI Systems in Courts and Tribunals”, destinado a fijar un marco global para la incorporación responsable de tecnologías de inteligencia artificial en los sistemas judiciales del mundo.
La publicación, integrada por principios y una serie de recomendaciones operativas, llega en un contexto de expansión acelerada de herramientas basadas en IA y de uso creciente por jueces, funcionarios judiciales, abogados y operadores jurídicos.
“Las autoridades judiciales deberían estudiar periódicamente cómo sus miembros utilizan los sistemas de IA. La investigación podría documentar casos prácticos para mostrar buenas prácticas y posibles obstáculos que deben evitarse.”
El organismo plantea que la transformación digital ya no es un horizonte distante: múltiples jurisdicciones emplean sistemas algorítmicos para clasificación de documentos, traducción automática, gestión de expedientes, análisis predictivo y asistencia en redacción de sentencias. Sin embargo, la adopción resulta desigual y, en ocasiones, carente de estándares mínimos de transparencia, seguridad y respeto a los derechos humanos.
“Las autoridades judiciales deberían estudiar periódicamente cómo sus miembros utilizan los sistemas de IA. La investigación podría documentar casos prácticos para mostrar buenas prácticas y posibles obstáculos que deben evitarse.”, expresa dicho documento.
La guía parte de un diagnóstico: sin controles adecuados, el uso de IA en la justicia puede vulnerar principios esenciales -como debido proceso, igualdad ante la ley y no discriminación- y afectar la independencia judicial. Por ese motivo, UNESCO establece un piso normativo al que los sistemas judiciales deberían ajustar todo desarrollo, adquisición o uso de herramientas de IA.
“Las herramientas de IA no sustituyen el razonamiento jurídico cualificado, el juicio humano ni el asesoramiento legal personalizado. Por ejemplo, los chatbots de IA impulsados por LLM generan texto uniendo secuencias de formas lingüísticas detectadas en sus datos de entrenamiento «según información probabilística sobre cómo se combinan, pero sin referencia alguna al significado».”
Los sistemas deben respetar, proteger y promover derechos fundamentales, con especial cuidado hacia mujeres, personas con discapacidad, niños, migrantes y otros grupos vulnerables, explica el texto, a la par que enfatiza la necesidad de evitar que los modelos reproduzcan sesgos o generen impactos desiguales.
“Las herramientas de IA no sustituyen el razonamiento jurídico cualificado, el juicio humano ni el asesoramiento legal personalizado. Por ejemplo, los chatbots de IA impulsados por LLM generan texto uniendo secuencias de formas lingüísticas detectadas en sus datos de entrenamiento «según información probabilística sobre cómo se combinan, pero sin referencia alguna al significado».”, se lee en la guía.
Se establece que la inteligencia artificial puede mejorar la eficiencia y ampliar el acceso a justicia, pero también crear riesgos inéditos. Por ello, sostiene que la adopción debe ser cautelosa, gradual y centrada en el ser humano, sin delegar facultades jurisdiccionales ni permitir que sistemas opacos influyan decisivamente en la vida de las personas.
El documento dedica un apartado a los modelos de lenguaje generativo, cuya presencia en juzgados y estudios jurídicos creció exponencialmente. UNESCO advierte que no deben utilizarse para elaborar pruebas, reemplazar pericias ni producir razonamientos jurídicos autónomos, tampoco deben incluirse datos personales o confidenciales en prompts, especialmente cuando se usan modelos comerciales de acceso abierto.
UNESCO fue contundente al señalar la inteligencia artificial puede mejorar la eficiencia y ampliar el acceso a justicia, pero también puede crear riesgos inéditos. Por ello, pone de resalto que la adopción debe ser cautelosa, gradual y centrada en el ser humano, sin delegar facultades jurisdiccionales ni permitir que sistemas opacos influyan decisivamente en la vida de las personas.