Esta transformación, si bien promete eficiencia y accesibilidad, plantea riesgos profundos para los pilares del Estado de derecho: la imparcialidad, la transparencia, el debido proceso y, sobre todo, la responsabilidad personal del juez.
En este contexto, la reciente Guía para el Uso de Inteligencia Artificial (IA) del Poder Judicial de la Provincia del Chaco (Resolución STJ Nº 961/2025) emerge como un hito dentro de un movimiento creciente de autorregulación judicial subnacional en Argentina[1]. Al prohibir expresamente la delegación de la toma de decisiones y exigir supervisión humana continua, dicha norma reafirma un principio fundamental: la justicia es, y debe seguir siendo, una actividad eminentemente humana. No obstante, la mera existencia de directrices éticas no basta. Es necesario articularlas con los principios constitucionales y procesales vigentes, particularmente el artículo 18 de la Constitución Nacional y el artículo 8 del Código Procesal Penal de la Nación, que consagra el deber de fundar toda resolución judicial.
Este trabajo sostiene que el uso de IA por parte de magistrados sólo es compatible con el Estado de derecho si se concibe como una herramienta auxiliar sometida a control humano riguroso. A partir del análisis de estándares internacionales, jurisprudencia argentina y normas procesales provinciales, se argumentará que la responsabilidad judicial no puede externalizarse ni diluirse en la opacidad algorítmica. La función del juez trasciende la mera aplicación de normas: implica prudencia, equidad y sensibilidad ante la complejidad humana, virtudes que ningún sistema automatizado puede replicar.
1. La promesa y los límites de la inteligencia artificial en la administración de justicia
La inteligencia artificial (IA) ha irrumpido en el ámbito judicial con la promesa de modernizar un sistema tradicionalmente sobrecargado, lento y desigual. Sus aplicaciones potenciales son diversas: desde la gestión automatizada de expedientes y la asignación algorítmica de causas, hasta el análisis predictivo de sentencias, la redacción asistida de resoluciones o la identificación de patrones en grandes volúmenes de jurisprudencia[2]. En contextos de alta litigiosidad y escasez de recursos, estas herramientas parecen ofrecer una solución técnica a problemas estructurales.
Un algoritmo que predice el riesgo de reincidencia, por ejemplo, puede influir en la decisión de otorgar o denegar la excarcelación, pero si su lógica es inescrutable o está basada en datos sesgados, viola el principio de razonabilidad y el derecho a un tratamiento individualizado
Sin embargo, detrás de esta promesa de eficiencia se esconden riesgos profundos que no pueden ignorarse. La IA, especialmente en sus formas más avanzadas —como los modelos de lenguaje generativos (LLMs)—, no es neutral ni infalible. Por el contrario, opera a partir de datos históricos que pueden reproducir sesgos sociales, raciales o de género; su funcionamiento suele ser opaco (“caja negra”); y carece de la capacidad humana para ponderar valores, ejercer la prudencia o comprender el contexto singular de cada caso[3]. Cuando estos sistemas se utilizan sin salvaguardas, corremos el riesgo de automatizar la injusticia en lugar de corregirla.
Este dilema es particularmente agudo en el ámbito penal, donde las decisiones judiciales afectan derechos fundamentales como la libertad personal, la presunción de inocencia o la intimidad. Un algoritmo que predice el riesgo de reincidencia, por ejemplo, puede influir en la decisión de otorgar o denegar la excarcelación, pero si su lógica es inescrutable o está basada en datos sesgados, viola el principio de razonabilidad y el derecho a un tratamiento individualizado[4].
En este contexto, la respuesta no puede ser ni el rechazo absoluto ni la adopción acrítica. Como señala Daniel Pastor, “la IA en justicia debe concebirse como una herramienta de apoyo, no como un sustituto del juicio humano”[5]. Su valor radica en liberar al juez de tareas repetitivas, permitiéndole concentrarse en lo que verdaderamente define su función: interpretar, ponderar, decidir con equidad y motivar razonadamente. Pero para que esa promesa se cumpla, es indispensable establecer límites claros, principios éticos robustos y mecanismos de control efectivos.
La reciente Guía para el Uso de Inteligencia Artificial (IA) del Poder Judicial de la Provincia del Chaco (Resolución STJ Nº 961/2025) representa un paso firme en esa dirección. Al reconocer tanto las oportunidades como los riesgos, y al imponer como principio rector la supervisión humana continua, dicha norma sienta las bases para una integración responsable de la tecnología en la función jurisdiccional[6].
2.2. La Guía 961.2025 del Poder Judicial del Chaco como marco institucional
Lejos de surgir en un vacío normativo absoluto, la Resolución STJ Nº 961/2025 del Poder Judicial de la Provincia del Chaco se inscribe en un movimiento creciente de autorregulación judicial a nivel subnacional en Argentina. Si bien aún no existe una normativa federal vinculante sobre el uso de inteligencia artificial en el ámbito judicial, varias provincias han asumido un rol pionero en la elaboración de protocolos éticos y operativos para regular esta tecnología.
La propia Guía chaqueña reconoce expresamente este contexto, al citar instrumentos similares adoptados en:
Río Negro (Acordada N° 15/2024),
San Juan (Acordada N° 102/2024),
Ciudad Autónoma de Buenos Aires (Resolución de Presidencia N° 206/2025),
Formosa (Acuerdo N° 3234, Pto. 3°),
Jujuy (Resolución N° 31/2025),
y Santa Fe (Acuerdo del 06/03/2025).
Estos documentos, aunque con matices propios, comparten principios comunes: prohibición de delegación de decisiones, deber de supervisión humana, protección de datos personales, transparencia en el uso de fuentes y responsabilidad del magistrado por el contenido final de sus resoluciones. En este sentido, la Guía chaqueña no es un caso aislado, sino parte de una tendencia regional hacia la autorregulación ética y técnica del Poder Judicial frente a la IA.
Aprobada por el Superior Tribunal de Justicia el 14 de noviembre de 2025 y vigente desde el 17 de noviembre del mismo año, la Guía para el Uso de Inteligencia Artificial (IA) establece deberes concretos y límites precisos para magistrados, funcionarios y personal auxiliar que utilicen herramientas de IA en el ejercicio de sus funciones. El documento parte de un reconocimiento realista: la IA ya está presente en la práctica judicial, ya sea en la redacción de escritos, la búsqueda jurisprudencial o el análisis de grandes volúmenes de información.
Frente a esta realidad, la Guía opta por un enfoque de gestión responsable, no de prohibición. Sin embargo, traza una línea roja inquebrantable: “En ningún caso se permite la delegación de la toma de decisiones”. Esta prohibición [de delegación en IA] no es meramente técnica; es una reafirmación del principio de responsabilidad personal del juez, consagrado en el artículo 154 de la Constitución de la Provincia del Chaco, que exige buena conducta, cumplimiento de obligaciones legales y prohíbe el mal desempeño o el desconocimiento inexcusable del derecho.
La Guía impone tres deberes fundamentales:
Verificación crítica: contrastar toda información generada por IA con fuentes fidedignas.
Transparencia: registrar en la sentencia el razonamiento y las fuentes consultadas.
Supervisión humana continua: controlar todo el proceso, desde la consulta hasta la revisión final.
Estas disposiciones no solo anticipan los riesgos de “alucinaciones”, sino que los enfrentan con herramientas procesales concretas. Además, la norma chaqueña se distingue por su enfoque preventivo y formativo, promoviendo la capacitación continua y la creación de protocolos internos. Este enfoque coincide con las mejores prácticas internacionales, pero las adapta al contexto institucional local, reconociendo tanto las oportunidades como los límites de la innovación tecnológica en la función jurisdiccional.
En definitiva, la Guía 961.2025 no es un mero documento administrativo. Es una declaración de principios éticos y procesales que posiciona al Poder Judicial del Chaco dentro de una red de tribunales provinciales comprometidos con una justicia digital humana, transparente y responsable.
3. Responsabilidad del juez en la era de la IA generativa
El uso de inteligencia artificial por parte de magistrados plantea una cuestión de fondo: ¿puede un juez confiar en la información proporcionada por un sistema algorítmico sin verificarla? La respuesta, tanto desde la doctrina como desde la jurisprudencia emergente, es clara: no.
3.1. Motivación razonada y prohibición de delegación
El artículo 8 del Código Procesal Penal de la Nación establece que *“toda resolución judicial deberá ser fundada, expresando los hechos y las razones de derecho en que se apoya”[7]. A nivel provincial, el Código Procesal Penal de la Provincia del Chaco desarrolla esta exigencia en los artículos 417 y 423: el primero exige que la sentencia contenga “la exposición concisa de los motivos de hecho y de derecho en que se basen” las decisiones del tribunal; el segundo declara la nulidad de la sentencia si se basa en elementos probatorios no incorporados legalmente al debate o si su fundamentación es insuficiente, contradictoria o viola las reglas de la sana crítica racional.
Esta obligación no admite externalización. La motivación no es un trámite formal, sino una garantía constitucional vinculada al artículo 18 de la Constitución Nacional, que prohíbe las decisiones arbitrarias.
La Guía 961.2025 refuerza esta postura al exigir que el juez “verifique la exactitud de la información y asegure que el razonamiento y las fuentes consultadas queden debidamente reflejados en la sentencia”[8]. Esto implica que, si un magistrado utiliza IA para redactar un borrador, analizar jurisprudencia o interpretar datos, debe: 1) Contrastar la información con fuentes fidedignas, 2) Descartar referencias inexistentes o erróneas, y 3) asumir plena responsabilidad por el contenido final.
3.2. Jurisprudencia argentina: el precedente González c/ Santoro
La Suprema Corte de Justicia de la Provincia de Buenos Aires ha sido contundente al respecto: “una decisión dictada con sustento en información recabada de internet, sin haber sido ofrecida ni producida como prueba en el proceso, carece de sustento probatorio idóneo y se apoya en arbitrio exclusivo del tribunal”[9]. Este precedente, aunque no involucra IA directamente, es plenamente aplicable: ningún elemento externo al debate procesal puede ingresar a la sentencia sin control contradictorio.
3.3. Riesgos de “alucinaciones” y falsa jurisprudencia
En Argentina, ya se han registrado casos en los que operadores jurídicos —incluidos funcionarios públicos— han recurrido a modelos de lenguaje generativos (LLMs) como fuente de información técnica o jurídica. Un ejemplo reciente es el fallo de la Cámara Nacional en lo Criminal y Correccional, Sala I, del 10 de julio de 2024, en el que un defensor oficial invocó la respuesta de ChatGPT para justificar la creación de una cuenta de WhatsApp Business bajo la denominación de un “bufete de abogados”[10]. El tribunal rechazó dicha justificación, subrayando que la apariencia de actividad privada era incompatible con su función pública, independientemente de la fuente consultada.
La responsabilidad del juez frente a la IA no es meramente técnica, sino ética y procesal
Este caso revela un riesgo previo a la “alucinación”: la confianza acrítica en la IA, incluso cuando no hay mala fe. La UNESCO advierte que los LLMs “no ofrecen garantías sobre la veracidad, calidad y formato deseado de sus resultados” y que “incluso con las mejores indicaciones, el resultado puede ser inexacto, incompleto, engañoso o sesgado”¹⁹.
En consecuencia, la responsabilidad del juez frente a la IA no es meramente técnica, sino ética y procesal. Como advierte el Código Ético Iberoamericano, “el control final sobre cualquier decisión judicial debe permanecer en manos humanas”²⁰. La justicia no puede depender de sistemas que “inventan” jurisprudencia, distorsionan normas o reproducen sesgos estructurales. Solo mediante la supervisión humana rigurosa se preserva la integridad del debido proceso y la legitimidad de la función jurisdiccional.
3.4. El caso de Esquel: primera anulación de sentencia por uso indebido de IA
En junio de 2025, la Cámara en lo Penal de Esquel (Chubut) dictó un fallo histórico: anuló una sentencia condenatoria al comprobar que el juez de primera instancia había utilizado indebidamente un sistema de inteligencia artificial generativa para redactar partes fundamentales de la resolución[11].
El caso se originó en la causa N.º 1239/2025, donde un juez penal de Esquel condenó a un acusado a 2 años y 6 meses de prisión efectiva por un delito de robo. Al revisar la sentencia, los camaristas detectaron una frase delatora en el apartado “Punto IV”: “Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar”. Esta expresión, claramente generada por un chatbot, evidenció que el magistrado había incorporado texto producido por IA sin revisión crítica, anonimización ni trazabilidad. La Cámara declaró la nulidad absoluta del juicio, fundada en: 1) La delegación prohibida de funciones jurisdiccionales (arts. 16 y 75 del CPP Chubut), 2) La falta de motivación suficiente, la violación del debido proceso, y 3) La infracción al Acuerdo Plenario 5435/2025 del Superior Tribunal de Justicia de Chubut, que prohíbe la delegación en sistemas automatizados[12].
Además, ordenó remitir las actuaciones al Superior Tribunal de Justicia para una investigación disciplinaria, subrayando que la confianza acrítica en la IA no releva al magistrado de su responsabilidad personal[13].
Este precedente marca un antes y un después en la jurisprudencia argentina: por primera vez, una sentencia es anulada no por error sustantivo, sino por el modo en que fue elaborada.
3.5 El caso colombiano: anulación de una sentencia por uso de IA sin motivación humana
En América Latina, el precedente más contundente proviene de Colombia. En 2024, la Corte Suprema de Justicia anuló una sentencia dictada por un juez de familia que había utilizado frases hechas generadas por IA para fundamentar su decisión, sin adaptarlas al caso concreto ni realizar valoración probatoria propia³.
La Corte sostuvo que este proceder violaba el principio de no sustitución de la racionalidad humana, desarrollado en su Sentencia T-323/2024, que establece que la IA solo puede asistir, nunca decidir. La sentencia anulada carecía de “motivación personalizada” y reproducía argumentos genéricos, lo que impedía a las partes ejercer su derecho de defensa y recurso[14].
Este fallo es pionero porque declara la nulidad de una resolución judicial por el uso negligente de IA, estableciendo un estándar regional de exigencia motivacional.
La explicabilidad enfrenta obstáculos prácticos. Por un lado, algunos algoritmos son tan complejos que incluso sus creadores no pueden rastrear completamente su lógica interna. Por otro, las empresas desarrolladoras suelen invocar el secreto comercial o la propiedad intelectual para negar el acceso al código fuente, lo que obstaculiza la fiscalización judicial.
4. Explicabilidad y derecho a una decisión comprensible
Uno de los mayores desafíos éticos y procesales que plantea la IA es su opacidad. Muchos algoritmos, especialmente aquellos basados en deep learning, funcionan como “cajas negras”: toman entradas y producen salidas, pero sin revelar cómo se alcanzó esa conclusión. Esta falta de transparencia es inadmisible en el ámbito judicial, donde el derecho a una sentencia motivada y comprensible es un pilar del debido proceso.
El concepto de explicabilidad (Explainable Artificial Intelligence, XAI) busca superar esta opacidad, exigiendo que los sistemas de IA puedan proporcionar razones comprensibles —para seres humanos— sobre sus decisiones[15]. En el contexto judicial, esto no es un lujo técnico, sino una exigencia constitucional. Si un juez utiliza un algoritmo para evaluar riesgos, clasificar pruebas o predecir conductas, debe poder explicar —a las partes y a tribunales superiores— cómo llegó a esa conclusión.
Sin embargo, la explicabilidad enfrenta obstáculos prácticos. Por un lado, algunos algoritmos son tan complejos que incluso sus creadores no pueden rastrear completamente su lógica interna[16]. Por otro, las empresas desarrolladoras suelen invocar el secreto comercial o la propiedad intelectual para negar el acceso al código fuente, lo que obstaculiza la fiscalización judicial[17].
Ante este dilema, la solución no es renunciar a la IA, sino imponer condiciones estrictas para su uso. La Guía 961.2025 del Poder Judicial del Chaco, aunque no regula algoritmos complejos, sí establece un principio general: toda información utilizada debe ser verificable y transparente[18]. Esto implica que, en la práctica, los jueces deben abstenerse de utilizar sistemas cuya lógica sea inescrutable o cuyo funcionamiento no pueda auditarse.
Además, el derecho a la explicación no solo protege a las partes, sino que fortalece la rendición de cuentas del propio juez. Si el razonamiento algorítmico es claro, el magistrado puede ejercer su deber de supervisión con mayor eficacia. En cambio, si el sistema es opaco, el juez corre el riesgo de convertirse en un mero “validador” de resultados automáticos, violando su deber de motivación razonada.
En este sentido, la explicabilidad no es solo una característica técnica, sino una garantía procesal. Como señala Lucía Ortiz de Zárate, “la explicación debe ser comprensible para los seres humanos y corresponderse con la realidad que trata de explicar”[19]. Solo así se asegura que la IA sea una herramienta de apoyo, y no un obstáculo para la justicia.
5. Hacia un modelo de justicia digital compatible con el Estado de derecho
La integración de la inteligencia artificial en la justicia no debe guiarse por la lógica del mercado ni por la promesa de eficiencia a cualquier costo. Debe estar anclada en los valores del Estado de derecho: imparcialidad, igualdad, debido proceso, responsabilidad y dignidad humana.
La inteligencia artificial ha llegado a los tribunales, y su presencia es irreversible.
En este sentido, resulta ilustrativo el enfoque adoptado recientemente por la República Popular China. En marzo de 2024, su Ministerio de Recursos Humanos estableció que la adopción de IA por parte de las empresas no justifica despidos por reemplazo tecnológico. La norma prohíbe que una empresa despida a un trabajador únicamente porque una máquina lo haya decidido. Más allá de la lógica algorítmica, se exige que: 1) La decisión final de despido sea tomada por una persona, no por un sistema automatizado; 2) El trabajador tenga derecho a recibir una explicación comprensible, en lenguaje humano, sobre las razones de la decisión; 3) Y exista la posibilidad real de apelar ante un supervisor humano, quien deberá revisar críticamente el resultado del algoritmo antes de confirmarlo[20].
Este enfoque refuerza un principio central: la innovación tecnológica no puede prevalecer sobre los derechos fundamentales del ser humano, ni siquiera en el sector privado. Si en el ámbito empresarial se prohíbe la delegación total en IA, con mayor razón debe prohibirse en la función jurisdiccional, donde están en juego libertades personales, presunción de inocencia y garantías constitucionales.
El camino hacia una justicia digital legítima requiere, entonces, tres pilares complementarios:
Primero, regulación vinculante. Los códigos éticos, aunque valiosos, carecen de sanciones y no garantizan su cumplimiento. Es urgente que los poderes judiciales provinciales y la Nación avancen en normativas que impongan obligaciones claras, mecanismos de control y sanciones por uso negligente de IA —como ya lo hacen la Guía 961.2025 del Chaco y el Acuerdo Plenario 5435/2025 de Chubut.
Segundo, formación continua. Los jueces no deben ser expertos en algoritmos, pero sí comprender sus límites, riesgos y sesgos. La capacitación debe formar parte de la agenda institucional, tal como lo propone la UNESCO[21] y lo anticipa la Guía chaqueña.
Tercero, colaboración interdisciplinaria. El diseño de sistemas de IA para la justicia no puede dejarse únicamente en manos de ingenieros. Abogados, jueces, filósofos del derecho y científicos sociales deben participar desde el inicio, asegurando que los algoritmos respeten los principios del debido proceso y no reproduzcan injusticias históricas.
Finalmente, y sobre todo, debe reafirmarse que la justicia es una función humana. La IA puede ayudar a gestionar expedientes, resumir documentos o identificar patrones, pero nunca puede reemplazar el juicio prudente, equitativo y contextualizado del juez. Como enseñaba Aristóteles, la justicia no es solo aplicación de reglas, sino discernimiento ante la singularidad de cada caso. Esa virtud —la prudencia— sigue siendo, y debe seguir siendo, exclusivamente humana.
Conclusiones
La inteligencia artificial ha llegado a los tribunales, y su presencia es irreversible. Sin embargo, su uso no puede suponer una cesión de la autonomía judicial ni una dilución de la responsabilidad del juez. La Guía 961.2025 del Poder Judicial del Chaco representa un paso firme en la dirección correcta: reconocer los beneficios de la tecnología, pero imponer límites éticos y procesales inquebrantables.
Este trabajo ha puesto de manifiesto que la IA solo es compatible con el Estado de derecho si se concibe como una herramienta auxiliar sometida a control humano riguroso. La prohibición de delegación, el deber de verificación, la exigencia de transparencia y la responsabilidad personal del juez no son meras recomendaciones, sino garantías constitucionales derivadas del artículo 18 CN y de los códigos procesales penales.
La jurisprudencia argentina —desde González c/ Santoro hasta el fallo sobre el “topo de la defensoría”— ya ha trazado los contornos de estos límites. Ahora corresponde a los poderes judiciales, a los legisladores y a la comunidad académica consolidarlos en normas, prácticas y formación.
Para una praxis ética y regulada, es imperativo:
• Garantizar la explicabilidad y trazabilidad de cada sugerencia algorítmica,.
• Mantener el control humano en todas las etapas para prevenir sesgos y alucinaciones,.
• Fomentar la capacitación continua de los magistrados para que comprendan las limitaciones técnicas y los riesgos éticos.
El futuro de la Justicia no depende de cuán avanzada sea la tecnología, sino de cuán firmes sean nuestros compromisos con la dignidad humana, la transparencia y el debido proceso. En esa tarea, el juez no es un obstáculo a la innovación, sino su garante último.
Bibliografía
Doctrina y fuentes normativas
- Constitución de la Provincia del Chaco, art. 110.
- Constitución Nacional, art. 18.
- Código Procesal Penal de la Nación, Ley 27.453, art. 8. Publicada en el Boletín Oficial, 24 de agosto de 2018.
- Código Procesal Penal de la Provincia del Chaco, Ley 4.398, arts. 417 y 423. - Disponible en: https://normas.chaco.gob.ar/storage/normas/pdf/4398.pdf
- CORVALÁN, J. (Dir.). Tratado de Inteligencia Artificial y Derecho. Buenos Aires, 2021.
- Inteligencia Argentina. “China fija un límite a los despidos por reemplazo de IA”, 2024. Disponible en: https://inteligenciaargentina.ar/inteligencia-artificial/china-fija-un-limite-a-los-despidos-por-reemplazo-de-ia
- ORTIZ DE ZÁRATE ALCARAZO, L. “Explicabilidad (de la inteligencia artificial)”. Eunomía. Rev[ CORVALÁN, J. (Dir.), Tratado de Inteligencia Artificial y Derecho, Buenos Aires, 2021, t. II, p. 355.]ista en Cultura de la Legalidad, Nº 22, 2022, pp. 328–344. DOI: https://doi.org/10.20318/eunomia.2022.6819
- PASTOR, D. “Inteligencia artificial y justicia: ¿una relación simbiótica?”. Revista Jurídica UNA, 2024.
- Poder Judicial de la Provincia del Chaco. Guía para el Uso de Inteligencia Artificial (IA). Resolución STJ Nº 961/2025, Anexo I. Vigencia desde el 17 de noviembre de 2025.
- RIVAS VELASCO, M. J. “Uso ético de la inteligencia artificial en la justicia”. APM, 2023.
- UNESCO. Directrices de la UNESCO para el uso de sistemas de inteligencia artificial en juzgados y tribunales. 2024. Disponible en: https://unesdoc.unesco.org/ark:/48223/pf0000381298
Jurisprudencia
- Cámara Nacional en lo Criminal y Correccional, Sala I. “S., S. L. P. s/ recurso de apelación”, causa CCC 51192/2023/CA1, 10 de julio de 2024.
- Corte Suprema de Justicia de la Provincia de Buenos Aires. “González, Elisa Miriam c/ Santoro, Carlos Horacio y otro/a”, 13 de mayo de 2015. Disponible en: https://www.scba.gov.ar/jurisprudencia/fallos/2015/05/13/GONZALEZ,%20ELISA%20MIRIAM.htm
- Cámara en lo Penal de la Circunscripción Judicial de Esquel (Chubut). Sentencia N.º 1239/2025, 4 de junio de 2025. Caso “R.A.P.”. Informado en: Diario Judicial, “Al juez lo condenó ChatGPT”, 22 de enero de 2026. Disponible en: https://www.diariojudicial.com/news-101840-al-juez-lo-condeno-chatgpt
Corte Suprema de Justicia de Colombia. Sentencia T-323/2024. Caso sobre anulación de sentencia por uso de “frases hechas” de IA. Informado en: El Colombiano, “Corte Suprema anuló fallo por frases hechas de inteligencia artificial”, 2024. Disponible en: https://www.elcolombiano.com/colombia/corte-suprema-anulo-fallo-frases-hechas-inteligencia-artificial-CN30971740.
Notas
[1] Poder Judicial de la Provincia del Chaco, Guía para el Uso de Inteligencia Artificial (IA), Resolución STJ Nº 961/2025, considerandos.
[2] UNESCO, Directrices de la UNESCO para el uso de sistemas de inteligencia artificial en juzgados y tribunales, 2024, p. 5.
[3] RIVAS VELASCO, M. J., Uso ético de la inteligencia artificial en la justicia, APM, 2023, p. 5.
[4] CORVALÁN, J. (Dir.), Tratado de Inteligencia Artificial y Derecho, Buenos Aires, 2021, t. II, p. 355.
[5] PASTOR, D., Inteligencia artificial y justicia: ¿una relación simbiótica?, Revista Jurídica UNA, 2024, p. 15.
[6] Poder Judicial de la Provincia del Chaco, op. cit., p. 1.
[7] Código Procesal Penal de la Nación, Ley 27.453, art. 8.
[8] Poder Judicial de la Provincia del Chaco, op. cit., p. 4.
[9] Suprema Corte de Justicia de la Provincia de Buenos Aires, “González, Elisa Miriam c/ Santoro, Carlos Horacio y otro/a”, 13 de mayo de 2015.
[10] Cámara Nacional en lo Criminal y Correccional, Sala I, “S., S. L. P. s/ recurso de apelación”, causa CCC 51192/2023/CA1, 10 de julio de 2024.
[11] Diario Judicial, “Al juez lo condenó ChatGPT”, 22 de enero de 2026. Disponible en: https://www.diariojudicial.com/news-101840-al-juez-lo-condeno-chatgpt
[12] Ibíd.
[13] Ibíd.
[14] El Colombiano, “Corte Suprema anuló fallo por frases hechas de inteligencia artificial”, 2024. Disponible en: https://www.elcolombiano.com/colombia/corte-suprema-anulo-fallo-frases-hechas-inteligencia-artificial-CN30971740
[15] ORTIZ DE ZÁRATE ALCARAZO, L., “Explicabilidad (de la inteligencia artificial)”, Eunomía. Revista en Cultura de la Legalidad, Nº 22, 2022, p. 329.
[16] Ibíd., p. 336.
[17] Ibíd., p. 340.
[18] Poder Judicial de la Provincia del Chaco, op. cit., p. 4.
[19] ORTIZ DE ZÁRATE ALCARAZO, L., op. cit., p. 340.
[20] Inteligencia Argentina, “China fija un límite a los despidos por reemplazo de IA”, 2024. Disponible en: https://inteligenciaargentina.ar/inteligencia-artificial/china-fija-un-limite-a-los-despidos-por-reemplazo-de-ia
[21] UNESCO, Directrices de la UNESCO para el uso de sistemas de inteligencia artificial en juzgados y tribunales, 2024, p. 20.