04 de Diciembre de 2025
Edición 7349 ISSN 1667-8486
Próxima Actualización: 05/12/2025
La Justicia de Nueva York se sube al tren de la IA

La IA como herramienta, no como juez

El Sistema Unificado de Cortes del Estado de Nueva York aprobó una política provisional sobre el uso de inteligencia artificial que regirá desde octubre de 2025. El documento establece principios y restricciones para garantizar un uso responsable, ético y seguro de la IA por parte de jueces y empleados judiciales.

(IA Meta)
Por:
Santiago
Rubin
Por:
Santiago
Rubin

El Sistema Unificado de Cortes del Estado de Nueva York (UCS) publicó su Política Provisional sobre el Uso de la Inteligencia Artificial, una normativa que entró en vigencia a partir de octubre de 2025 y que busca definir cómo los tribunales pueden incorporar esta tecnología sin comprometer la imparcialidad ni la confidencialidad propias de la función judicial.

El documento, titulado Interim Policy on the Use of Artificial Intelligence, tiene por objetivo —según su Sección I— “promover el uso responsable y ético de la inteligencia artificial en el Sistema Unificado de Cortes del Estado de Nueva York”, estableciendo límites concretos para su utilización por parte de jueces y empleados no judiciales.

 

Se establece que la inteligencia artificial puede ser utilizada como una herramienta de asistencia, pero no como sustituto del juicio humano ni de la toma de decisiones judiciales. Todo contenido generado mediante IA deberá ser revisado cuidadosamente por el usuario, que continúa siendo responsable del producto final.

 

La política surge en un contexto de creciente adopción de herramientas de IA generativa en distintos ámbitos del sector público y privado, y reconoce que su avance “obliga a las instituciones a acompañar los cambios tecnológicos sin comprometer los valores de justicia, imparcialidad y confidencialidad”.

El documento aclara que la política se aplica a todos los jueces y empleados del sistema judicial, tanto en tareas realizadas con dispositivos oficiales como personales, siempre que se relacionen con su labor en el UCS.

Se establece que la inteligencia artificial puede ser utilizada como una herramienta de asistencia, pero no como sustituto del juicio humano ni de la toma de decisiones judiciales. Todo contenido generado mediante IA deberá ser revisado cuidadosamente por el usuario, que continúa siendo responsable del producto final.

Riesgos y advertencias

El texto detalla los principales riesgos que acompañan al uso de la inteligencia artificial generativa, destacando tres:

Información inexacta o fabricada: las herramientas de IA pueden producir resultados erróneos o “alucinaciones”, inventando datos o citas. Por eso, el documento prohíbe confiar en sus respuestas sin verificación independiente.

Sesgos y contenido inapropiado: debido a los datos con los que se entrenan los modelos, los sistemas pueden replicar estereotipos o prejuicios. Los usuarios deberán revisar cualquier salida para evitar reproducir discriminaciones o sesgos.

Vulnerabilidad de la información confidencial: se advierte que plataformas como ChatGPT, basadas en modelos abiertos, pueden retener y reutilizar los datos ingresados para entrenar nuevos modelos, lo que implica que cualquier información sensible podría hacerse pública.

En consecuencia, queda prohibido ingresar información confidencial, privada o sensible (como nombres de partes, números de expediente o documentos judiciales) en plataformas de IA que no operen bajo modelos privados controlados por el propio sistema judicial.

Herramienta, no juez

 

Los jueces, según la política, “no pueden delegar su función decisoria en la inteligencia artificial”, recordando que deben “actuar de manera que promueva la confianza pública en la integridad e imparcialidad del poder judicial”.

 

El texto es claro al definir a la IA como “un tipo de herramienta destinada a asistir al usuario en ciertas tareas, pero que no debe ser tratada como sustituto del juicio humano”.

Los jueces, según la política, “no pueden delegar su función decisoria en la inteligencia artificial”, recordando que deben “actuar de manera que promueva la confianza pública en la integridad e imparcialidad del poder judicial”.

Asimismo, los empleados no judiciales tienen la obligación de evitar cualquier uso que viole su deber de confidencialidad o que implique la manifestación de sesgos o prejuicios.



Estimado colega periodista: si va a utilizar parte esta nota o del fallo adjunto como "inspiración" para su producción, por favor cítenos como fuente incluyendo el link activo a http://www.diariojudicial.com. Si se trata de una nota firmada, no omita el nombre del autor. Muchas gracias.

Notas relacionadas:
La alzada pidió la intervención del TSJ
Al juez lo condenó ChatGPT
Cuidado con el mal uso de la IA
Chanta-GPT
Otra vez las alucinaciones judiciales
Gol en contra por usar mal ChatGPT
Uso de Inteligencia Artificial en la Justicia
La máquina suma, el juez decide
Citas y jurisprudencia falsa
Abogados: cuidado con la IA

VOLVER A LA TAPA

Diariojudicial.com es un emprendimiento de Diario Judicial.com S.A.
Propietario: Diario Judicial.com S.A. Amenábar 590 Ciudad Autónoma de Buenos Aires
Directora: Esther Analía Zygier. Registro de propiedad intelectual 54570890 Ley 11.723.
Descarga
la portada del diario en formato PDF

Reciba diariamente por e-mail todas las noticias del ámbito judicial.
Copyright ® 1999 - 2025 . Diario Judicial. Todos los derechos reservadores. ISSSN 1667-8486