04 de Diciembre de 2025
Edición 7349 ISSN 1667-8486
Próxima Actualización: 05/12/2025
Otra vez el mal uso de IA

ChatGPT no es tu pasante

Un tribunal norteamericano reprendió a abogada por presentar un escrito con citas judiciales falsas generadas por un sistema de inteligencia artificial.

(IA Meta)
Por:
Santiago
Rubin
Por:
Santiago
Rubin

En los autos “Giovonni Shelton v. Parkland Health” (Case No. 3:24-CV-2190-L-BW), el Tribunal de Distrito Norte de Texas, con sede en Dallas, cargo del juez Brian McKay, reprendió a abogada  por presentar un escrito de defensa con citas judiciales falsas generadas por un sistema de inteligencia artificial. La profesional alegó que la responsabilidad recaía en una asociada recién recibida que había usado la herramienta sin su conocimiento.

El caso se originó cuando la abogada, en una demanda laboral, presentó una moción de juicio sumario que citaba jurisprudencia inexistente. Los abogados de la parte demandada detectaron inconsistencias en las referencias legales y advirtieron al tribunal que el escrito parecía haber sido redactado con ayuda de inteligencia artificial generativa (GAI).

Tras verificar los errores, el juez McKay emitió una orden para que dicha letrada explicara por qué no debía ser sancionada, recordándole la obligación impuesta por las reglas locales del Distrito Norte de Texas, que exigen declarar expresamente cuando un escrito se elabora con herramientas de IA.

 

“En su respuesta al requerimiento de comparecencia, Davidson atribuye el uso de GAI a una abogada asociada recién licenciada que anteriormente trabajaba a distancia para su bufete. Afirma que le facilitó acceso a su cuenta de Lexis y que no sospechaba que hubiera utilizado GAI para preparar el escrito, centrándose en el estilo de redacción y la aplicación del derecho a las pruebas, sin verificar la exactitud de cada uno de los casos citados.”

 

La abogada, reconoció luego que parte del texto había sido preparado por una abogada asociada recién licenciada, quien trabajaba de forma remota y utilizó sin permiso ni aviso un sistema de IA. La titular del estudio sostuvo que no revisó la exactitud de todas las citas, confiando en la investigación de su asistente y atribuyó la falta de control a una “omisión involuntaria”.

“En su respuesta al requerimiento de comparecencia, Davidson atribuye el uso de GAI a una abogada asociada recién licenciada que anteriormente trabajaba a distancia para su bufete. Afirma que le facilitó acceso a su cuenta de Lexis y que no sospechaba que hubiera utilizado GAI para preparar el escrito, centrándose en el estilo de redacción y la aplicación del derecho a las pruebas, sin verificar la exactitud de cada uno de los casos citados.”, se lee en los hechos del caso.

 

“El número de decisiones judiciales que denuncian los problemas asociados con los escritos legales preparados utilizando GAI es considerable y crece semanalmente…El uso ético de las herramientas de GAI obliga a los abogados a "garantizar la fiabilidad de las proposiciones legales y la jurisprudencia generadas" y a "comprobar la exactitud de todos los casos y citas"

 

El magistrado consideró que la explicación no la eximía de responsabilidad. Citando precedentes de otras jurisdicciones —como Mata v. Avianca Inc. y Benjamin v. Costco Wholesale Corp.—, el juez recordó que el uso de IA sin verificación rigurosa no cumple con el deber de investigación razonable que impone la Regla 11(b)(2) de Procedimiento Civil Federal: 

“El número de decisiones judiciales que denuncian los problemas asociados con los escritos legales preparados utilizando GAI es considerable y crece semanalmente…El uso ético de las herramientas de GAI obliga a los abogados a "garantizar la fiabilidad de las proposiciones legales y la jurisprudencia generadas" y a "comprobar la exactitud de todos los casos y citas".”, se expresó en el fallo. 

Pese a la gravedad del incumplimiento, el tribunal optó por no imponer sanciones económicas, teniendo en cuenta que la abogada no actuó con mala fe y no tenía antecedentes disciplinarios. No obstante, el juez emitió una reprimenda formal y la exhortó a mejorar la supervisión del personal y establecer políticas claras sobre el uso de IA en la elaboración de escritos judiciales.



Estimado colega periodista: si va a utilizar parte esta nota o del fallo adjunto como "inspiración" para su producción, por favor cítenos como fuente incluyendo el link activo a http://www.diariojudicial.com. Si se trata de una nota firmada, no omita el nombre del autor. Muchas gracias.

Notas relacionadas:
La ONU advierte sobre el impacto de la IA
La justicia no se programa
La Justicia de Nueva York se sube al tren de la IA
La IA como herramienta, no como juez
La alzada pidió la intervención del TSJ
Al juez lo condenó ChatGPT
Otra vez las alucinaciones judiciales
Gol en contra por usar mal ChatGPT
Cuidado con el mal uso de la IA
Chanta-GPT

VOLVER A LA TAPA

Diariojudicial.com es un emprendimiento de Diario Judicial.com S.A.
Propietario: Diario Judicial.com S.A. Amenábar 590 Ciudad Autónoma de Buenos Aires
Directora: Esther Analía Zygier. Registro de propiedad intelectual 54570890 Ley 11.723.
Descarga
la portada del diario en formato PDF

Reciba diariamente por e-mail todas las noticias del ámbito judicial.
Copyright ® 1999 - 2025 . Diario Judicial. Todos los derechos reservadores. ISSSN 1667-8486