En los autos “Giovonni Shelton v. Parkland Health” (Case No. 3:24-CV-2190-L-BW), el Tribunal de Distrito Norte de Texas, con sede en Dallas, cargo del juez Brian McKay, reprendió a abogada por presentar un escrito de defensa con citas judiciales falsas generadas por un sistema de inteligencia artificial. La profesional alegó que la responsabilidad recaía en una asociada recién recibida que había usado la herramienta sin su conocimiento.
El caso se originó cuando la abogada, en una demanda laboral, presentó una moción de juicio sumario que citaba jurisprudencia inexistente. Los abogados de la parte demandada detectaron inconsistencias en las referencias legales y advirtieron al tribunal que el escrito parecía haber sido redactado con ayuda de inteligencia artificial generativa (GAI).
Tras verificar los errores, el juez McKay emitió una orden para que dicha letrada explicara por qué no debía ser sancionada, recordándole la obligación impuesta por las reglas locales del Distrito Norte de Texas, que exigen declarar expresamente cuando un escrito se elabora con herramientas de IA.
“En su respuesta al requerimiento de comparecencia, Davidson atribuye el uso de GAI a una abogada asociada recién licenciada que anteriormente trabajaba a distancia para su bufete. Afirma que le facilitó acceso a su cuenta de Lexis y que no sospechaba que hubiera utilizado GAI para preparar el escrito, centrándose en el estilo de redacción y la aplicación del derecho a las pruebas, sin verificar la exactitud de cada uno de los casos citados.”
La abogada, reconoció luego que parte del texto había sido preparado por una abogada asociada recién licenciada, quien trabajaba de forma remota y utilizó sin permiso ni aviso un sistema de IA. La titular del estudio sostuvo que no revisó la exactitud de todas las citas, confiando en la investigación de su asistente y atribuyó la falta de control a una “omisión involuntaria”.
“En su respuesta al requerimiento de comparecencia, Davidson atribuye el uso de GAI a una abogada asociada recién licenciada que anteriormente trabajaba a distancia para su bufete. Afirma que le facilitó acceso a su cuenta de Lexis y que no sospechaba que hubiera utilizado GAI para preparar el escrito, centrándose en el estilo de redacción y la aplicación del derecho a las pruebas, sin verificar la exactitud de cada uno de los casos citados.”, se lee en los hechos del caso.
“El número de decisiones judiciales que denuncian los problemas asociados con los escritos legales preparados utilizando GAI es considerable y crece semanalmente…El uso ético de las herramientas de GAI obliga a los abogados a "garantizar la fiabilidad de las proposiciones legales y la jurisprudencia generadas" y a "comprobar la exactitud de todos los casos y citas"
El magistrado consideró que la explicación no la eximía de responsabilidad. Citando precedentes de otras jurisdicciones —como Mata v. Avianca Inc. y Benjamin v. Costco Wholesale Corp.—, el juez recordó que el uso de IA sin verificación rigurosa no cumple con el deber de investigación razonable que impone la Regla 11(b)(2) de Procedimiento Civil Federal:
“El número de decisiones judiciales que denuncian los problemas asociados con los escritos legales preparados utilizando GAI es considerable y crece semanalmente…El uso ético de las herramientas de GAI obliga a los abogados a "garantizar la fiabilidad de las proposiciones legales y la jurisprudencia generadas" y a "comprobar la exactitud de todos los casos y citas".”, se expresó en el fallo.
Pese a la gravedad del incumplimiento, el tribunal optó por no imponer sanciones económicas, teniendo en cuenta que la abogada no actuó con mala fe y no tenía antecedentes disciplinarios. No obstante, el juez emitió una reprimenda formal y la exhortó a mejorar la supervisión del personal y establecer políticas claras sobre el uso de IA en la elaboración de escritos judiciales.