11 de Diciembre de 2025
Edición 7353 ISSN 1667-8486
Próxima Actualización: 12/12/2025
ChatGPT

No razona como un abogado

Una Corte norteamericana sancionó a un letrado por presentar escritos elaborados con inteligencia artificial que citaban casos reales, pero con contenidos falsos o inexactos. Se explicó por qué, a diferencia de un litigante humano, un modelo de lenguaje no razona.

(IA Meta)
Por:
Santiago
Rubin
Por:
Santiago
Rubin

En una decisión que vuelve a colocar a la inteligencia artificial en el centro del debate jurídico, el juez F. Kay Behm, de la Corte de Distrito Este de Michigan, emitió una dura resolución sancionando a los abogados de los actores por presentar un escrito plagado de referencias legales incorrectas generadas por ChatGPT.

 

“El hecho de que los demandantes, y en particular Michael Jarrus (quien redactó el escrito en cuestión), no hayan inventado casos ni citado decisiones inexistentes no ayuda. Cuando la cita de un caso es real, un abogado, o incluso un juez, podría ver un caso que reconoce y asumir que la cita o la sentencia se han presentado con precisión.”

 

La causa  “Michael D. Jarrus and Linda Jarrous v. Governor of Michigan, et al., Case No. 25-cv-11168”, se originó cuando los demandantes presentaron objeciones a una resolución del magistrado Anthony Patti. Aunque Patti ya les había advertido sobre los riesgos de usar IA sin verificar su contenido, volvieron a hacerlo. 

Pero el problema mayor fue otro: la IA citó casos reales, pero inventó o modificó sus contenidos, una práctica que el juez consideró incompatible con el Rule 11 de las Federal Rules of Civil Procedure.

“El hecho de que los demandantes, y en particular Michael Jarrus (quien redactó el escrito en cuestión), no hayan inventado casos ni citado decisiones inexistentes no ayuda. Cuando la cita de un caso es real, un abogado, o incluso un juez, podría ver un caso que reconoce y asumir que la cita o la sentencia se han presentado con precisión.”, se sostuvo en la decisión.

El juez Behm dedicó buena parte de la sentencia a explicar por qué la IA generativa no puede satisfacer los estándares mínimos de verificación exigidos por el Rule 11, que obliga a toda parte litigante a asegurar que sus afirmaciones legales se basan en un análisis razonable de la jurisprudencia aplicable.

"Ese problema se ilustra aquí; aunque Chat GPT generó "existencias" que parecían plausibles de haber aparecido en los casos citados, de hecho, las exageró considerablemente. Y aunque un litigante podría salirse con la suya con exageraciones similares porque, tal vez, podría razonar sus argumentos como forma de mostrar cómo la decisión declarada en un caso podría extenderse a situaciones nuevas, un LLM no razona de la manera en que debe hacerlo un litigante.", aclaró el magistrado.

Según el fallo, un modelo de lenguaje es, en esencia, “a word guesser”, un sistema que predice palabras basándose en patrones estadísticos, pero que carece de la capacidad cognitiva necesaria para evaluar la veracidad o exactitud del contenido jurídico que produce.

 

“Para demostrar cómo la decisión declarada de un caso podría aplicarse a situaciones novedosas, un LLM no razona como debe hacerlo un litigante. Dicho de otro modo, los LLM no realizan los procesos metacognitivos necesarios para cumplir con la Regla 11. Los LLM son herramientas que «emulan la función comunicativa del lenguaje, no el proceso cognitivo separado y distinto del pensamiento y el razonamiento».”

 

Un abogado o litigante humano puede equivocarse por un razonamiento defectuoso. Pero un LLM no razona. Por lo tanto, no puede justificar errores como parte de un proceso argumentativo: 

“Para demostrar cómo la decisión declarada de un caso podría aplicarse a situaciones novedosas, un LLM no razona como debe hacerlo un litigante. Dicho de otro modo, los LLM no realizan los procesos metacognitivos necesarios para cumplir con la Regla 11. Los LLM son herramientas que «emulan la función comunicativa del lenguaje, no el proceso cognitivo separado y distinto del pensamiento y el razonamiento».”

Estos errores, aunque “sofisticados”, demostraban —según el juez— por qué la IA es especialmente peligrosa: produce texto persuasivo que parece jurídicamente sólido, pero no lo es.

Como respuesta, el tribunal aplicó sanciones económicas por un total de 300 dólares para cada demandante, siguiendo un parámetro ya advertido por el magistrado Patti: 100 dólares por cada cita incorrecta generada mediante IA.

Más allá del monto, el juez dejó una advertencia contundente: si vuelven a presentar escritos con citas inventadas o inexactas derivadas del uso de IA, evaluará incluso la posibilidad de desestimar la demanda.



Estimado colega periodista: si va a utilizar parte esta nota o del fallo adjunto como "inspiración" para su producción, por favor cítenos como fuente incluyendo el link activo a http://www.diariojudicial.com. Si se trata de una nota firmada, no omita el nombre del autor. Muchas gracias.

Notas relacionadas:
Nueva regulación bonaerense para sistemas inteligentes
IA con papeles
Otra vez el mal uso de IA
ChatGPT no es tu pasante
La ONU advierte sobre el impacto de la IA
La justicia no se programa
La Justicia de Nueva York se sube al tren de la IA
La IA como herramienta, no como juez
Nueva York
Mi voz es mi voz
La alzada pidió la intervención del TSJ
Al juez lo condenó ChatGPT

VOLVER A LA TAPA

Diariojudicial.com es un emprendimiento de Diario Judicial.com S.A.
Propietario: Diario Judicial.com S.A. Amenábar 590 Ciudad Autónoma de Buenos Aires
Directora: Esther Analía Zygier. Registro de propiedad intelectual 54570890 Ley 11.723.
Descarga
la portada del diario en formato PDF

Reciba diariamente por e-mail todas las noticias del ámbito judicial.
Copyright ® 1999 - 2025 . Diario Judicial. Todos los derechos reservadores. ISSSN 1667-8486