En una decisión que vuelve a colocar a la inteligencia artificial en el centro del debate jurídico, el juez F. Kay Behm, de la Corte de Distrito Este de Michigan, emitió una dura resolución sancionando a los abogados de los actores por presentar un escrito plagado de referencias legales incorrectas generadas por ChatGPT.
“El hecho de que los demandantes, y en particular Michael Jarrus (quien redactó el escrito en cuestión), no hayan inventado casos ni citado decisiones inexistentes no ayuda. Cuando la cita de un caso es real, un abogado, o incluso un juez, podría ver un caso que reconoce y asumir que la cita o la sentencia se han presentado con precisión.”
La causa “Michael D. Jarrus and Linda Jarrous v. Governor of Michigan, et al., Case No. 25-cv-11168”, se originó cuando los demandantes presentaron objeciones a una resolución del magistrado Anthony Patti. Aunque Patti ya les había advertido sobre los riesgos de usar IA sin verificar su contenido, volvieron a hacerlo.
Pero el problema mayor fue otro: la IA citó casos reales, pero inventó o modificó sus contenidos, una práctica que el juez consideró incompatible con el Rule 11 de las Federal Rules of Civil Procedure.
“El hecho de que los demandantes, y en particular Michael Jarrus (quien redactó el escrito en cuestión), no hayan inventado casos ni citado decisiones inexistentes no ayuda. Cuando la cita de un caso es real, un abogado, o incluso un juez, podría ver un caso que reconoce y asumir que la cita o la sentencia se han presentado con precisión.”, se sostuvo en la decisión.
El juez Behm dedicó buena parte de la sentencia a explicar por qué la IA generativa no puede satisfacer los estándares mínimos de verificación exigidos por el Rule 11, que obliga a toda parte litigante a asegurar que sus afirmaciones legales se basan en un análisis razonable de la jurisprudencia aplicable.
"Ese problema se ilustra aquí; aunque Chat GPT generó "existencias" que parecían plausibles de haber aparecido en los casos citados, de hecho, las exageró considerablemente. Y aunque un litigante podría salirse con la suya con exageraciones similares porque, tal vez, podría razonar sus argumentos como forma de mostrar cómo la decisión declarada en un caso podría extenderse a situaciones nuevas, un LLM no razona de la manera en que debe hacerlo un litigante.", aclaró el magistrado.
Según el fallo, un modelo de lenguaje es, en esencia, “a word guesser”, un sistema que predice palabras basándose en patrones estadísticos, pero que carece de la capacidad cognitiva necesaria para evaluar la veracidad o exactitud del contenido jurídico que produce.
“Para demostrar cómo la decisión declarada de un caso podría aplicarse a situaciones novedosas, un LLM no razona como debe hacerlo un litigante. Dicho de otro modo, los LLM no realizan los procesos metacognitivos necesarios para cumplir con la Regla 11. Los LLM son herramientas que «emulan la función comunicativa del lenguaje, no el proceso cognitivo separado y distinto del pensamiento y el razonamiento».”
Un abogado o litigante humano puede equivocarse por un razonamiento defectuoso. Pero un LLM no razona. Por lo tanto, no puede justificar errores como parte de un proceso argumentativo:
“Para demostrar cómo la decisión declarada de un caso podría aplicarse a situaciones novedosas, un LLM no razona como debe hacerlo un litigante. Dicho de otro modo, los LLM no realizan los procesos metacognitivos necesarios para cumplir con la Regla 11. Los LLM son herramientas que «emulan la función comunicativa del lenguaje, no el proceso cognitivo separado y distinto del pensamiento y el razonamiento».”
Estos errores, aunque “sofisticados”, demostraban —según el juez— por qué la IA es especialmente peligrosa: produce texto persuasivo que parece jurídicamente sólido, pero no lo es.
Como respuesta, el tribunal aplicó sanciones económicas por un total de 300 dólares para cada demandante, siguiendo un parámetro ya advertido por el magistrado Patti: 100 dólares por cada cita incorrecta generada mediante IA.
Más allá del monto, el juez dejó una advertencia contundente: si vuelven a presentar escritos con citas inventadas o inexactas derivadas del uso de IA, evaluará incluso la posibilidad de desestimar la demanda.