Desde la irrupción de la Inteligencia Artificial (IA), han surgido numerosos casos judiciales en los que abogados fueron sancionados o recibieron llamados de atención por su mala utilización. Estas situaciones se repiten en distintos países y motivaron también advertencias por parte de colegios y entidades profesionales.
Pero el problema va más allá: ahora también involucra a jueces y funcionarios judiciales que hacen un uso inadecuado de estas herramientas. Un abogado español denunció a un magistrado ante el Consejo General del Poder Judicial por supuestamente perjudicarlo en una sentencia usando jurisprudencia 'inexistente' a través de la IA.
El matriculado, según informó el diario El Mundo, denunció al titular del Juzgado de Instrucción número 5 de Ceuta por presuntamente usar la herramienta tecnológica en sus resoluciones “de manera errónea” y citado jurisprudencia del Tribunal Supremo “inexistente” para inadmitir un recurso.
El letrado señaló que la “génesis de la anomalía hay que buscarla en la actuación de la Fiscalía, quien fue la primera en echar mano de esta doctrina del Supremo que, insiste, no existe. Afea al magistrado «la ausencia absoluta de control y verificación” por hacer suya la argumentación “sin comprobar las apreciaciones del Ministerio Público. (...) interpuso un recurso en un procedimiento y la Fiscalía, tal como expone la queja elevada al CGPJ, emitió un informe basándose en una jurisprudencia inexistente e incluso la identificó con número, año y fecha concreta, atribuyéndole doctrina literal entrecomillada”.
Y concluyó que se trata de una situación “de una gravedad extraordinaria, carente de precedentes conocidos y profundamente lesiva de derechos fundamentales, que no puede explicarse como un simple error jurídico ni como una discrepancia interpretativa, sino como un fallo estructural en la elaboración y control de una resolución judicial”.
De este modo, acusó al juez de incorporar la información “sin la más mínima verificación, asumiéndolo como propio y convirtiéndolo en fundamento directo de su decisión”, y que “lo sucedido revela, con un grado de evidencia preocupante, el uso incorrecto de herramientas de inteligencia artificial o de sistemas automatizados de generación de texto jurídico, utilizados sin ningún tipo de contraste ni verificación por parte de quienes elaboran los informes y dictan las resoluciones”.
“Que la resolución 'acoja' los argumentos del Ministerio Fiscal no atenúa la gravedad de lo ocurrido, sino que la agrava, porque el juez no puede renunciar a su deber elemental de comprobar que la jurisprudencia en la que se apoya existe realmente. Cuando un órgano judicial hace suyos unos fundamentos, responde plenamente de su veracidad y de sus consecuencias", añadió.
Y concluyó que se trata de una situación “de una gravedad extraordinaria, carente de precedentes conocidos y profundamente lesiva de derechos fundamentales, que no puede explicarse como un simple error jurídico ni como una discrepancia interpretativa, sino como un fallo estructural en la elaboración y control de una resolución judicial”.