03 de Diciembre de 2025
Edición 7348 ISSN 1667-8486
Próxima Actualización: 04/12/2025
Responsabilidad legal en tiempos de IA

¿Y si la culpa fue del algoritmo?

Un reciente trabajo académico advierte sobre los desafíos que presenta la Inteligencia Artificial para el Derecho. ¿Puede una máquina tener “voluntad”? ¿Quién responde cuando una IA causa daño?

(IA Meta)
Por:
Santiago
Rubin
Por:
Santiago
Rubin

La Inteligencia Artificial ha comenzado a ocupar espacios cada vez más relevantes en ámbitos como la medicina, las finanzas, los recursos humanos y también el sistema de justicia. Pero con su avance, surgen nuevas preguntas jurídicas difíciles de responder. ¿Cómo se determina la responsabilidad civil o penal cuando el causante del daño es una IA? ¿Es posible hablar de intención en un sistema algorítmico?

En el artículo académico que analizamos, se expone cómo el uso de sistemas de IA pone en tensión el marco tradicional de la responsabilidad jurídica. En particular, se destaca que tanto el derecho penal como el derecho civil exigen un elemento subjetivo o “mental” para atribuir responsabilidad. En derecho penal, esto se traduce en el dolo o la culpa; en el ámbito civil, en la previsibilidad del daño o el incumplimiento voluntario.

 

Los sistemas de IA, por definición, no piensan ni actúan con intención. Ejecutan procesos computacionales sobre la base de datos masivos y redes neuronales, sin consciencia ni voluntad.

 

El problema: los sistemas de IA, por definición, no piensan ni actúan con intención. Ejecutan procesos computacionales sobre la base de datos masivos y redes neuronales, sin consciencia ni voluntad.

La IA como herramienta y como agente

Frente a esta problemática, el trabajo plantea una distinción central: no es lo mismo utilizar una IA como herramienta —bajo control humano— que delegar decisiones sustantivas en estos sistemas.

Cuando un profesional, por ejemplo un médico, abogado o un juez, utiliza una IA como complemento para procesar información, la responsabilidad jurídica se mantiene sobre el humano. Pero cuando el sistema actúa de manera autónoma, ¿Quién debe asumir las consecuencias si hay un error?

El debate se complica aún más cuando la IA aprende y evoluciona con nuevos datos, lo que puede llevar a resultados impredecibles. El artículo destaca que en esos casos se pierde el vínculo de causalidad directa, clave para imputar responsabilidad bajo las categorías actuales.

Justicia automatizada: ¿Quién controla al algoritmo?

En el ámbito judicial, el uso de IA para asignación de causas, evaluación de reincidencia o incluso sugerencias de sentencias está en expansión en varios países. El artículo analiza estos desarrollos a la luz de los principios del debido proceso.

 

Si una persona es evaluada por un sistema cuyo funcionamiento no puede auditarse ni comprenderse, el derecho a la defensa y a la revisión judicial se ven comprometidos.

 

En este punto, el paper advierte que la falta de transparencia —la llamada “caja negra algorítmica”— vulnera derechos fundamentales. Si una persona es evaluada por un sistema cuyo funcionamiento no puede auditarse ni comprenderse, el derecho a la defensa y a la revisión judicial se ven comprometidos.

Además, si el sistema automatizado se equivoca, ¿Quién responde? ¿El Estado que lo contrató? ¿La empresa que lo desarrolló? ¿El juez que lo utilizó sin entender cómo funciona?

Conclusión

Desde la óptica del Derecho Informático, el uso de Inteligencia Artificial plantea una reconfiguración urgente de las categorías jurídicas tradicionales. Los elementos mentales —dolo, culpa, intención— no son trasladables sin más a sistemas que no tienen consciencia ni capacidad de discernimiento moral.

el Derecho no puede seguir pensando en términos de sujetos humanos exclusivamente. Pero tampoco puede renunciar a los principios de legalidad, imputación y debido proceso.

El desafío para el Poder Judicial no es sólo técnico, sino jurídico: evitar delegar en algoritmos decisiones que requieren razonamiento jurídico humano, garantizar transparencia, auditar los modelos utilizados y actualizar los marcos normativos para que la responsabilidad no quede disuelta en un “limbo digital”.

El debate no es teórico: en un contexto de creciente judicialización de decisiones automatizadas, el Derecho no puede seguir pensando en términos de sujetos humanos exclusivamente. Pero tampoco puede renunciar a los principios de legalidad, imputación y debido proceso.

 

Si quiere profundizar en el uso de la Inteligencia Artificial —como ChatGPT— y otras tecnologías disruptivas aplicadas al ejercicio profesional, Campus Judicial el área de educación a distancia de Diario Judicial, ofrece cursos totalmente online diseñados específicamente para letrados, desde «ChatGPT para abogados» hasta «Blockchain y Smart Contracts». Visite campusjudicial.com y potencie su práctica legal mediante una formación práctica y flexible, adaptada a sus necesidades.



Estimado colega periodista: si va a utilizar parte esta nota o del fallo adjunto como "inspiración" para su producción, por favor cítenos como fuente incluyendo el link activo a http://www.diariojudicial.com. Si se trata de una nota firmada, no omita el nombre del autor. Muchas gracias.

Notas relacionadas:
Demanda por entrenamiento de modelos de inteligencia artificial
¿La IA mira videos XXX?
Deberán informar su falta a las contrapartes y todos sus clientes
ChatGPT: sanciones reales para citas falsas

VOLVER A LA TAPA

Diariojudicial.com es un emprendimiento de Diario Judicial.com S.A.
Propietario: Diario Judicial.com S.A. Amenábar 590 Ciudad Autónoma de Buenos Aires
Directora: Esther Analía Zygier. Registro de propiedad intelectual 54570890 Ley 11.723.
Descarga
la portada del diario en formato PDF

Reciba diariamente por e-mail todas las noticias del ámbito judicial.
Copyright ® 1999 - 2025 . Diario Judicial. Todos los derechos reservadores. ISSSN 1667-8486